Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Ce que les frappes iraniennes sur des centres de données Amazon changent — ou non — à la conduite de la guerre

Un panache de fumée s’élève à Abu Dhabi le 1er mars 2026, suite aux frappes de drones iraniens sur la ville, notamment contre les centres de données. Ryan Lim/AFP via Getty Images

L’intelligence artificielle est devenue un outil central des opérations militaires, notamment pour l’armée des États-Unis. Les centres de données qui la font fonctionner, principalement basés dans la région du Golfe, constituent donc des infrastructures cruciales. Et comme tout dispositif critique, ils deviennent des cibles potentielles en temps de guerre.


Le 1er mars 2026, peu avant l’aube, des drones iraniens ont visé deux centres de données Amazon situés aux Émirats arabes unis. Un troisième centre, au Bahreïn, a également été touché, bien qu’il ne soit pas établi qu’il avait été visé de façon délibérée. L’Iran a en tout cas indiqué qu’il considérait les centres de données commerciaux comme des cibles.

Il s’agit de la première fois qu’un État cible délibérément des centres de données dans le cadre d’un conflit armé. Par le passé, ces infrastructures avaient fait l’objet d’opérations d’espionnage et de cyberattaques, notamment en 2024, lorsque des hackers ukrainiens ont détruit des données stockées dans des centres militaires russes, mais l’attaque iranienne se distingue par sa nature : ses drones ont cette fois endommagé des infrastructures matérielles.

Les progrès de l’intelligence artificielle accroissent l’importance stratégique des centres de données. L’armée états-unienne, en particulier, a largement investi dans des outils d’IA destinés aux systèmes d’aide à la décision (SAD) dans le cadre de ses opérations en Iran et au Venezuela. C’est pourquoi les forces iraniennes pourraient chercher à neutraliser les infrastructures qui, selon leurs dirigeants, sont employées dans le cadre de ces opérations militaires.


À lire aussi : La guerre à l’heure de l’IA


Il n’est cependant pas établi que ces centres spécifiques aient été utilisés par l’armée états-unienne. Les attaques pourraient avoir eu pour seul objectif de punir les Émirats arabes unis en raison de leurs liens avec les États-Unis.

Doctorant à Georgia Tech spécialisé dans l’impact des technologies sur la sécurité internationale, je ne considère pas que ces attaques transforment fondamentalement la nature de la guerre. Elles contraignent néanmoins les nations à reconnaître que les centres de données constituent désormais des cibles potentielles dans les conflits armés — même lorsqu’ils ne soutiennent pas directement des opérations militaires.

Les centres de données et le cloud

L’armée américaine intègre de plus en plus l’intelligence artificielle dans ses systèmes d’aide à la décision. Lors de l’opération « Absolute Resolve », qui a permis à Washington d’enlever le président vénézuélien Nicolas Maduro comme actuellement avec les frappes militaires contre l’Iran, les États-Unis ont recours à l’IA, notamment Claude (d’Anthropic), à des fins d’analyse du renseignement et d’appui opérationnel.

Si l’IA permet d’accélérer la conduite des opérations militaires, les outils qu’elle mobilise ne sont pas embarqués à bord d’avions ou de navires. Lorsqu’un militaire utilise Claude, l’infrastructure informatique qui alimente le modèle et ses analyses est généralement hébergée sur une plateforme cloud sécurisée d’Amazon Web Services (AWS), qui stocke des données gouvernementales confidentielles ainsi que divers outils logiciels.

Les principes fondamentaux des centres de données expliqués.

Les centres de données commerciaux constituent le socle physique du cloud. Par exemple, chaque fois qu’un utilisateur ouvre Netflix pour regarder une série, le contenu est probablement diffusé depuis un centre de ce type, qui appartient d’ailleurs peut-être lui aussi à AWS. Lorsque ces centres tombent en panne, les interruptions affectent une multitude de services de divertissement, d’information, et de fonctions gouvernementales.

L’IA étant un moteur de croissance économique, les centres de données représentent une infrastructure critique. Ils assurent le bon fonctionnement de l’IA ainsi que d’une grande partie d’Internet dont dépendent les gouvernements et le secteur privé. Lorsque l’Iran a attaqué les centres de données des Émirats arabes unis, cela a provoqué des perturbations massives au sein du système bancaire local.

Les centres de données commerciaux font fonctionner la plupart des technologies sur lesquelles repose le monde moderne, y compris les systèmes d’IA. Les perturber revient à paralyser à la fois l’armée et la société d’un pays. Étant donné qu’AWS exploite un grand nombre de ces centres à l’échelle mondiale, il est probable que ses infrastructures continueront d’être prises pour cible dans les conflits à venir.

S’en prendre aux alliés des États-Unis

Des chercheurs de Just Security ont relevé, le 12 mars 2026, que les États-Unis exigent désormais des fournisseurs de services de cloud computing qu’ils stockent les données gouvernementales et militaires sur le territoire américain ou dans des bases du département de la Défense : « Transférer ces données vers des centres de données Amazon dans la région du Golfe nécessiterait une autorisation spéciale ; nous ignorons si celle-ci a été accordée. »

Le Corps des gardiens de la révolution islamique a néanmoins affirmé que ces frappes visaient des centres de données soutenant les activités militaires et de renseignement de « l’ennemi ». Dix jours après l’attaque initiale, une agence de presse iranienne a déclaré que les centres de données des grandes entreprises technologiques et d’autres infrastructures physiques de la région étaient désormais considérés comme des « infrastructures technologiques ennemies ».

Plutôt que pour des motifs militaires, l’Iran visait peut-être les Émirats dans le but de déstabiliser l’économie mondiale et attirer l’attention internationale. Le Golfe étant l’un des principaux bénéficiaires des investissements technologiques américains, l’attaque pourrait avoir été symbolique en ciblant le cœur de la coopération américano-arabe. Les infrastructures d’IA, notamment les centres de données commerciaux, constituent une part croissante du leadership américain dans la région. Ce conflit pourrait donc compromettre l’avenir des infrastructures IA dans le Golfe.

Cette maquette représente un immense centre de données, qui fait partie du projet Stargate auquel participent des entreprises technologiques américaines, actuellement en construction aux Émirats arabes unis. Giuseppe Cacace/AFP

Une importance croissante, des cibles vulnérables

Et puisque les centres de données sont de plus en plus importants pour la sécurité nationale, l’économie et la société en général, il peut être tentant de considérer ces attaques comme un bouleversement fondamental dans la nature de la guerre. Toutefois, n’oublions pas que l’Iran a lancé des milliers de missiles et de drones contre des cibles aux Émirats. Bien que la grande majorité ait été interceptée, les deux ayant frappé les centres de données ne représentent qu’une petite part des frappes ayant touché des infrastructures civiles, notamment les aéroports et les hôtels.

La vulnérabilité des centres de données commerciaux — de grande taille, relativement fragiles et dépourvus de défenses aériennes propres — laisse penser que ceux situés aux Émirats ont pu être choisis comme cibles pour des raisons d’opportunité ou de facilité. Autrement dit, ils ont été frappés parce qu’ils pouvaient l’être.

Il semble toutefois probable que, à mesure que l’utilisation de l’IA et les services cloud prendront de l’ampleur à l’échelle mondiale, les centres de données commerciaux deviendront des cibles récurrentes dans les conflits futurs.

The Conversation

Dennis Murphy est affilié à Georgia Tech, au Georgia Tech Research Institute, à la RAND Corporation, au Notre Dame International Security Center et à l’Astra Fellowship. Il a auparavant été affilié au Lawrence Livermore National Laboratory, à la Marine Corps University et au programme ERA Fellowship de l’université de Cambridge.

Les étudiants laissent-ils vraiment l’IA écrire à leur place ? Une étude observe ce qui se passe pendant la rédaction

Plusieurs étudiants participant à l’étude ont eu recours à l’IA lorsqu’ils se sont sentis bloqués dans leur processus d’écriture. Rut Miit/Unsplash, CC BY

L’IA transforme-t-elle l’écriture universitaire ? En observant directement le processus de rédaction d’étudiants, une étude pilote suggère que les outils génératifs servent surtout à débloquer les idées et à retravailler les textes, sans remplacer entièrement l’auteur.


Les débats sur l’IA générative dans l’enseignement supérieur se sont appuyés sur des études portant sur des travaux d’étudiants déjà terminés, ou sur des données d’enquête déclaratives. Ces recherches montrent que les outils d’intelligence artificielle peuvent soutenir l’apprentissage, mais elles ont aussi soulevé des inquiétudes, notamment concernant la dépendance excessive des étudiants, la triche et la possible dégradation de l’esprit critique et de l’engagement.

Si ces types d’études offrent des instantanés intéressants des pratiques déclarées, leurs méthodologies peuvent toutefois passer à côté d’un aspect essentiel : la manière dont l’écriture se déroule réellement lorsque les étudiants rédigent avec l’aide de l’IA.

L'étude pilote que j’ai menée auprès d’étudiants de premier cycle à Kennesaw State University adopte une approche différente. En utilisant des protocoles de pensée à voix haute (think aloud protocols) – une méthode dans laquelle les participants verbalisent leurs pensées pendant qu’ils réalisent une tâche – notre recherche observe comment les étudiants interagissent avec les outils d’IA générative pendant le processus même d’écriture. Cette méthode permet de comprendre les processus de décision au moment où ils se produisent.

Nos premiers résultats suggèrent une réalité plus complexe que le récit souvent avancé selon lequel les étudiants se contenteraient de laisser l’IA rédiger leurs devoirs. Au contraire, beaucoup semblent négocier quand et comment l’IA a sa place dans leur travail d’écriture.

Regarder à l’intérieur du processus d’écriture

Dans notre étude, 20 étudiants de premier cycle ont réalisé une session d’écriture de vingt minutes en réponse à la consigne suivante :

Les gens passent beaucoup de temps à essayer d’atteindre la perfection dans leur vie personnelle ou professionnelle. Ils exigent souvent la perfection des autres, créant des attentes difficiles à satisfaire. À l’inverse, certaines personnes pensent que la perfection n’est ni atteignable ni souhaitable.

La tâche consistait à rédiger une thèse ainsi que des paragraphes argumentés fondés sur des éléments de preuve pour défendre leur position sur la valeur de la quête de perfection. Les étudiants savaient qu’ils n’étaient pas censés terminer leur texte, mais plutôt avancer dans leur processus d’écriture en direction d’un texte achevé. On leur a également précisé qu’il n’existait pas de bonne ou de mauvaise manière d’utiliser l’IA, et qu’ils devaient utiliser l’IA générative exactement comme ils le feraient habituellement lorsqu’ils écrivent.

Plutôt que d’observer directement les étudiants, l’étude s’est appuyée sur des captures d’écran réalisées après la session et sur l’analyse des descriptions que les étudiants ont faites de leur propre processus d'écriture. La collecte de ces données – leurs actions sur l’ordinateur et les transcriptions des enregistrements vocaux – a permis aux chercheurs d’analyser le processus sans l’interrompre.

Afin de réduire le risque que les étudiants modifient leur comportement s’ils se sentaient observés, les chercheurs ont lancé un minuteur puis quitté la salle pendant la session d’écriture. L’objectif était ainsi de limiter l’effet Hawthorne, un phénomène par lequel les individus modifient leur comportement parce qu’ils savent qu’ils sont observés.

Ce que nous avons observé

À travers les transcriptions, quelques tendances qualitatives sont apparues de manière récurrente dans la façon dont les étudiants collaboraient avec l’IA pendant l’écriture. D’abord, de nombreux participants se sont tournés vers ces outils au début du processus d’écriture afin de générer des idées ou d’esquisser une thèse.

On voit alors ces étudiants utiliser les propositions produites par l’IA pour stimuler et structurer leurs propres idées. Un étudiant décrit cette stratégie ainsi : « Après [avoir généré quelques idées], j’utilise généralement simplement ce [résultat] comme point de départ. »

Dans ces moments-là, l’IA fonctionnait moins comme une réponse définitive que comme un outil de remue-méninges aidant les étudiants à dépasser l’angoisse de la page blanche.

D'ailleurs, les étudiants poursuivaient souvent la rédaction de manière autonome après avoir généré ces premières idées. De nombreuses transcriptions contiennent des phrases comme « Je pense que ma thèse devrait être… » ou « Laisse-moi écrire cette partie », ce qui suggère que certains étudiants conservaient la maîtrise de leur argumentation.

Corriger le bot

Un autre motif fort qui ressort des transcriptions est que les étudiants acceptent rarement les textes produits par l’IA sans les modifier. Au contraire, ils révisent activement le langage généré. Comme l’a décrit un étudiant, l’IA « réécrit » ses premières consignes, puis l’étudiant réécrit à son tour la réponse de l’IA. Cela lui permet de revendiquer « la paternité et la maîtrise » de la version finale.

Un autre participant a également redirigé la réponse de l’outil lorsqu’elle ne correspondait pas à la consigne : « L’IA ne suit pas la consigne… réessaie. »

Ces moments montrent que les étudiants évaluent de manière critique les réponses de l’IA et la traitent presque comme un partenaire de débat, plutôt que de simplement les copier.

Nous avons également constaté que certains étudiants rejetaient totalement les suggestions de l’IA. Dans plusieurs sessions d’écriture, les participants ont explicitement décidé de ne pas utiliser les réponses générées par l’IA. Un étudiant a commenté ce choix pendant qu’il écrivait : « Je n’utilise pas vraiment l’IA pour mes recherches. »

D’autres transcriptions montrent des étudiants revenant à leur propre rédaction lorsque les réponses de l’IA leur semblaient trop génériques ou déconnectées de leur argumentation. Ces moments indiquent qu'ils ne se contentent pas de collaborer avec l’IA : ils tracent aussi des limites quant à la place qu’elle peut occuper dans leur processus d’écriture.

Enfin, plusieurs transcriptions montrent que les étudiants se tournaient vers l’IA dans des moments d’incertitude ou lorsqu’ils se sentaient bloqués. Comme l’a expliqué un participant : « J’ai beaucoup utilisé l’IA parce que j’avais du mal. » Même dans ces cas-là, toutefois, les étudiants l'utilisaient souvent comme un soutien pendant la rédaction de leur essai, plutôt que de copier-coller directement ses réponses.

Ce que cela dit de l’IA et de l’écriture

Notre analyse suggère que l’IA générative s’intègre dans l’écriture étudiante non pas comme un remplacement complet de l’auteur humain, mais comme une forme de collaboration négociée. Les résultats indiquent qu'elle intervient le plus souvent au moment de la génération d’idées, de la révision et lorsque un sentiment de blocage apparaît, tandis que les étudiants conservent le contrôle sur le choix des arguments, la façon d'écrire et la formulation finale.

Comprendre comment les décisions d’utiliser l’IA se déploient pendant le processus d’écriture – et pas seulement ce qui apparaît dans l’essai final – peut aider les enseignants à concevoir des devoirs et des règles qui maintiennent clairement l’humain aux commandes.

Comme ces premiers résultats proviennent d’un groupe pilote de 20 étudiants de premier cycle, ils doivent être interprétés avec prudence. Pour vérifier si ces tendances se confirment à plus grande échelle, l’équipe de recherche étend actuellement l’étude à 100 participants. Cette phase élargie examinera également la manière dont des étudiants neurodivergents interagissent avec l’IA générative pendant le processus d’écriture, un domaine encore largement inexploré par la recherche.


Des étudiants chercheurs de premier cycle à Kennesaw State ont contribué à l’analyse préliminaire présentée dans cet article : Kylee Johnson, Vara Nath, Ruth Sikhamani et Kaylee Ward.

The Conversation

Jeanne Beatrix Law est membre fondatrice, à titre bénévole, du corps professoral de l’OpenAI Educator’s Council. Elle est également membre bénévole, de la communauté consultative d’enseignants de BoodleBox AI.

Consommation énergétique des data centers : la France à la croisée des chemins

La France a la volonté d’être une terre d’accueil pour les data centers dans les prochaines décennies. L’Agence de la transition écologique, l’Ademe, a réalisé un travail de prospective à l’horizon 2060 pour évaluer plusieurs scénarios de montée en puissance sur le territoire national de ces infrastructures très gourmandes en énergie et les choix de société qu’ils impliquent. Entretien avec Bruno Lafitte, expert data centers à l’Ademe, qui a coordonné cette étude.


The Conversation : Commençons par l’état des lieux : que sait-on aujourd’hui de la présence des data centers en France, des usages qui en sont faits et de leur consommation électrique totale ?

Bruno Lafitte : Aujourd’hui, l’Ademe recense 352 data centers en activité sur le territoire national. Leur consommation électrique totale représente 10 térawattheurs (TWh) par an, ce qui correspond à l’électricité consommée par environ 10 agglomérations de plus de 100 000 habitants pendant un an.

Cela équivaut à 2,2 % de la consommation annuelle électrique totale du pays. En effet, l’usage du numérique a une matérialité que l’on ne soupçonne pas toujours : des infrastructures énergivores en électricité, en eau pour le refroidissement, sans compter la chaîne de production des serveurs en amont qui charrie également son lot d’impacts environnementaux.


À lire aussi : Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique


Pourquoi la France souhaite-t-elle être une terre d’accueil pour ces infrastructures ?

B. L. : Il y a aujourd’hui une vraie volonté politique de la France de se placer en leader européen en matière d’accueil de data centers. Cela se traduit déjà par des investissements massifs dans le pays, qui sont facilités par une souplesse administrative. Ce choix repose sur deux grands constats.

L’un tient à l’enjeu crucial de souveraineté numérique : la moitié des usages numériques des Français est actuellement traitée par des data centers situés à l’étranger, et tous les scénarios montrent que cette dépendance augmentera à mesure que les usages s’intensifieront. Au regard des enjeux géopolitiques actuels, relocaliser nos données apparaît crucial.

L’autre est lié à l’avantage majeur dont dispose la France en la matière. Du fait de son mix électrique décarboné et de son électricité largement disponible, mais également de ses normes environnementales, les data centers seront en France mieux encadrés. De ce fait, ils auront des impacts climatiques moindres qu’ailleurs, et en particulier qu’aux États-Unis, où se concentrent aujourd’hui la majorité des data centers dont nous dépendons. (À titre d’exemple, l’intensité carbone de l’électricité française s’élevait, en 2024, à environ 30 gCO₂/kWh, tandis qu’aux États-Unis, celle-ci était en moyenne de 391 gCO₂/kWh en 2019, ndlr.)

Car, en 2050, près de 80 % des usages numériques français feront appel à des data centers basés à l’étranger. Ces usages délocalisés totaliseront 97 % des émissions de gaz à effet de serre liées à l'ensemble des usages français des data centers.

Que sait-on des perspectives de développement des data centers à horizon 2050 et de leur consommation énergétique ?

B. L. : Avec l’accélération de l’intelligence artificielle générative et, à moyen terme, de la blockchain, les besoins en data centers sont appelés à exploser. Leur typologie va évoluer vers de très grands centres dits « hyperscale », abritant des supercalculateurs très énergivores.

Pour donner un ordre d’idée, les très gros data centers aujourd’hui présents en France représentent 10 mégawatts (MW) de puissance électrique installée. Demain, ils avoisineront plutôt le gigawatt (GW) pour les plus importants – soit 100 fois plus.

Pour évaluer les perspectives en France, nous avons conçu un modèle prospectif, fondé sur le modèle international le plus fiable à ce jour, que nous avons actualisé, le modèle Masanet, qui tient compte du volume des serveurs et de l’évolution à venir de leur efficacité énergétique selon leur modèle type. Ce modèle ouvert sera mis à disposition du grand public.

Dans le scénario tendanciel, qui poursuivrait la trajectoire actuelle, la consommation d’électricité induite par les usages numériques français pourrait progresser d’un facteur de 3,7 d’ici à 2035 pour les data centers installés en France – et même de 4,4, en tenant compte de la consommation des data centers situés à l’étranger.

Dans cette configuration, les usages numériques français entraîneront, à l’horizon 2050, une consommation de 55 TWh par les data centers français – soit l’émission de 1,8 million de tonnes équivalent CO₂ –, et presque 200 TWh par des data centers situés à l’étranger – ce qui correspond à l’émission de plus de 48 millions de tonnes équivalent CO₂. (À titre de comparaison, la consommation d’électricité totale en France atteignait près de 450 TWh en 2024, ndlr.)


À lire aussi : Un data center près de chez soi, bonne ou mauvaise nouvelle ?


Quels défis et risques cela représente-t-il pour nos infrastructures électriques ?

B. L. : Cette évolution pose de nombreux défis territoriaux, environnementaux et socioéconomiques. Aujourd’hui, la France a accès à de l’électricité décarbonée en grande quantité (94 % de sa production, en 2024, ndlr). De ce fait, elle est relativement épargnée par les tensions engendrées par l’implantation de data centers au regard de certains de ses voisins européens.

Toutefois, elle s’est fixée, dans tous les domaines, des ambitions d’électrification (notamment pour la décarbonation de l’économie, ndlr) qui feront augmenter significativement les besoins et la pression sur le réseau électrique. S’y ajoute désormais le développement de data centers, pour répondre à la fois à l’explosion des usages et à la volonté de relocalisation exprimée par la France.

Nous avons pris en compte, dans notre étude, les progrès à venir en matière d’efficacité énergétique, mais ils ne suffiront pas à compenser l’augmentation du volume de données hébergées.

L’éventualité d’une révolution technologique, par exemple liée à l’informatique quantique, n’est certes pas à exclure, mais elle ne garantit pas des économies d’énergie. On sait, par ailleurs, que les innovations technologiques ont toujours amené l’éclosion de nouveaux services conduisant à l’augmentation des usages plutôt qu’à une baisse des consommations.


À lire aussi : Ordinateur quantique : comment progresse ce chantier titanesque en pratique


Quelles options s’offrent à la France pour répondre à sa volonté de souveraineté numérique en accueillant des data centers, tout en se tenant à son objectif de neutralité carbone à l’horizon 2050 ?

B. L. : Dans ce contexte, il s’agit pour la France de faire des choix de société. L’une des options est celle de la sobriété, avec une priorisation des usages numériques et une prise de distance, plus ou moins forte, avec le tout-numérique. Dans le scénario le plus frugal que nous avons envisagé, la puissance installée pour les data centers sur le territoire peut être limitée à seulement 5,7 TWh en 2050, soit 190 000 tonnes équivalent CO₂.

L’autre chemin consiste à miser sur l’innovation pour réduire les émissions de gaz à effet de serre des autres secteurs d’activité et à optimiser la consommation d’énergie du numérique. Notre modèle estime que la puissance installée pour les data centers en France avoisinerait alors les 64 TWh, soit 11 fois plus qu’en optant pour la sobriété. Cela correspondrait à l’émission de 2,15 millions de tonnes équivalent CO₂, soit 11 fois plus qu'en optant pour des choix de sobriété.

La question centrale ici, qui relève d’un choix citoyen, est celle du rôle que l’on souhaite donner demain au numérique dans notre société sans renoncer à notre objectif de neutralité carbone.

Propos recueillis par Nolwenn Jaumouillé.

The Conversation

Bruno Lafitte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Quand l’IA trahit les identités professionnelles

Le recours à l’IA n’est pas neutre quant à la définition de l’identité professionnelle des individus (visuel créé par IA).

Utilisée dans un cadre professionnel, l’IA est souvent perçue comme un simple outil. Son usage peut pourtant avoir un impact sur la façon dont les individus construisent leur identité au travail. Les jeunes professionnels sont particulièrement exposés et pourraient rencontrer à terme des difficultés à reconnaître qui ils sont vraiment.


Votre CV est rédigé par ChatGPT. Votre profil LinkedIn, peaufiné par un algorithme. Vos mails professionnels sont corrigés en temps réel. Les conséquences de l’usage de l’intelligence artificielle (IA) dans un cadre professionnel ne se limitent pas à un gain de temps et d’efficacité. C’est votre identité professionnelle qui est en train de se redéfinir. Silencieusement. Profondément.

Il vaudrait mieux que ce ne soit pas à votre insu.

Être ou ne pas être authentique

Imaginez deux candidats à un même poste. L’un a rédigé sa lettre de motivation à la main, laborieusement, avec ses propres mots. L’autre a utilisé un assistant d’IA générative pour structurer, affiner et polir son discours en quelques minutes. Lequel est le plus compétent ? Lequel est le plus authentique ? Et surtout, lequel est le plus vraiment lui-même ?

Ces questions émergent aujourd’hui au cœur du marché du travail. De plus en plus, elles seront au centre du monde professionnel.


À lire aussi : Salariés, chefs d'entreprises : l'IA va tout changer, profitez-en !


« L’intelligence artificielle générative (IA générative) est une catégorie d’IA qui se concentre sur la création de données, de contenus ou de choses artistiques, de façon indépendante. Elle diffère de l’IA classique, qui se concentre, quant à elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA générative vise à produire de nouvelles données qui ressemblent à celles créées par des êtres humains, que ce soit sous forme de textes, d’images ou encore de musique, par exemple»,

indique un article publié par Big média.

L’essor fulgurant des outils d’IA générative (Lechat, ChatGPT, Copilot, Claude…) transforme non seulement la manière dont nous travaillons, mais aussi la manière dont nous nous présentons, dont nous évaluons nos compétences, et dont nous construisons notre identité professionnelle.

C’est ce que révèle une étude qualitative menée auprès d’étudiants en alternance et de professionnels en activité dans des secteurs variés. À travers vingt-cinq entretiens approfondis, une double tension est apparue avec une fréquence remarquable : l’IA comme levier de professionnalisation… et l’IA comme source d’interrogation sur soi.

Qui parle ?

L’identité professionnelle n’est pas un fait donné. Elle se construit dans les interactions, les reconnaissances, les réussites accumulées. Depuis les travaux fondateurs du sociologue Claude Dubar, on sait que l’identité au travail résulte d’une transaction permanente entre ce que l’on pense être et ce que les autres reconnaissent en vous.

Or, l’IA vient perturber cette transaction. Quand une machine formule à votre place un argument que vous n’auriez pas trouvé seul, que reste-t-il de votre contribution réelle ? Que dit de vous le fait que vous ayez su bien poser la question ?

Quand un algorithme optimise votre profil LinkedIn de façon à en maximiser la visibilité, est-ce encore vous qui parlez ?

Plusieurs professionnels interrogés dans le cadre de notre étude expriment ce malaise avec une acuité saisissante. La frontière entre assistance et substitution devient floue, et avec elle, la frontière entre compétence réelle et compétence simulée.

« Quand j’utilise l’IA, j’ai l’impression que mon travail n’est pas honnête, que c’est pas vraiment moi qui l’ai fait. Le fait de tout donner à un outil remet en question mes propres capacités et la valeur que j’attribue à mon investissement. »
Étudiant en alternance dans le secteur financier.

Une forte tension identitaire

Ce témoignage n’est pas isolé. Il révèle une tension identitaire profonde entre l’identité « pour soi » – fondée sur l’effort, l’expertise, l’investissement personnel – et l’identité « pour autrui », c’est-à-dire l’image projetée vers les recruteurs, les collègues, les clients. L’IA peut soigner la seconde tout en fragilisant la première.

Cette fragilisation est d’autant plus insidieuse qu’elle opère à bas bruit. Ce n’est pas une perte de compétence objectivable, mais un ébranlement de la confiance en sa propre valeur. Ce que les psychologues nomment le « sentiment d’efficacité personnelle », théorisé par Albert Bandura, est mis à rude épreuve.

Ce phénomène a désormais un nom dans la littérature en sciences de gestion : la « menace de l’identité professionnelle » (Professional Identity Threat)

Une étude internationale publiée en 2025 dans la revue AI & Society confirme que plus un professionnel perçoit l’IA comme une menace pour son identité, moins il est enclin à l’adopter. Or, l’article montre également que les professionnels qui ont le plus besoin de maîtriser l’IA pour protéger leur position sont précisément ceux qui résistent le plus à l’adopter. Ceci crée un paradoxe productif et identitaire à la fois.

L’efficacité personnelle, une croyance ancrée dans l’expérience

Le sentiment d’efficacité personnelle désigne la conviction qu’a un individu de sa capacité à accomplir des tâches données. Ce n’est pas l’estime de soi en général mais une croyance spécifique, ancrée dans l’expérience : « Je suis capable de faire ce travail, même lorsque c’est difficile. »

Or, l’usage répété de l’IA peut progressivement éroder cette conviction. Plusieurs participants à notre étude décrivent un phénomène de dépendance progressive, presque invisible. On commence par vérifier un mail avec l’IA. Puis on ne sait plus envoyer un mail sans elle.

« Même si je suis sûre de moi, j’ai quand même ce réflexe automatique d’aller vérifier. Et ça crée une perte de confiance. Je me demande comment est-ce qu’avant je faisais sans l’IA ? »
Étudiante en alternance dans un cabinet de recrutement spécialisé dans la santé.

Plus ou moins de compétences

Ce témoignage illustre un paradoxe majeur. Conçue pour augmenter les capacités humaines, l’IA peut in fine les fragiliser psychologiquement. Non parce que l’individu perd réellement ses compétences, mais parce qu’il cesse de croire en elles indépendamment de l’outil.

Ce glissement est particulièrement préoccupant pour les jeunes professionnels en phase de construction identitaire. Ils n’ont pas encore accumulé suffisamment d’expériences fondatrices pour asseoir leur confiance sur un socle solide. L’IA risque alors de court-circuiter ce processus d’apprentissage par l’erreur et le dépassement de soi, pourtant essentiel au développement de l’identité professionnelle.

L’article de Nir Eisikovits et de Jacob Burley publié dans The Conversation, évoquait déjà les questions éthiques soulevées par l’utilisation de l’IA en contexte d’apprentissage d’étudiants du supérieur. Leur réflexion met en évidence le phénomène de « décharge cognitive » au cœur de la déstructuration du processus d’acquisition des connaissances.

En revanche, chez les professionnels expérimentés, l’équation semble différente. Forts d’un sentiment d’efficacité consolidé par des années de pratique, ils utilisent l’IA comme un amplificateur, non comme une béquille. Elle « professionnalise », « structure », « met des mots plus justes » – sans remettre en cause leur conviction d’être l’auteur véritable du travail produit.

Se vendre ou se trahir ?

Le personal branding ou marque personnelle, désigne la stratégie par laquelle un individu construit et diffuse une image professionnelle cohérente pour se différencier sur le marché du travail. LinkedIn en est l’arène principale, mais il s’étend à tout ce qui construit la réputation du salarié, aussi bien ses publications que ses interventions et autres recommandations.

L’IA transforme profondément les règles de ce jeu. Elle permet de produire des contenus « polishés », des profils optimisés, des CV sans fautes, quel que soit le niveau réel de l’individu. Elle démocratise la qualité de surface tout en risquant de niveler par le haut une concurrence déjà féroce.

Fnege Médias, 2025.

Un révélateur de fragilité

L’un des enseignements les plus marquants de cette recherche est peut-être le suivant : loin d’inventer les fragilités identitaires, l’IA agit comme un révélateur. Quand un étudiant ressent que son travail « n’est pas vraiment lui » lorsqu’il utilise l’IA, c’est souvent le signe que son identité professionnelle n’est pas encore suffisamment ancrée pour résister à l’intermédiation technologique.

En revanche, ceux qui disposent d’une identité professionnelle solide, construite sur des expériences vécues, des réussites reconnues, une trajectoire cohérente, intègrent l’IA sans s’y perdre. Ils la décrivent comme « une version améliorée d’eux-mêmes », non comme un substitut.

Ce constat a des implications importantes pour les établissements d’enseignement supérieur. Former des étudiants à l’IA ne peut pas se réduire à leur apprendre des outils. Il faut les aider à construire, avant tout, une identité professionnelle assez robuste pour que l’IA reste un levier et ne devienne pas une prothèse.

Apprendre à construire une identité

Développer cette identité suppose de travailler la réflexivité : la capacité à observer ses propres actions, à reconnaître ce qui vient réellement de soi et ce que l’on projette sur une machine. Cela implique aussi de mettre en valeur les expériences fondatrices : les échecs, les négociations compliquées, les projets menés jusqu’au bout sans soutien extérieur.

Aux amateurs de science-fiction et aux autres, la question n’est pas tant de savoir si l’IA va « prendre » les emplois. Elle est autrement plus subtile et plus urgente : l’IA va-t-elle vampiriser les identités professionnelles des individus ?


Cet article est fondé sur une étude qualitative, menée entre décembre 2025 et janvier 2026, s’appuyant sur 25 entretiens semi-directifs approfondis auprès d’étudiants en alternance et de professionnels en activité (assurance, finance, commerce, droit, management, technologie). Les auteurs remercient Yaël Salomon, étudiante de l’Inseec Grande École, pour sa contribution à la collecte et à la retranscription des données empiriques qui fondent cette étude.

The Conversation

Claudia-Roxana RUSU est membre de laboratoire de recherche IRGO de l'Université de Bordeaux.

Demba Ousmane DIOUF et Youssef Souak ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

Robots, IA, numérique : et si les syndicats accéléraient la transformation technologique ?

Robots, intelligence artificielle, numérique : à mesure que les technologies transforment le travail, les syndicats sont souvent présentés comme un obstacle à l’innovation. Sur quelles preuves repose cette opinion ? Et si, loin de freiner la transformation technologique, le dialogue social pouvait aussi l’accélérer… Au-delà des discours à l’emporte-pièce, les syndicats de salariés constituent-ils vraiment un frein à l’innovation technologique ? Ou sont-ils, dans certains contextes, un atout ?


Profondément ancrée, la représentation des syndicats comme étant par nature hostiles aux innovations et au changement technologique repose davantage sur des idées reçues que sur des résultats empiriques robustes. Les statistiques internationales disponibles ne suggèrent pas de relation mécanique négative entre syndicalisation et adoption de nouvelles technologies (Figure 1).

En effet, les pays nordiques, caractérisés par une forte syndicalisation, figurent parmi ceux où l’usage de l’IA est le plus répandu, tandis que plusieurs pays faiblement syndiqués affichent de façon égale des niveaux d’adoption modestes. Cette dispersion suggère que la présence syndicale, en elle-même, n’explique pas les écarts d’adoption technologique. Ces écarts invitent plutôt à s’intéresser aux cadres institutionnels et aux modalités du dialogue social.

Figure 1 – Syndicalisation et adoption de l’IA dans les entreprises européennes en 2024

Un débat ancien et loin d’être tranché

En fait, la relation entre syndicats et investissement productif est l’un des grands classiques de l’économie du travail.

Avec mon collègue Chris Doucouliagos, nous avions d’ailleurs proposé, il y a quelques années, une méta-analyse de la littérature sur cette question. Cette étude montrait que les effets des syndicats sur l’investissement et l’innovation étaient loin d’être univoques et dépendaient fortement des contextes institutionnels.

Elle mettait en évidence une opposition récurrente entre deux visions théoriques :

  • d’un côté, les syndicats comme freins à l’investissement ;
  • de l’autre, les syndicats comme acteurs du dialogue social susceptibles de favoriser des stratégies de long terme.

C’est précisément dans le prolongement de ce débat que s’inscrit, aujourd’hui, la question de l’adoption des technologies numériques avancées.


À lire aussi : La responsabilité sociale des entreprises, un outil pour court-circuiter les syndicats ?


Débats théoriques

La théorie économique n’offre pas une prédiction unique quant au rôle des syndicats. Dans une représentation néoclassique standard, la présence syndicale est associée à la hausse du coût du travail. À technologie donnée, cette augmentation du salaire relatif incite les entreprises à substituer du capital au travail, ce qui peut se traduire par davantage d’investissement productif ou technologique.

À l’inverse, la théorie dite du hold-up, proposée initialement par les économistes américains Benjamin Klein, Robert Crawford et Armen Alchian, souligne un mécanisme de désincitation à investir. En anticipant qu’une partie des gains liés à l’investissement pourra être captée plus tard par les salariés (à travers la négociation salariale, par exemple), l’entreprise peut renoncer à certaines technologies pourtant techniquement accessibles, conduisant à un sous-investissement.

Enfin, une troisième approche met l’accent sur le rôle des syndicats comme mécanismes de voix collective. En facilitant la coordination, la formation et l’acceptation du changement, le dialogue social peut rendre l’investissement plus efficace et plus durable.

L’influence du cadre institutionnel de négociation

L’importance relative de ces mécanismes dépend étroitement du cadre institutionnel dans lequel s’exerce la représentation syndicale, comme l’ont souligné les économistes Justus Haucap et Christian Wey. En particulier, l’effet des syndicats sur l’adoption des technologies numériques dépend étroitement du niveau auquel s’organise la négociation collective et du rôle concret que jouent les représentants du personnel dans l’entreprise.

Avec sa négociation salariale largement centralisée et son dialogue social de proximité, l’Italie est un terrain d’observation particulièrement éclairant. En Italie, la négociation salariale est largement centralisée au niveau des branches tandis que la représentation syndicale en entreprise porte davantage sur l’organisation du travail, la formation et les conditions d’emploi. Cette configuration limite les comportements de captation de rente au niveau de l’entreprise et renforce le rôle des syndicats comme acteurs du dialogue social local.

C’est dans ce contexte qu’une étude récente des économistes Fabio Berton, Stefano Dughera et Andrea Ricci, menée sur plusieurs milliers d’entreprises italiennes, analyse l’adoption des technologies numériques avancées, en mobilisant une méthodologie rigoureuse visant à corriger les biais de causalité.

Des résultats clairs… et contre-intuitifs

Pour dépasser ce problème classique de causalité, les auteurs ont eu recours à une méthode dite des variables instrumentales. Ils exploitent notamment un indicateur original : le niveau de dons de sang par habitant observé au niveau provincial dans les années 1990. Le don du sang reflète des dispositions altruistes et un sens du collectif, qui favorisent la présence syndicale, sans lien direct avec les choix technologiques des entreprises plusieurs décennies plus tard. Combiné à des informations sur la diffusion passée des syndicats par secteur et par région, cet outil permet d’isoler un effet propre de la représentation du personnel sur la transformation numérique des entreprises.

Le constat est sans ambiguïté : les entreprises dotées d’une représentation syndicale ont une probabilité significativement plus élevée d’adopter des technologies numériques avancées. En moyenne, cette probabilité est supérieure d’environ 15 points de pourcentage par an par rapport aux entreprises non syndiquées. Ces entreprises n’adoptent pas seulement plus souvent une technologie, mais en adoptent également un plus grand nombre, signe d’une transformation numérique plus profonde.

Des syndicats pour mieux identifier les résistances internes

Plusieurs mécanismes permettent de comprendre ce résultat. D’abord, la présence syndicale peut réduire les résistances internes face au changement. En donnant aux salariés une possibilité de s’exprimer, elle permet d’anticiper les conflits et de négocier les modalités de la transition technologique.

Ensuite, les entreprises « syndiquées » investissent davantage dans la formation et connaissent une plus grande stabilité de l’emploi. Or, les technologies numériques avancées nécessitent souvent des compétences spécifiques et une accumulation de savoirs internes, qui s’accommodent mal d’un fort turnover.

CFDT Cadres, 2019.

Enfin, le dialogue social contribue à instaurer un climat de confiance propice à l’investissement de long terme. La transformation numérique n’est pas seulement une affaire de machines, mais aussi d’organisation et de coopération.

Les élus du personnel, des agents favorables à la transformation ?

Ces résultats ne signifient pas que la présence syndicale favorise partout et toujours l’innovation. Ils soulignent surtout l’importance du cadre institutionnel. Dans des systèmes où la négociation est très décentralisée et où les syndicats disposent d’un fort pouvoir de fixation des salaires au niveau de l’entreprise, les effets peuvent être différents. Ils mettent également en lumière une limite importante de l’étude italienne : les auteurs ne distinguent pas la nature des organisations syndicales présentes dans l’entreprise.

Or, cette dimension est loin d’être anodine. Dans des contextes marqués par un fort pluralisme syndical, comme l’Italie – ou la France –, les syndicats peuvent poursuivre des stratégies différenciées et entretenir des relations variées avec les employeurs, susceptibles d’influencer les dynamiques d’innovation. Au fond, ce n’est donc pas tant la présence de syndicats qui importe que leurs modes d’action : selon les configurations, ils peuvent tout autant freiner l’innovation que la rendre possible.

À l’heure où l’intelligence artificielle et l’automatisation suscitent de fortes inquiétudes sociales, ces résultats invitent à dépasser une opposition simpliste entre innovation et protection des salariés. La transformation technologique est aussi un processus social, qui gagne à être négocié plutôt qu’imposé. Dès lors, plutôt que d’affaiblir le dialogue social au nom de la compétitivité, il pourrait être plus efficace de le renforcer pour accompagner la transition numérique des entreprises.

The Conversation

Patrice Laroche dirige le programme WAVE (Workplace Arrangements and Voice Effects) financé par l'Agence nationale de la recherche (ANR) au sein du CEREFIGE (Université de Lorraine)

IA et métacognition : savoir quand on peut faire confiance, ou non, à la machine n’est pas toujours évident

Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.


Un système d’IA doit toujours être supervisé par un humain, mais encore faut-il que cette personne soit en mesure de distinguer quand elle comprend ce que propose la machine et quand elle peut être influencée.


Les cadres contemporains de gouvernance de l’intelligence artificielle (IA) reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il doit être en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent transparence, explicabilité et supervision humaine.

Sont explicitement visés les systèmes utilisés dans le recrutement et l’évaluation des travailleurs, l’accès aux prestations sociales, les décisions d’octroi de crédit, le contrôle aux frontières, l’administration de la justice, et les soins de santé critiques.

Le plan d’action des États-Unis sur l’IA appelle au maintien d’un contrôle humain significatif sur les décisions IA à conséquences importantes. Les principes de l’OCDE sur l’IA inscrivent le centrage sur l’humain au cœur de ses engagements.

Ces engagements sont nécessaires mais insuffisants. Ils portent sur ce que les systèmes d’IA doivent fournir aux opérateurs humains et laissent entièrement sans réponse la question de ce que ces derniers doivent être capables de faire pour agir sur ce qu’ils reçoivent. Cette lacune n’est pas accidentelle. C’est un angle mort structurel dans l’architecture actuelle de la gouvernance de l’IA.

Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle, et techniquement opaques – précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.

Par exemple, l’infirmier aux urgences en charge du triage aux urgences qui reçoit un score de triage produit par un système IA ne dispose pas systématiquement des explications qui l’ont généré. Le conseiller bancaire qui doit décider en quelques minutes de bloquer un compte sur la base d’une alerte de fraude automatisée travaille potentiellement avec un modèle propriétaire qu’il ne peut pas interroger. L’agent administratif qui valide l’attribution d’un logement social ou d’une prestation algorithmiquement priorisée ne peut généralement pas expliquer pourquoi un dossier a été classé avant un autre. L’enseignant qui contresigne une notation automatisée d’examen n’a pas accès aux critères qui ont produit le score. Dans chacun de ces cas, la supervision humaine est formellement présente – et substantiellement impossible.

Des opérateurs métacognitivements avertis

La métacognition – la capacité à monitorer et réguler ses propres processus cognitifs – est le substrat psychologique d’une supervision efficace. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.

La recherche en interaction humain-automatisme a documenté un ensemble de modes de défaillance qui émergent spécifiquement lorsque des humains supervisent des systèmes automatisés ou alimentés par l’IA. Le biais d’automatisation – la tendance à surpondérer les recommandations générées par la machine par rapport à son propre jugement – est l’un des résultats les plus robustes du domaine. Dans une étude fréquemment citée, les chercheurs Parasuraman et Riley ont montré en 1997 que les humains mésusent (c’est-à-dire font un mauvais usage ou utilisent de manière inadéquate ou inappropriée) systématiquement de l’automatisation en l’appliquant là où elle est peu fiable, et la délaissent là où elle serait bénéfique – deux types d’erreurs qui reflètent un défaut d’étalonnage métacognitif plutôt qu’un défaut de provision d’information. Par exemple, dans des expériences en simulateur de vol citées par ces auteurs, des pilotes équipés d’un système d’alerte automatique ont éteint un moteur en réponse à une fausse alerte – une décision qu’ils avaient eux-mêmes déclaré, avant l’expérience, ne jamais prendre sur la seule foi d’une alerte automatisée.

Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Les travaux de Kahneman sur une cognition à double processus – connu aussi sous le nom de Système 1/Système 2, les deux vitesses de pensées – éclairent ce mécanisme. Face à un système IA qui produit un output avec fluidité et assurance, l’esprit humain tend à activer un traitement rapide et intuitif (celui qu’on mobilise pour des tâches familières et peu risquées), plutôt que de réaliser une analyse profonde de la situation, plus longue, plus réfléchi, plus logique, et donc plus gourmande cognitivement.

Plus concrètement, une explication qui paraît plausible déclenche des réponses cognitives différentes d’une explication qui l’est vraiment. Lorsque les explications des systèmes d’IA sont synthétiquement fluides, numériquement précises et visuellement formatées comme des outputs faisant autorité, elles suppriment précisément le scepticisme que nécessite une supervision significative.

Peut-être de manière contre-intuitive, fournir davantage d’explications n’améliore pas de manière fiable le jugement humain des résultats d’IA. Une équipe de recherche, dans une étude expérimentale rigoureuse, a constaté que les explications produites par l’IA n’amélioraient pas systématiquement les performances de l’équipe humain-IA, et les dégradaient dans plusieurs conditions – notamment lorsque les explications étaient techniquement exactes mais cognitivement incompatibles avec la manière dont les opérateurs formaient leurs propres jugements.

Plus concrètement, sur la tâche d’analyse de sentiment, l’IA expliquait son jugement en surlignant les mots qu’elle avait identifiés comme positifs ou négatifs. Or les participants humains évaluaient le ton d’un texte de manière globale, en tenant compte du contexte et de la cohérence d’ensemble – un processus que la mise en évidence de mots individuels ne peut pas restituer. Ici, l’IA et l’humain n’arrivent pas à leur jugement par le même chemin : L’IA identifie des élements locaux (un mot, une phrase), là ou l’humain construit un jugement holiste (l’ensemble du texte, le contexte, la cohérence interne). Quand l’explication fournie reflète la logique de la machine plutôt que celle du raisonnement humain, elle ne donne pas à l’opérateur les outils pour évaluer si la recommandation est fiable – elle le convainc simplement de la suivre.

L’explicabilité est ainsi une condition nécessaire mais insuffisante d’une supervision efficace. Ce qui réduit l’écart entre les deux, c’est la maturité métacognitive.

Trois implications pour la gouvernance de l’IA

Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique – parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales –, trois implications peuvent être énoncées :

  • La transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans impliquer les individus dans les processus de conception de ces explications et de cette documentation et prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que « trop d’explications » peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.

  • La qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé.

Plus concrètement, les textes réglementaires comme l’AI Act exigent que les superviseurs humains soient « compétents », mais sans jamais définir ce que cela signifie – et en particulier, aucun référentiel n’évalue ce que les chercheurs appellent la compétence métacognitive, soit la capacité à détecter les défaillances de son propre raisonnement face à un système opaque, compétence qui relève de la formation et du contexte, pas de l’intelligence brute. Une précision importante s’impose ici. Parler de la qualification métacognitive des opérateurs ne revient pas à questionner la valeur ou l’intelligence des personnes qui supervisent des systèmes d’IA. Il ne s’agit pas non plus de classer les humains selon leur capacité à « bien penser ». La métacognition n’est ni un trait de personnalité ni un indicateur de valeur. C’est une compétence situationnelle, sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Par exemple, un chirurgien expérimenté peut présenter un excellent étalonnage métacognitif dans son domaine et être tout aussi vulnérable au biais d’automatisation qu’un débutant face à un système d’IA opaque dans un contexte pour lequel il n’a reçu aucune formation spécifique.

  • Les compétences métacognitives – savoir ce qu’on comprend, détecter ses propres erreurs de raisonnement, réguler ses stratégies cognitives – varie selon les individus et n’est pas uniformément répartie au sein de la population, ce qui crée un risque structurel pour la sécurité. Il s’agit d’une hypothèse, formulée à partir de travaux menés en psychologie de l’éducation, qui n’a pas encore été étudiée dans le contexte de la gouvernance de l’IA. C’est peut-être le prochain axe de recherche que les gouvernements devraient activement encourager. En effet, si les organisations les mieux dotées en moyens matériels et en ressources humaines peuvent satisfaire aux exigences de supervision réelle, celles qui n’en n’ont pas – non pas parce que leurs personnels seraient moins capables, mais parce que les conditions permettant le développement de cette compétence situationnelle n’ont pas été réunies – produiront une conformité de façade, insuffisante, générant une fausse sécurité particulièrement dangereuse dans les domaines critiques.
The Conversation

Ikram Chraibi Kaadoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Qu’est-ce que l’« IA agentique » ? Comprendre son histoire pour dépasser l’effet de mode

Réserver un voyage en comparant des centaines d’offres, rédiger un rapport à partir de plusieurs documents, analyser des données médicales ou corriger automatiquement un programme informatique : ces tâches exigent de la réflexion, de la méthode et des compétences variées. L’« IA agentique » promet désormais de les accomplir de manière autonome, en orchestrant les opérations nécessaires, en utilisant des outils et en corrigeant ses propres erreurs… Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’« agent autonome » tel qu’il a été élaboré dans les décennies précédentes.


Le cabinet Gartner a présenté 2026 comme l’année des « agents IA ». Ces systèmes dépassent la simple amélioration des assistants conversationnels. Les agents IA d’OpenClaw sont d’ores et déjà capables de dialoguer entre eux et d’exécuter des tâches complexes avec une supervision humaine limitée. Pour les entreprises, que ce soit dans l’industrie, l’administration ou la santé, la promesse est celle d’une automatisation plus souple qu’avec les logiciels traditionnels, capable de s’adapter à des situations variées plutôt que d’appliquer des règles prédéfinies.

Pourtant, derrière l’apparente nouveauté se cache une histoire plus ancienne. L’IA agentique s’inscrit dans la continuité de plusieurs décennies de recherche sur les agents autonomes et les systèmes multi-agents. Ce qui change aujourd’hui, ce sont les outils, notamment les grands modèles de langage et leur capacité à interagir plus naturellement avec les humains.

De la génération de texte à l’action

Les modèles conversationnels, comme ChatGPT, Gemini ou Claude, impressionnent par leur aptitude à résumer ou à rédiger des textes complexes. Pris isolément, ils restent toutefois essentiellement réactifs : ils produisent une réponse en fonction d’une requête. Un agent autonome va plus loin. Il peut analyser une demande, planifier une séquence d’opérations, utiliser des outils externes (moteur de recherche, base de données, logiciel), évaluer le résultat obtenu et ajuster sa stratégie si nécessaire.

Là où un modèle de langue se limite à écrire un programme informatique, un agent peut l’exécuter dans un environnement sécurisé, observer les erreurs éventuelles, corriger le code, puis le tester à nouveau. En somme, les agents IA ne font pas que parler, ils agissent.

Le passage de la génération de texte à l’action transforme la nature même du logiciel. Alors qu’un programme suit des instructions précisément définies à l’avance, un agent autonome peut, lui, adapter dynamiquement ses décisions en fonction du contexte, des résultats obtenus et des objectifs fixés. Il ne remplace pas nécessairement l’humain, mais modifie la répartition des tâches entre supervision et exécution.

Promesses et risques

Cette évolution ouvre des perspectives considérables. Dans les organisations, des agents peuvent automatiser des processus métiers laborieux. Dans l’industrie, ils peuvent coordonner des systèmes logiciels complexes. Dans le domaine médical, ils peuvent analyser des dossiers, rechercher des publications pertinentes et proposer des synthèses pour assister les médecins. Mais ces promesses s’accompagnent de risques.

En effet, les modèles actuels peuvent produire des informations inexactes, les fameuses hallucinations, et sont susceptibles de reproduire des biais présents dans leurs données d’entraînement. Si les agents sont cantonnés à un rôle d’assistant, ces limites sont déjà problématiques ; elles deviennent critiques lorsqu’elles concernent des systèmes capables d’agir sur des infrastructures techniques, notamment en exécutant des commandes système, en manipulant des fichiers ou en envoyant des requêtes réseau.

La question des agents d’IA n’est donc pas seulement technique : elle est aussi juridique, économique et sociétale. Elle touche à la transformation du travail qualifié et à la gouvernance des systèmes informatiques.

Une filiation historique

L’idée d’un agent autonome n’est pas née avec les modèles de langue. Elle remonte aux origines mêmes de l’intelligence artificielle. En 1956, lors de la conférence fondatrice de Dartmouth (au nord-est des États-Unis), l’un de ses organisateurs, Marvin Minsky, définissait déjà l’IA comme la conception de programmes capables d’accomplir des tâches mobilisant des capacités dites intelligentes telles que comprendre, apprendre, raisonner ou décider.

À partir des années 1980, la notion d’« agent intelligent » devient centrale. Un « agent » est alors défini comme un programme capable de percevoir son environnement, de prendre des décisions et d’agir pour atteindre des objectifs. Très tôt, les chercheurs développent le champ des systèmes multi-agents : des ensembles organisés de programmes autonomes qui interagissent dans un même environnement numérique. L’objectif est de comprendre comment ces entités peuvent se coordonner, coopérer ou entrer en compétition afin de résoudre des problèmes complexes.

Plusieurs travaux emblématiques illustrent concrètement cette approche. Le système HEARSAY-II repose sur un modèle de « tableau noir ». Plusieurs modules spécialisés pour la reconnaissance, l’analyse et l’interprétation du langage contribuent à la compréhension de la parole en partageant leurs hypothèses dans un espace commun structuré. Le Contract Net Protocol propose un mécanisme inspiré des appels d’offres : pour réaliser une tâche, un agent émet un appel à proposition, d’autres agents proposent leurs services, et les plus compétents se voient attribuer le contrat. Autrement dit la coordination entre agents est au cœur de l’IA depuis plusieurs décennies.

Un réservoir d’idées encore sous-exploité

Mais si l’idée d’agent n’est pas nouvelle, l’« IA agentique » s’impose aujourd’hui auprès des non-spécialistes en raison du rôle central joué par les grands modèles de langue. Bien que dénués de compréhension causale et de compréhension du monde physique, ceux-ci fournissent aux agents une capacité linguistique et une forme de « sens commun » statistique qui facilitent l’interaction avec les humains et l’interprétation d’instructions complexes en langage naturel.

Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’agent autonome tel qu’il a été élaboré dans les décennies précédentes. Dans la pratique, elle repose encore le plus souvent sur une séquence d’actions où chaque étape est prévue et ordonnée à l’avance. Les travaux menés depuis les années 1990 sur les systèmes multi-agents qui portent sur la coopération, la négociation, l’allocation de tâches et l’adaptation collective offrent un réservoir d’idées encore largement sous-exploitées.

L’intégration de ces mécanismes avec les capacités des grands modèles ouvre pour demain des perspectives nouvelles : des agents capables non seulement d’exécuter un plan mais de s’organiser collectivement, de se spécialiser et de s’adapter à des environnements complexes.

L’IA agentique constitue ainsi une nouvelle étape plutôt qu’une rupture. Elle associe l’héritage théorique des systèmes multi-agents à la puissance récente des modèles génératifs. Comprendre cette filiation historique permet de dépasser l’effet de mode. L’IA agentique représente une tentative de transformer des modèles prédictifs en systèmes capables d’agir, de planifier et, peut-être demain, de s’organiser collectivement dans des environnements complexes.

The Conversation

Maxime MORGE a reçu des financements de Lyon 1 Université et CNRS, .

IA : pourquoi former une « tête bien faite » n’a jamais été aussi crucial

Alors que l’intelligence artificielle générative produit des textes, des images et des raisonnements toujours plus convaincants, une question éducative essentielle émerge : que signifie encore comprendre ? À l’ère de la surcharge informationnelle, former une « tête bien faite » ne consiste plus à accumuler des savoirs, mais à apprendre à juger de leur profondeur, de leur validité et de leur inscription dans le réel.


Des étudiants peuvent rendre aujourd’hui des travaux irréprochables sur la forme : structurés, argumentés, parfois brillants. Pourtant, lorsqu’on les interroge, un malaise affleure. Ils peinent à expliquer ce qu’ils ont réellement compris, à justifier leurs choix, à relier ce qu’ils ont produit à une expérience vécue ou à une situation concrète. L’intelligence artificielle (IA) générative n’est pas toujours la cause directe de cette situation, mais elle en est un révélateur puissant. Car si produire de l’information n’a jamais été aussi simple, comprendre ce que l’on fait n’a jamais été aussi exigeant.

Connaître, savoir, comprendre : une distinction devenue centrale

À l’ère de l’IA, la question éducative ne peut plus être pensée en termes d’accumulation de connaissances. Elle impose de clarifier ce que l’on entend par connaître, savoir et comprendre, et d’interroger la manière dont ces dimensions s’articulent dans les processus d’apprentissage.

Deux grandes traditions épistémologiques permettent d’éclairer cette distinction. Le scientifique Michael Polanyi a montré que toute connaissance humaine comporte une part irréductiblement tacite : elle est enracinée dans l’expérience, l’action et l’engagement du sujet. « Nous savons plus que ce que nous pouvons dire », écrit-il, soulignant que la compréhension précède souvent sa formulation explicite. Cette connaissance en acte, souvent implicite, se construit dans le faire, l’essai, l’erreur et la confrontation au réel.

À l’inverse, le philosophe Gaston Bachelard a établi que le savoir scientifique ne procède pas d’un simple prolongement de l’expérience. Il exige une rupture avec les évidences premières et avec l’opinion, au prix d’un travail de construction rationnelle, critique et abstraite. « La science ne procède pas de l’opinion », rappelait-il, insistant sur la nécessité de former l’esprit à poser des problèmes plutôt qu’à accumuler des réponses.

Former une « tête bien faite », ce n’est donc ni accumuler des savoirs abstraits, ni se contenter d’une expérience brute. C’est apprendre à tenir ensemble ces deux dimensions : l’expérience vécue et la construction conceptuelle, l’action et la réflexivité.

Ce que l’IA sait faire – et ce qu’elle ne peut pas faire

Les systèmes d’intelligence artificielle excellent précisément là où le savoir est formalisable : calcul, synthèse, reproduction, mise en forme. Ils prennent en charge une part croissante du savoir explicite, stabilisé, calculable. Mais ils opèrent dans un régime spécifique : celui de la corrélation statistique et de la production d’énoncés plausibles.

L’IA ne connaît pas le monde, elle ne le comprend pas. Elle n’a ni expérience, ni rapport incarné au réel, ni accès aux conditions de pluralisme des phénomènes qu’elle décrit. L’information qu’elle génère est par nature probabiliste – elle repose sur des calculs de vraisemblance issus de corrélations statistiques plutôt que sur une compréhension des causes, contingente – elle dépend des données, des contextes d’énonciation et des paramètres techniques, et révisables – en ce sens qu’elle peut être corrigée, contredite ou reformulée à tout moment sans que cela n’implique une progression interne de la compréhension.

Cette distinction est aujourd’hui au cœur des travaux contemporains sur les usages éducatifs de l’IA, qui montrent que l’automatisation de certaines tâches cognitives peut, si elle est mal encadrée, appauvrir l’exercice du jugement critique.

Plus les productions de l’IA deviennent convaincantes, plus le risque est grand de confondre cohérence formelle et compréhension réelle, à savoir paraître véridique en lieu et place d’un énoncé prudent et ouvrant le dialogue.

Mesurer la complexité : une compétence qui s’apprend

Face à cette situation, un enjeu éducatif majeur émerge : la capacité à mesurer la complexité des choses. Distinguer ce qui relève de la surface informationnelle de ce qui engage une compréhension structurée. Apprécier les niveaux de profondeur d’un problème, d’un système ou d’une situation.

Or cette capacité ne se décrète pas. Elle se construit progressivement par l’expérience du réel. Elle suppose un travail actif de confrontation entre ce que l’on anticipe théoriquement et ce que révèle l’épreuve de la réalisation concrète. C’est dans l’écart, toujours instructif, entre le modèle et l’expérience que s’affinent les critères de jugement et que se développe une intelligence véritablement située, au sens où elle articule savoir formalisé et connaissance vécue.

Le savoir ne devient opérant qu’à condition d’être éprouvé, mis en tension avec le réel, réajusté à la lumière de ses résistances et de ses surprises. Inversement, l’expérience brute, si elle n’est pas reprise dans un cadre réflexif et conceptuel, demeure muette et difficilement transmissible. La formation doit donc organiser les conditions de cette circulation exigeante entre théorie et pratique, abstraction et incarnation.

Une révolution pédagogique autant que technologique

L’intelligence artificielle ne transforme pas seulement nos outils. Elle intervient au cœur même des fonctions cognitives supérieures : mémoire externalisée, accès instantané à l’information, génération de raisonnements apparents. Là où les technologies précédentes amplifiaient des capacités humaines déjà constituées, l’IA en reconfigure désormais l’équilibre.

L’enjeu éducatif se déplace en conséquence. Il ne s’agit plus principalement d’apprendre à produire ou à restituer de l’information mais d’apprendre à en évaluer la profondeur, la cohérence, les conditions de validité et les effets dans le réel. Cette mutation rejoint les analyses du sociologue Edgar Morin sur la pensée complexe, qui soulignent la nécessité de former des esprits capables de relier, de contextualiser et d’affronter l’incertitude plutôt que de réduire le réel à des réponses simplifiées.

Des travaux récents en sciences cognitives et en sciences de l’éducation montrent d’ailleurs que l’usage substitutif de l’IA peut conduire à une forme de délégation cognitive excessive, réduisant l’engagement intellectuel et la mémorisation à long terme, là où un usage réflexif et critique peut au contraire renforcer l’apprentissage.

Former des ingénieurs – et des citoyens – capables de juger

Former une tête bien faite à l’ère de l’IA implique ainsi de ne pas confondre délégation cognitive et renoncement intellectuel. Il s’agit de former des sujets capables de faire usage de systèmes puissants sans s’y soumettre, capables de maintenir une exigence de sens là où la machine ne produit que de la forme.

Chez IONIS, le développement des IONIS Institute of Technology (I2T) sur nos campus procède d’une conviction forte : si nos étudiants ingénieurs doivent maîtriser les technologies de l’intelligence artificielle, ils doivent tout autant apprendre à en éprouver les limites par la confrontation au réel. Le laboratoire, l’atelier et l’expérimentation deviennent alors des lieux centraux de formation du jugement.

Former de bons ingénieurs – et plus largement des citoyens éclairés – consiste à cultiver un esprit critique, mesuré et évolutif, nourri par l’expérience concrète, le faire et le défaire. À l’ère de l’IA, la question essentielle n’est donc pas seulement ce que nous attendons de la machine mais bien ce que nous attendons de l’humain : sa capacité à comprendre, à créer et à décider avec discernement dans des environnements incertains et technologiquement augmentés.

The Conversation

Clément Duhart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Numérisation de la justice : les leçons du cas belge

En Belgique, l’échec du projet numérique « I-police » ainsi que les controverses récentes autour de l’intelligence artificielle ont ravivé les débats sur la place du numérique dans les institutions publiques. Longtemps présentée comme un levier de modernisation, la numérisation transforme le travail des tribunaux et met en lumière les fragilités de l’indépendance judiciaire. Derrière les promesses de rapidité et d’efficacité se dessinent de nouveaux enjeux pour la justice.


En Belgique, comme ailleurs, la numérisation de la justice est devenue un enjeu politique et budgétaire majeur. Les événements récents invitent pourtant à réexaminer la portée de ce chantier. L’arrêt du projet « I-police », après des investissements publics considérables, a rappelé la fragilité des grands projets numériques dans le secteur public. Le programme a été abandonné en raison de graves lacunes dans l’exécution du marché public et de résultats jugés très en deçà des attentes initiales.

Dans le même temps, l’arrivée en février 2025 à la tête du ministère de la justice d’Annelies Verlinden, auparavant ministre de l’intérieur, marque un déplacement des priorités. Après plusieurs années de modernisation numérique continue, ses premières mesures mettent plutôt l’accent sur les problèmes structurels du système judiciaire, tels que les conditions de travail, les infrastructures et la surpopulation carcérale. Le numérique n’est plus présenté comme la solution centrale, mais comme un élément parmi d’autres d’une réforme institutionnelle.

Parallèlement, l’intelligence artificielle suscite des controverses. La condamnation d’un avocat pour avoir remis des conclusions rédigées par une IA et les mises en garde contre une automatisation excessive de la décision judiciaire soulignent que les enjeux ne sont pas seulement techniques, mais aussi normatifs.

Ces signaux convergents montrent que la numérisation de la justice ne relève pas d’une évidence consensuelle. Elle engage des choix de gouvernance, de financement et de conception de la démocratie.

Une solution technique à des problèmes structurels ?

En Belgique, la numérisation des tribunaux s’inscrit dans une longue trajectoire de réformes. La fin des années 1990 est marquée par l’affaire Dutroux et la crise institutionnelle subséquente. Les gouvernements successifs ont alors cherché à restaurer la confiance des citoyens en essayant de rendre l’institution plus efficace, plus transparente et plus performante.

Progressivement, le numérique est devenu l’instrument privilégié de cette modernisation. Bases de données, plateformes de gestion, systèmes de traitement des dossiers : ces outils promettaient de fluidifier les procédures, de centraliser l’information et de réduire les délais.

Mais ces technologies ne sont pas neutres. Comme tout instrument de gestion, elles organisent, hiérarchisent et encadrent l’activité. Elles s’inscrivent dans un discours d’urgence et de modernisation présenté comme inévitable. Le numérique s’est ainsi imposé non seulement comme un outil, mais aussi comme la meilleure réponse aux difficultés structurelles de la justice – la lenteur, la complexité, le manque de transparence et les coûts élevés.

Pourtant, la numérisation ne supprime pas les tensions : elle les déplace, les reformule et en fait émerger de nouvelles. Derrière les plateformes et les bases de données, ce sont des équilibres fondamentaux qui se redessinent.

Les enjeux derrière la « solution numérique »

Pour comprendre ce que la numérisation produit concrètement, il faut déplacer le regard. Trois points d’attention permettent d’en mesurer les effets.

Un travail judiciaire redéfini

La manière de penser évolue : les outils pré-classent les dossiers, automatisent certaines étapes et signalent des priorités. Il ne s’agit plus seulement d’interpréter et de trancher, mais de composer avec ce que le système permet, impose ou rend visible.

Les tableaux de bord, les indicateurs de performance et les champs standardisés valorisent la rapidité, la traçabilité et la conformité. Là où dominaient auparavant la délibération et la profondeur d’analyse, ces nouveaux critères s’imposent et redéfinissent, en pratique, les hiérarchies de valeur – par exemple en plaçant l’efficacité au-dessus de la réflexion – ainsi que ce qui est considéré comme un « bon » travail juridique.

Enfin, la manière dont les décisions sont prises, et par qui, évolue. Le fonctionnement des juridictions dépend désormais d’entreprises privées et de mises à jour logicielles dont les logiques ne sont pas toujours explicites ni alignées avec les normes judiciaires. L’autorité des juges demeure formellement intacte, mais leur capacité à agir dépend de plus en plus de ces infrastructures et des acteurs qui les font fonctionner.

Ces évolutions, souvent discrètes, recomposent progressivement les équilibres professionnels et la manière dont la justice est exercée.

L’indépendance judiciaire en question

Au-delà du travail judiciaire lui-même, la numérisation influence aussi l’indépendance de la justice. Celle-ci concerne les conditions matérielles et organisationnelles dans lesquelles les décisions sont prises.

Traditionnellement, les dossiers étaient gérés au sein des juridictions. Avec les plateformes numériques, la gestion des fichiers, des bases de données et des systèmes informatiques implique désormais d’autres acteurs : prestataires privés, ordres professionnels, services publics fédéraux. Certaines juridictions ont tenté de conserver la maîtrise de leurs outils, en développant leurs bases de données en interne. Mais ailleurs, les dépendances sont plus fortes, qu’elles lient l’institution à un prestataire privé pour la maintenance d’un système pénal, ou à l’Ordre des avocats pour une plate-forme de gestion des faillites.

La question devient plus sensible encore lorsque l’exécutif intervient dans la gouvernance des infrastructures. En novembre 2025, la Cour constitutionnelle a annulé une disposition relative au dossier pénal numérique. Le registre central, censé constituer la source authentique des dossiers de procédure, était géré par un comité institué auprès du Service public fédéral de justice, au sein duquel les représentants de l’ordre judiciaire ne disposaient ni d’une majorité ni d’une voix prépondérante. La Cour a estimé qu’une telle structure ne garantissait pas suffisamment l’indépendance judiciaire.

Une soutenabilité institutionnelle fragilisée

Sur le terrain, un paradoxe s’impose aux acteurs et aux observateurs : le numérique semble à la fois en retard – outils défaillants, connexions incertaines – et en accélération permanente, avec des projets qui se succèdent avant même que les précédents ne soient stabilisés. Dans ce contexte, les décalages et les imprévus ne sont pas toujours anticipés par les réformes. Ils sont absorbés au quotidien par les professionnels eux-mêmes : prendre en main un nouveau logiciel, contourner une étape bloquée, maintenir une cohérence alors que les catégories évoluent plus vite que les règles qu’elles sont censées servir.

À long terme, cette succession d’adaptations produit une forme d’usure institutionnelle. Les outils se suivent, les systèmes changent et les équipes doivent constamment apprendre, désapprendre, réapprendre et compenser des défauts de conception par du bricolage. Innovation et usure coexistent dans un même geste : maintenir la justice opérationnelle à travers des infrastructures fragiles.

Cette fatigue ne tient pas seulement aux outils eux-mêmes, mais au rythme auquel ils sont conçus et déployés. Les projets numériques sont souvent financés dans les cycles courts des législatures, des plans stratégiques, d’éventuels fonds européens du plan de relance. Ces financements privilégient le lancement et les échéances visibles. Mais la justice fonctionne dans la durée. Elle exige stabilité, continuité et réparabilité.

De plus, un système numérique ne vit pas seulement au moment de son déploiement. Il exige des mises à jour, des corrections et un support constant. Ces coûts de maintenance sont souvent sous-estimés, fragmentés ou financés de manière provisoire. Les juridictions se retrouvent alors à faire fonctionner des systèmes instables ou partiellement aboutis.

Ce décalage entre le temps politique de l’innovation et le temps institutionnel de la justice fragilise la capacité des juridictions à faire fonctionner durablement les dispositifs numériques sur lesquels elles reposent. La Cour des comptes belge a récemment alerté sur la viabilité à long terme des initiatives de justice numérique dans leur gouvernance actuelle.

Au service de quelle justice ?

La numérisation de la justice ne peut être réduite à un simple chantier technique. Elle engage des choix de gouvernance, de financement, et de conception du service public. Présentée comme une réponse à la lenteur ou à la complexité de la justice, elle redessine en réalité les équilibres institutionnels et les conditions d’exercice du travail judiciaire.

L’enjeu n’est donc pas seulement celui de l’efficacité des outils. Il réside dans la manière dont ils sont conçus, gérés, financés, et maintenus dans le temps, et dans la vision de la justice qu’ils contribuent à instituer. Car derrière les plateformes et les registres numériques se jouent des questions plus fondamentales : quelles pratiques professionnelles, quelles formes d’indépendance et quelles temporalités institutionnelles ces dispositifs rendent-ils possibles – ou fragilisent-ils ? Et à quel prix ?

The Conversation

Lisa Pelssers a reçu des financements du Fond national de la recherche scientifique (FRS-FNRS).

L'intelligence numérique peut aider à réduire les GES… et les aggraver. Voici comment jongler avec ce paradoxe

La réduction des émissions de gaz à effet de serre nécessite une transition rapide vers des systèmes énergétiques bas carbone. On peut penser à l’énergie solaire, l’énergie éolienne ou encore la géothermie.


On peut aussi penser à l’intelligence numérique (IA, algorithmes, grande data, objets connectés). Elle offre des leviers puissants pour accélérer la transition vers des systèmes énergétiques bas carbone. Mais elle n’est pas neutre : sa production et son fonctionnement génèrent eux-mêmes des émissions et des impacts matériels.

La question de la responsabilité des innovations technologiques visant à accompagner la transition écologique est au coeur de mes recherches. Les technologies numériques peuvent-elles, paradoxalement, faire partie de la solution ? L’intelligence numérique ne risque-t-elle pas, au contraire, d’aggraver le problème lorsqu’elle a recours aux énergies fossiles ?

Lasagne d’intelligence numérique

L’intelligence numérique regroupe la science des données et l’intelligence artificielle, dans une approche dite « de la donnée à la décision ». Elle peut à cet égard fournir des données à partir desquelles de meilleures décisions seront prises, que ce soit en affaires, ou concernant la transition énergétique.

Prenons l’exemple d’Hydro-Québec qui, pour garantir la résilience et la fiabilité de son réseau électrique, doit s’adapter à plusieurs défis.

Une augmentation de la fréquence et de l’intensité des événements météo extrêmes – tempêtes, vents violents, verglas, feux de forêt, fortes précipitations – met à rude épreuve les infrastructures de production, transport et distribution.

En effet, les infrastructures sont de plus en plus vulnérables aux aléas climatiques, comme le verglas qui alourdit et fragilise les lignes électriques, ou les feux de forêt dans le nord qui menacent directement les installations.

L’adaptation du réseau énergétique aux changements climatiques repose sur une approche intégrée combinant des infrastructures plus efficaces, la diversification des sources d’énergie, l’optimisation de la consommation – et sa réduction – ainsi que l’amélioration de la flexibilité du réseau.


À lire aussi : L’étude des forêts anciennes de l’est du Canada indique que le changement climatique a commencé il y a près de 100 ans


L’importance de la modélisation

C’est dans ce contexte que la modélisation devient un ingrédient indispensable de l’intelligence numérique. Les outils de modélisation du système énergétique jouent un rôle clé en permettant d’évaluer les différentes trajectoires vers la carboneutralité.

Par exemple, pour évaluer l’impact du transport routier à Montréal, on peut analyser les déplacements et les comportements des automobilistes sur une période donnée et extrapoler ces données sur l’année grâce à un logiciel de modélisation utilisant l’intelligence numérique.

Les modèles à choix discrets (Discrete Choice Models) sont des modèles statistiques qui décrivent et prédisent les décisions d’individus parmi un ensemble fini d’options, en fonction des caractéristiques des alternatives et des préférences des individus. Ainsi, l’intégration de ces données précises aux modèles permet non seulement d’évaluer le potentiel des nouvelles infrastructures, mais aussi de considérer des alternatives plus viables telles que les transports en commun, la marche, le vélo, ou encore le covoiturage.


À lire aussi : À Montréal, même en doublant les pistes cyclables, les voitures conserveraient 90 % de la chaussée


Si la modélisation ne date pas d’hier, le recours à l’intelligence artificielle permet de réduire le temps de modélisation.

Expérimenter sans construire

Un autre exemple prometteur de l’usage de l’intelligence numérique dans la prise de décision est la modélisation par jumeau numérique.

Elle repose sur l’interaction entre le BIM (Building Information Modeling) et l’intelligence artificielle (IA). Elle consiste à créer une réplique virtuelle d’un bâtiment ou de toute autre infrastructure afin de simuler son comportement dans différentes conditions.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Cette approche permet d’optimiser la conception et les performances du bâtiment sans avoir recours à des matériaux physiques, réduisant ainsi la consommation de ressources. Connecté à des capteurs, le modèle reçoit des données en temps réel (par exemple : la température ou l’occupation d’un bâtiment).

L’IA analyse ces données pour simuler des scénarios, prédire des défaillances, ou optimiser la performance énergétique. Ce système permet ainsi de concevoir, gérer et améliorer un bâtiment sans intervention physique, réduisant les coûts et la consommation de ressources.


À lire aussi : Climat : comment l’industrie pétrolière veut nous faire porter le chapeau


Les limites de l’intelligence numérique

Si les modèles mathématiques aident à identifier des scénarios viables pour la transition énergétique des secteurs du transport et des bâtiments, ils comportent leurs limites.

Les modèles utilisés dans ces analyses sont principalement de nature technico-économique. Autrement dit, ils évaluent ce qui est théoriquement réalisable en fonction des infrastructures et des coûts, mais ils ne tiennent pas toujours compte des obstacles sociaux, environnementaux ou politiques qui peuvent freiner leur mise en œuvre.

Par exemple, une solution identifiée comme optimale pour réduire les émissions de GES pourrait se heurter à des limites telles que le manque de volonté politique, la présence d’autres sources d’émissions non prises en compte, ou encore des impacts collatéraux sur la biodiversité et l’économie locale.

Une transition démocratique

La transition énergétique n’est pas seulement une question technologique, mais aussi politique et sociale. Par exemple, l’adoption de nouvelles normes sociales, comme la réduction de l’usage de l’automobile, doit être soutenue par des infrastructures facilitantes. Les pouvoirs publics ont la responsabilité d’accompagner ces changements.

Le numérique est un outil puissant, mais ce n’est pas une panacée pour affronter ce qui constitue sans doute l’un des plus grands défis de notre siècle. Pour que la recette fonctionne, l’intelligence numérique doit s’assurer de réunir tous les bons ingrédients.

La Conversation Canada

Diane Gorcy a reçu des financements du CIRODD.

Annie Levasseur a reçu des financements de nombreux organismes subventionnaires de la recherche (Chaires de recherche du Canada, CRSNG, FRQ, Mitacs, etc.).

Hanane Dagdougui a reçu des financements de nombreux organismes subventionnaires de la recherche ( CRSNG, Mitacs, FQRNT, etc.).

Olivier Bahn a reçu des financements de plusieurs organismes subventionnaires de la recherche, notamment le CNRC, le CRSNG, le FRQ et Mitacs.

Charles Ponzi nous permet-il de comprendre la bulle de l’IA ?

L’escroc Charles Ponzi (né Carlo Pietro Giovanni Guglielmo Tebaldo Ponzi en 1882 en Italie et mort au Brésil en 1949) se fait connaître dès 1920 pour ses manœuvres financières frauduleuses. Wikimedia Commons

Les bulles technologiques ont souvent dissimulé de grandes fraudes. Du boom ferroviaire britannique au XIXᵉ siècle à l’affaire Madoff, y a-t-il des signes avant-coureurs qui peuvent nous permettre de comprendre la frénésie actuelle autour de l’IA et sa potentielle bulle ?


De nombreux investisseurs se demandent si nous vivons dans une bulle IA ; d’autres vont plus loin et se posent la question de savoir jusqu’à quand. Pourtant, la bulle continue de gonfler, alimentée par ce sentiment dangereux de « peur de passer à côté » (FOMO pour Fear Of Missing Out). L’histoire et l’expérience récente nous montrent que les bulles financières naissent souvent de l’enthousiasme excessif des investisseurs pour les nouvelles technologies « révolutionnaires » qui, lorsqu’elles éclatent, révèlent des systèmes frauduleux surréalistes qui se sont développés sous couvert de la bulle.

Concrètement, un système de Ponzi consiste à rémunérer les investisseurs existants avec l’argent apporté par de nouveaux investisseurs plutôt qu’avec de vrais profits, ce qui nécessite un recrutement continu jusqu’à son effondrement inévitable. L’une des caractéristiques de ces systèmes est qu’ils sont difficiles à détecter avant l’éclatement de la bulle, mais étonnamment simples à comprendre avec le recul.

Dans cet article, nous abordons la question suivante : quelles traces les systèmes de Ponzi laissent-ils dans les bulles financières alimentées par la technologie ? Comment pourraient-elles nous aider à anticiper la prochaine bulle qui émergera dans le tumulte de l’IA ?

Pour ce faire, nous comparerons le Ponzi du « roi du chemin de fer » George Hudson, dans les années 1840, à celui de Bernie Madoff, rendu possible par les technologies de l’information et de la communication (TIC) et les dotcoms des années 1990-2000, puis soutenu par la bulle immobilière qui a suivi aux États-Unis.

« Railway Mania » de George Hudson

La « Railway Mania » débute au Royaume-Uni en 1829. Elle émerge sous l’effet à la fois des attentes des investisseurs quant à la croissance de cette nouvelle technologie et du manque d’alternatives d’investissement provoqué par l’arrêt de l’émission d’obligations par le gouvernement. La promesse de la technologie ferroviaire entraîne un afflux de compagnies ferroviaires avec l’enregistrement de plus de 50 entreprises au cours des quatre premiers mois de 1845 seulement.

George Hudson (1800–1871), caricaturé ironiquement « hors des sentiers battus » dans la revue Punch. Wikimédia

À cette époque, les estimations des coûts de développement ferroviaire sont sous-évaluées de plus de 50 %, et les prévisions de recettes sont estimées entre 2 000 et 3 000 livres sterling par mile, alors que les recettes réelles se situent plutôt entre 1 000 et 1 500 livres par mile. (Cent livres sterling en 1845 équivalent à 15 782,99 livres sterling en 2026, soit 18 216,73 euros, ndlt) Les normes comptables rudimentaires permettent une certaine liberté dans la présentation des comptes, comme le report de la comptabilisation des dépenses. La responsabilité des directeurs incombe aux actionnaires et non à des auditeurs externes ou à des représentants de l’État.

George Hudson, qui est également membre du Parlement, encourage la déréglementation du secteur ferroviaire.

Ponzi de Bernard Madoff

La réputation de Bernard Madoff s’est construite sur son succès dans les années 1970 grâce à l’informatisation et à l’innovation technologique dans le domaine du trading. La bulle Internet est alimentée par l’expansion rapide des entreprises technologiques, avec plus de 1 900 sociétés TIC cotées sur les bourses américaines entre 1996 et 2000, ce qui permet à son fonds BLMIS de détenir 300 millions de dollars d’actifs en 2000 (alors plus de 300 millions d’euros, ndlr).


À lire aussi : En finir avec la finance Ponzi, vraiment ? Le cas « Martin Shkreli »


Bernard Madoff (1938-2021), président fondateur de Bernard L Madoff Investment Securities LLC, l’une des principales sociétés d’investissement de Wall Street. En 2008, il est arrêté par le FBI pour escroquerie de type « système de Ponzi ». Wikimédia

Le système de Madoff se développe dans un contexte de croissance rapide des produits dérivés, tels que les credit default swaps (CDS) et les collateralized debt obligations (CDO), qui augmentent de 452 % entre 2001 et 2007. La forte volatilité des marchés engendre une normalisation des rendements exceptionnellement élevés, masquant le caractère irréalisable des performances promises par Bernard Madoff. Ces rendements sont considérés comme modérés par les investisseurs, qui ne perçoivent pas l’invraisemblance d’une telle constance sur le long terme, ce qui permet au système de durer sans être détecté.

Les activités de Bernard Madoff sont facilitées par le fait qu’avant la loi Dodd-Frank de 2010 sur la supervision des banques, l’enregistrement des hedge funds (fonds spéculatifs) auprès de la Securities and Exchange Commission (SEC, l’organisme de régulation des marchés financiers) est volontaire. De plus, après les attentats du 11 septembre 2001, les ressources gouvernementales sont réorientées vers la sécurité nationale, entraînant une baisse de plus de 25 % des enquêtes ouvertes pour crimes financiers entre 2000 et 2003.

L’invraisemblance des rendements de Bernard Madoff est négligée par la SEC, malgré les signalements de lanceurs d’alerte qui ont déclenché une enquête – ce qui reflète son manque de connaissances et celui d’autres organismes de réglementation en matière de trading des hedge funds. Cela a également pu être le résultat de l’influence des relations étroites de Madoff avec les autorités de régulation, compte tenu de ses fonctions passées de président du Nasdaq et de conseiller en structure de marché auprès de la SEC.

Au moment de l’éclatement de la bulle ferroviaire, les taux d’intérêt de la Banque d’Angleterre sont à leur plus bas niveau depuis près d’un siècle. De même, la baisse des taux d’intérêt par la Réserve fédérale états-unienne (Fed) dans les années 2000 réduit le coût des crédits immobiliers, stimulant la demande et contribuant à l’inflation des prix de l’immobilier. Dans les deux cas, les marchés sont inondés d’argent bon marché et lorsque tout le monde gagne de l’argent (ou pense en gagner), les questions qui dérangent ne sont pas posées.

De l’ascension à la chute des fraudeurs

George Hudson de même que Bernard Madoff communiquent très peu sur leurs opérations auprès de leurs collègues directeurs et actionnaires. Le premier lève notamment 2,5 millions de livres sans fournir de plan d’investissement détaillé. Madoff, quant à lui, emploie et surpaye des collaborateurs peu qualifiés afin de décourager les questions sur le fonctionnement interne, et évite les réunions de présentation aux investisseurs pour ne pas avoir à répondre aux interrogations de professionnels avertis. Il recrute plutôt ses investisseurs par le biais de relations philanthropiques et de réseaux personnels. Des éléments suggèrent que certains actionnaires sont en partie conscients des pratiques commerciales douteuses de Hudson, mais ils ne s’y opposent pas initialement.

Lorsque leurs bulles respectives éclatent, ces pratiques commerciales douteuses sont révélées, et il apparaît clairement qu’ils utilisent, selon le système classique de Ponzi, des capitaux frais – et non les bénéfices des investissements – pour verser des dividendes aux investisseurs. Il a également été révélé qu’ils utilisent les fonds des investisseurs pour financer leurs trains de vie luxueux. Hudson aurait détourné environ 750 000 livres (soit environ 74 millions de livres actuelles, soit 85,4 millions d’euros, ndlt), tandis que la fraude de Bernard Madoff a atteint 65 milliards de dollars de pertes déclarées, avec des pertes réelles pour les investisseurs estimées à environ 18 milliards.

Tous deux ont terminé dans la disgrâce : Hudson s’est enfui en France et Madoff est mort en prison.

Sur la piste du renard

Méfiez-vous lorsque vous voyez des entreprises d’IA dont la valeur marchande ne cesse d’augmenter, dirigées par des leaders charismatiques et influents – il est préoccupant que les dirigeants des géants de l’IA entretiennent des relations aussi étroites avec la Maison-Blanche.

Dans ces cas, il est impératif d’analyser la qualité des communications avec les actionnaires et les investisseurs potentiels, notamment en termes d’allocation du capital et de transparence sur les flux de trésorerie détaillés. Il ne suffit pas de se fier aux états financiers audités ; il faut aller beaucoup plus loin dans l’examen de la stratégie d’investissement – ce qui exigera évidemment des auditeurs qu’ils redoublent d’efforts.

Lorsque les investisseurs sont pris dans la frénésie, au coin de la rue attend un Ponzi.


Geneva Walman-Randall a contribué à cet article en tant qu’assistante de recherche sur les conditions entourant les systèmes de Ponzi de Bernie Madoff et de George Hudson. Elle a mené cette recherche en tant qu’étudiante invitée au St. Catherine’s College d’Oxford.

The Conversation

Paul David Richard Griffiths ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Comment savoir si je parle à un chatbot ?

GPT-4.5 a réussi à convaincre 73 % des évaluateurs qu’il était humain lors d’un test rigoureux en mars 2025. Or, savoir à qui l’on parle est très important, avec des enjeux notamment en termes de sécurité en ligne.


Vous échangez avec le service client de votre fournisseur d’électricité via un chat en ligne. Les réponses arrivent instantanément : précises, empathiques, légèrement familières et portées par un ton que vous identifiez comme féminin. Pour tester votre interlocutrice, vous posez une question piège et votre interlocutrice répond avec humour. Ai-je échangé avec une véritable conseillère… ou avec un algorithme d’IA sophistiqué ?

Vous n’êtes pas les seuls à éprouver ce doute ! Presque la moitié des utilisateurs de chatbots reconnaissent avoir déjà confondu un agent conversationnel virtuel avec un être humain. Jamais la frontière entre l’humain et la machine n’a été aussi floue.

Mes travaux de recherche récents examinent les mécanismes d’adoption de ces outils. Il est indéniable que nous sommes en train d’entrer dans une ère marquée par ce que l’on pourrait appeler une confusion ontologique, c’est-à-dire une ère où les frontières entre le naturel et l’artificiel deviennent de plus en plus floues pour l’être humain qui a du mal à les distinguer clairement.


À lire aussi : Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle


Or, savoir à qui l’on parle ne relève plus uniquement d’une simple curiosité technologique : c’est devenu un enjeu de cybersécurité, de confiance et de bien-être psychologique.

Ne pas distinguer un humain d’un chatbot peut exposer à une confiance excessive dans des réponses qui peuvent être inexactes et à la divulgation imprudente d’informations à caractère personnel. Pour le grand public, savoir identifier un chatbot, comprendre ses limites et évaluer la qualité de ses réponses devient une compétence essentielle pour utiliser ces outils en connaissance de cause.

Pourquoi l’identité de votre interlocuteur change-t-elle tout ?

Aujourd’hui, plus d’un milliard de personnes dans le monde utilisent des chatbots. Il est prévu que ce marché atteigne 60,26 milliards de dollars (51,77 milliards d’euros) d’ici à 2030.

Le secteur de la santé, notamment en ce qui concerne la santé mentale, est témoin de l’émergence des chatbots IA de type compagnon qui sont programmés pour simuler la compassion. Savoir que l’on parle à un algorithme d’IA favorise le maintien d’une distance critique indispensable vis-à-vis des recommandations formulées. Par exemple, si une personne exprime un profond mal-être, un chatbot pourra proposer des exercices de relaxation, mais ces réponses standardisées reposant sur des modèles statistiques ne remplacent pas l’évaluation clinique individualisée et le suivi d’un professionnel de santé.


À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?


Dans le monde des affaires, les entreprises recourent massivement aux chatbots IA afin de réduire les dépenses opérationnelles. La responsabilité juridique peut être engagée dans le cas où un chatbot IA émet une promesse commerciale erronée en raison d’un dysfonctionnement ou d’une hallucination, par exemple, si un chatbot promet par erreur une remise inexistante ou un remboursement sans condition. Qui est responsable de cette promesse ? Le concepteur du chatbot IA, l’entreprise qui l’utilise, ou tout autre acteur impliqué dans sa conception ou sa mise en œuvre ? La clarté concernant l’identité de l’émetteur est essentielle pour établir les fondements du contrat qui définit les responsabilités de chaque partie impliquée.

À l’échelle sociétale, savoir distinguer l’humain des chatbots IA est essentiel pour préserver l’intégrité du débat public. Identifier la nature de son interlocuteur permet d’éviter de confondre un contenu automatisé avec une prise de position authentiquement humaine. Par exemple, lors d’une consultation publique en ligne, un chatbot clairement identifié peut fournir rapidement des informations factuelles sur une réforme sans prétendre porter la voix des citoyens. Les utilisateurs du service public numérique font davantage confiance à un chatbot lorsque celui-ci est clairement identifié comme tel.

Comment identifier un chatbot aujourd’hui ?

Avant tout, pour comprendre son fonctionnement, il faut regarder l’architecture des « transformers », la structure technique derrière la plupart des chatbots modernes. Ces « transformers » sont capables de prédire le mot suivant une suite de mots donnée, grâce aux statistiques : ils donnent juste le mot suivant le plus probable. Savoir que l’on parle à un chatbot IA, c’est se rappeler qu’il ne comprend pas le sens, qu’il n’y a pas de pensée derrière la conversation : le chatbot ne fait que choisir les mots qui ont statistiquement gagné à l’issue de ses calculs.


À lire aussi : Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage


Voici quelques astuces de détection utiles pour savoir si l’on parle à un chatbot IA.

Posez des questions qui nécessitent des détails personnels ou des souvenirs à long terme que le chabot IA ne possède pas, par exemple « Tu te rappelles ce que je t’avais dit sur mon premier stage ? » Un être humain serait en mesure de mobiliser un souvenir précis, tandis qu’un chatbot IA ne pourrait que simuler une continuité. Autre test possible : faites référence à une expérience commune implicite, par exemple « On avait finalement choisi quel restaurant déjà ? » Un être humain pourra se souvenir du lieu exact, tandis qu’un chatbot IA tendra à proposer une réponse plausible sans véritable souvenir.

Posez des questions qui permettent de tester les limites du raisonnement de chatbot IA avec des situations absurdes, par exemple : « Explique-moi pourquoi il est impossible d’expliquer cette impossibilité. » Un humain est davantage susceptible de résister à la demande en exprimant un inconfort par rapport à la question posée. Le chatbot IA raisonne comme si la situation était cohérente, même quand elle ne l’est pas, l’action requise demeure irréalisable. Autre exemple : « Décris précisément la couleur d’un triangle invisible. » Un humain soulignera spontanément l’incohérence de la consigne, tandis qu’un chatbot IA cherchera souvent à formuler une explication théorique comme si la question avait un sens pleinement exploitable.

Posez des questions sur des événements récents hyperlocalisés avec une opinion nuancée, par exemple : « En tant que riverain, que penses-tu de la piétonnisation hier de cette rue ? » Les chatbots IA sont entraînés sur des bases de données figées à une date précise. Même si certains sont connectés à Internet, ils ont souvent du mal à commenter les actualités hyperlocales très récentes avec une perspective nuancée. Autre exemple : « Comment as-tu vécu la coupure d’électricité dans notre quartier hier soir ? » Un habitant pourra évoquer des détails précis comme les discussions avec les voisins et l’ambiance dans la rue, tandis qu’un chatbot restera dans des généralités sans véritable ancrage local.

Vers une transparence et une littératie numérique indispensables : l’IA Act et au-delà

Mes travaux récents, au-delà des astuces de détection, invitent à repenser notre relation avec ces interlocuteurs numériques. Notre étude montre que la divulgation de l’identité, c’est-à-dire l’annonce par un chatbot IA de sa nature artificielle, ne réduit pas forcément la satisfaction de l’utilisateur si la qualité informationnelle du chatbot IA est au rendez-vous. La loi européenne, par le biais de l’IA Act, va imposer cette transparence.

À l’avenir, la question sera donc plutôt « Comment optimiser la collaboration avec cette entité que je sais être artificielle ? » Pour les entreprises, il faut se concentrer sur ce qui compte vraiment aux yeux des utilisateurs grand public, c’est-à-dire la performance du chatbot IA permettant de fournir des réponses pertinentes, fiables et de qualité, plutôt que de se contenter de déclarations éthiques génériques ou d’avatars anthropomorphiques attrayants.

The Conversation

Zeling Zhong ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Le plus grand danger de l’IA à l’université n’est pas la triche, c’est l’érosion de l’apprentissage lui-même

L’intelligence artificielle promet de « libérer du temps » et d’optimiser l’apprentissage. Mais en déléguant aux machines les tâches qui formaient étudiants et jeunes chercheurs, les universités risquent d’éroder les conditions mêmes de l’expertise.


Dans le débat public sur l’intelligence artificielle (IA) à l’université, une inquiétude revient en boucle : la tricherie. Les étudiants vont-ils confier leurs dissertations à des chatbots ? Les enseignants sauront-ils les démasquer ? Faut-il interdire ces outils sur les campus, ou au contraire les intégrer aux pratiques pédagogiques ?

Ces questions sont légitimes. Mais à force de réduire le sujet à la fraude académique, on passe à côté de l’essentiel : une transformation beaucoup plus profonde est déjà à l’œuvre, qui dépasse largement les seuls comportements des étudiants – et même le cadre de la salle de classe.

Les universités déploient désormais l’IA dans de nombreux aspects de leur fonctionnement. Certaines applications restent largement invisibles : des systèmes qui aident à répartir les ressources, à repérer les étudiants « à risque », à optimiser les emplois du temps ou à automatiser des décisions administratives routinières.

D’autres usages sont, eux, beaucoup plus visibles. Les étudiants s’appuient sur des outils d’IA pour résumer des cours et réviser. Les enseignants les utilisent pour élaborer des sujets d’évaluation, préparer des syllabus. Les chercheurs s’en servent pour écrire du code, passer en revue la littérature scientifique ou condenser en quelques minutes des tâches fastidieuses qui prenaient auparavant des heures.

On peut bien sûr utiliser l’IA pour tricher ou se soustraire à un devoir. Mais la multiplication de ses usages dans l’enseignement supérieur – et les bouleversements qu’ils annoncent – posent une question bien plus fondamentale : à mesure que les machines deviennent capables d’assumer une part croissante du travail de recherche et d’apprentissage, que devient l’université ? À quoi sert-elle encore ?

Depuis huit ans, nous étudions les implications morales d’un recours massif à l’IA dans le cadre d’un projet de recherche conjoint entre le Applied Ethics Center at UMass Boston et l’Institute for Ethics and Emerging Technologies. Dans un livre blanc récent, nous soutenons qu’à mesure que les systèmes d’IA gagnent en autonomie, les enjeux éthiques de leur utilisation dans l’enseignement supérieur s’intensifient – tout comme les conséquences potentielles qui en découlent.

À mesure que ces technologies deviennent plus performantes dans la production de travaux intellectuels – concevoir des cours, rédiger des articles, proposer des protocoles expérimentaux ou résumer des textes complexes – elles ne se contentent pas d’accroître la productivité des universités. Elles risquent aussi de vider de sa substance l’écosystème d’apprentissage et de mentorat sur lequel ces institutions sont fondées – et dont elles dépendent pour exister.

IA non autonomes

On peut distinguer trois types de systèmes d’IA et leurs effets respectifs sur la vie universitaire.

Des logiciels alimentés par l’IA sont déjà utilisés dans l’enseignement supérieur pour l’examen des candidatures, les achats, l’accompagnement pédagogique des étudiants ou encore l’évaluation des risques institutionnels.

On parle ici de systèmes « non autonomes » : ils automatisent certaines tâches, mais un humain reste « dans la boucle » et les utilise comme de simples outils.

Ces technologies peuvent faire peser un risque sur la vie privée et la sécurité des données des étudiants. Elles peuvent aussi être biaisées. Et elles manquent souvent de transparence, ce qui rend difficile l’identification de l’origine de ces problèmes. Qui a accès aux données ? Comment sont calculés les « indices prédictifs de décrochage ou d’échec » ? Comment éviter que ces systèmes ne reproduisent des inégalités ou ne traitent certains étudiants comme de simples cas problématiques à gérer ?

Ces questions sont sérieuses. Mais, au moins dans le champ de l’informatique, elles ne sont pas fondamentalement nouvelles. Les universités disposent en général de services de conformité, de comités d’éthique de la recherche et de mécanismes de gouvernance pensés pour anticiper ou limiter ces risques – même si, dans les faits, ils n’atteignent pas toujours pleinement ces objectifs.

IA hybrides

Les systèmes hybrides regroupent toute une gamme d’outils, parmi lesquels des bots conversationnels assistés par l’IA, des dispositifs de feedback personnalisé ou encore des aides automatisées à l’écriture. Ils reposent souvent sur des technologies d’IA générative, notamment sur de grands modèles de langage, les LLM. Si les utilisateurs humains fixent les objectifs généraux, les étapes intermédiaires que le système mobilise pour les atteindre ne sont, elles, généralement pas spécifiées.

Ces systèmes hybrides façonnent de plus en plus le travail académique au quotidien. Les étudiants les utilisent comme compagnons d’écriture, tuteurs, partenaires de réflexion ou outils d’explication à la demande. Les enseignants s’en servent pour élaborer des grilles d’évaluation, préparer des cours ou concevoir des plans de syllabus. Les chercheurs les mobilisent pour résumer des articles, commenter des versions préliminaires, imaginer des protocoles expérimentaux ou générer du code.

C’est ici que le débat sur la « tricherie » trouve véritablement sa place. Alors qu’étudiants et enseignants s’appuient de plus en plus sur ces outils pour se faire aider, il est légitime de s’interroger sur les formes d’apprentissage qui risquent de se perdre en chemin. Mais les systèmes hybrides soulèvent aussi des questions éthiques plus complexes.

L’une d’elles concerne la transparence. Les chatbots d’IA proposent des interfaces en langage naturel qui rendent difficile de savoir si l’on échange avec un humain ou avec un agent automatisé. Cette ambiguïté peut être déstabilisante et source de distraction. Un étudiant qui révise pour un examen doit pouvoir savoir s’il s’adresse à son chargé de travaux dirigés ou à un robot. De même, un étudiant qui lit les commentaires sur son mémoire doit pouvoir identifier clairement s’ils proviennent de son enseignant.

Tout manque de transparence dans ces situations risque d’aliéner les personnes concernées et de déplacer l’attention des interactions académiques : au lieu de se concentrer sur l’apprentissage, on se focalise sur les outils ou la technologie qui le médiatisent. Des chercheurs de l’Université de Pittsburgh ont montré que ces dynamiques suscitent chez les étudiants des sentiments d’incertitude, d’anxiété et de méfiance. Des effets loin d’être anodins.

Une deuxième question éthique touche à la responsabilité et au crédit intellectuel. Si un enseignant utilise l’IA pour rédiger un sujet et qu’un étudiant s’appuie lui aussi sur l’IA pour produire sa réponse, qui évalue qui – et qu’est-ce qui est réellement évalué ? Si les retours sont en partie générés par une machine, qui est responsable lorsqu’ils induisent en erreur, découragent ou intègrent des présupposés invisibles ? Et lorsque l’IA contribue de manière substantielle à une synthèse de recherche ou à la rédaction d’un article, les universités devront établir des normes plus claires en matière d’autorat et de responsabilité – pas seulement pour les étudiants, mais aussi pour les enseignants-chercheurs.

Enfin se pose la question cruciale de la « décharge cognitive ». L’IA peut réduire les tâches fastidieuses, et cela n’a rien de problématique en soi. Mais elle peut aussi détourner les utilisateurs des étapes de l’apprentissage qui construisent réellement les compétences : formuler des idées, traverser des moments de confusion, retravailler un brouillon maladroit, apprendre à repérer ses propres erreurs.

Agents autonomes

Les transformations les plus profondes pourraient venir de systèmes qui ressemblent moins à des assistants qu’à de véritables agents. Si les technologies pleinement autonomes relèvent encore en partie de l’aspiration, l’idée d’un « chercheur en boîte » – un système d’IA agentique capable de mener des études de manière indépendante – devient de plus en plus crédible.

Ces outils dits agentiques sont présentés comme susceptibles de « libérer du temps » pour des activités mobilisant davantage des capacités humaines, comme l’empathie ou la résolution de problèmes. Dans l’enseignement, cela pourrait signifier que les enseignants continuent d’assurer les cours au sens formel, mais que la majeure partie du travail pédagogique quotidien soit déléguée à des systèmes optimisés pour l’efficacité et le passage à l’échelle. En recherche, l’avenir semble appartenir aux systèmes capables d’automatiser toujours davantage le cycle scientifique. Dans certains domaines, cela prend déjà la forme de laboratoires robotisés fonctionnant en continu, capables d’automatiser une grande partie des expérimentations et même de sélectionner de nouveaux tests à partir des résultats précédents.

À première vue, cela peut sembler être un gain intéressant de productivité. Mais les universités ne sont pas des usines à produire de l’information : ce sont des communautés de pratique. Elles reposent sur un vivier de doctorants et de jeunes chercheurs qui apprennent à enseigner et à faire de la recherche en participant eux-mêmes à ces activités. Si des agents autonomes absorbent une part croissante des tâches « routinières » qui constituaient historiquement des portes d’entrée dans la carrière académique, l’université pourra continuer à produire des cours et des publications – tout en fragilisant silencieusement les structures d’apprentissage qui permettent, dans la durée, de former l’expertise.

La même dynamique touche les étudiants de premier cycle, sous une forme différente. Lorsque des systèmes d’IA peuvent fournir à la demande des explications, des brouillons, des solutions ou des plans de révision, la tentation est grande de déléguer les aspects les plus exigeants de l’apprentissage. Pour l’industrie qui promeut l’IA dans les universités, ce type d’effort peut apparaître comme « inefficace » – et l’on pourrait penser que les étudiants gagneraient à laisser la machine s’en charger. Mais c’est précisément dans cette confrontation à la difficulté que se construit une compréhension durable. La psychologie cognitive a montré que les étudiants progressent intellectuellement en rédigeant, en révisant, en échouant, en recommençant, en affrontant la confusion et en retravaillant des arguments faibles. C’est cela, apprendre à apprendre.

Pris ensemble, ces évolutions suggèrent que le principal risque lié à l’automatisation dans l’enseignement supérieur ne réside pas seulement dans le remplacement de certaines tâches par des machines, mais dans l’érosion plus profonde de l’écosystème de pratiques qui, depuis longtemps, soutient l’enseignement, la recherche et l’apprentissage.

Un tournant risqué

À quoi servent les universités dans un monde où le travail intellectuel est de plus en plus automatisé ?

Une première réponse consiste à voir l’université avant tout comme une machine à produire des diplômes et des connaissances. Dans cette logique, la question centrale devient celle des résultats : les étudiants obtiennent-ils leurs diplômes ? Des articles sont-ils produits ? Fait-on des découvertes ? Si des systèmes autonomes peuvent générer ces résultats plus efficacement, alors l’institution a toutes les raisons de les adopter.

Mais une autre réponse considère l’université comme bien davantage qu’une simple machine à produire des résultats. Elle reconnaît que la valeur de l’enseignement supérieur réside en partie dans l’écosystème lui-même : le continuum d’opportunités grâce auquel les novices deviennent experts, les structures de mentorat au sein desquelles se forment le jugement et le sens des responsabilités, et une conception pédagogique qui valorise l’effort et la confrontation à la difficulté plutôt que leur élimination au nom de l’efficacité.

Dans cette perspective, l’enjeu n’est pas seulement de savoir si des connaissances et des diplômes sont produits, mais comment ils le sont – et quels types de personnes, de compétences et de communautés se construisent au passage. L’université y apparaît comme un écosystème dont la mission est, ni plus ni moins, de former durablement l’expertise et le discernement humains.

Dans un monde où le travail intellectuel est lui-même de plus en plus automatisé, les universités doivent, selon nous, s’interroger sur ce qu’elles doivent à leurs étudiants, à leurs jeunes chercheurs et à la société qu’elles servent. Les réponses à ces questions détermineront non seulement la manière dont l’IA sera intégrée, mais aussi ce que deviendra l’université contemporaine.

The Conversation

Le Applied Ethics Center de l’UMass Boston reçoit des financements de l’Institute for Ethics and Emerging Technologies. Nir Eisikovits est conseiller en éthique des données auprès de MindGuard, une start-up spécialisée dans l’intégration de l’intelligence artificielle dans les flux de travail des entreprises.

Jacob Burley a reçu des financements du Applied Ethics Center de l'UMass Boston.

D’Anthropic à l’Iran : qui fixe les limites de l’utilisation de l’IA dans les domaines de la guerre et de la surveillance ?

Anthropic, une entreprise de pointe dans le domaine de l’intelligence artificielle, a récemment refusé de signer un contrat avec Le Pentagone qui aurait donné à l’armée américaine un « accès illimité » à sa technologie « à toutes fins légales ». Pour signer, le PDG de la société, Dario Amodei, avait posé deux conditions claires : pas de surveillance de masse des citoyens américains et pas d’armes entièrement autonomes sans supervision humaine.

Le lendemain, les États-Unis et Israël lançaient une offensive à grande échelle contre l’Iran.

On peut se poser les questions suivantes : à quoi ressemblerait une guerre menée avec des armes entièrement autonomes ? Quelle est l’importance de la décision éthique prise par Amodei lorsqu’il a qualifié les armes entièrement autonomes et la surveillance de masse de ligne que son entreprise refusait de franchir ? Que représente cette limite pour d’autres pays ?

Cette décision a coûté très cher à Anthropic. Le président américain, Donald Trump, a ordonné à toutes les agences américaines de cesser d’utiliser les outils d’IA d’Anthropic, composés de grands modèles de langage (GML) et du robot conversationnel Claude. Pete Hegseth, secrétaire à la Défense, a qualifié l’entreprise de « risque pour la chaîne d’approvisionnement », ce qui pourrait avoir un impact sur les contrats futurs d’Anthropic. L’entreprise rivale OpenAI a rapidement conclu un accord avec Le Pentagone par la suite.

Les risques liés aux armes entièrement autonomes

Les robots conversationnels ne constituent pas des armes en soi, mais ils peuvent être intégrés à des systèmes d’armement. S’ils ne tirent pas de missiles et ne contrôlent pas de drones, ils peuvent toutefois être connectés à de grands systèmes militaires.

Ils peuvent notamment synthétiser rapidement des renseignements, générer des listes de cibles, classer les menaces hautement prioritaires et recommander des frappes. Le processus, qui va de la collecte des données des capteurs à l’interprétation, la sélection de cibles et l’activation d’armes représente un risque majeur : il s’effectue avec un contrôle humain minimal, voire inexistant, et sans qu’aucun opérateur en ait même conscience.

Les armes entièrement autonomes sont des plates-formes militaires qui, une fois activées, mènent des opérations de manière indépendante, sans intervention humaine. Elles s’appuient sur des capteurs, tels que des caméras et des radars, ainsi que sur des algorithmes d’IA pour analyser leur environnement, repérer, sélectionner et atteindre des cibles.

Des hélicoptères de pointe fonctionnent déjà sans intervention humaine. Avec les armes complètement autonomes, les humains ne jouent plus aucun rôle, et l’IA prend les décisions finales concernant les attaques et la stratégie sur le champ de bataille.Bas du formulaire

Ce qui est particulièrement inquiétant, c’est que des recherches récentes ont montré que, dans 95 % des cas, des modèles d’IA avancés avaient choisi d’utiliser des armes nucléaires dans des jeux de guerre simulés.

Les risques de la surveillance de masse

Les modèles d’IA de pointe peuvent résumer rapidement d’énormes ensembles de données et générer des profils afin de détecter des personnes et des activités suspectes, même à partir d’associations faibles. Dans sa déclaration sur les discussions entre Anthropic et le département de la guerre, Amodei a fait valoir que « la surveillance de masse basée sur l’IA présente des risques sérieux et sans précédent pour nos libertés fondamentales ».

Ces systèmes peuvent analyser des dossiers, des communications et des métadonnées afin d’effectuer des recherches au sein de populations. Ils peuvent produire des rapports et des listes de personnes qui permettent de déterminer qui sera interrogé, qui se verra refuser l’entrée dans un pays ou l’accès à un emploi, etc. Ils présentent des risques pour la vie privée, car ils peuvent analyser des données provenant de multiples sources, telles que des comptes de réseaux sociaux, et les combiner à des caméras et à la reconnaissance faciale pour suivre des individus en temps réel.

Les modèles d’IA peuvent commettre des erreurs. La moindre association erronée peut avoir des conséquences graves si le système est utilisé pour des millions de personnes.

De plus, ces modèles sont opaques : leur manière d’analyser les données et d’aboutir à des conclusions n’est pas entièrement compréhensible, ce qui rend difficile la remise en question des résultats obtenus.

À toutes fins légales

L’expression « à toutes fins légales » semble constituer une limite de sécurité. Pourtant, cette formulation signifie que le gouvernement peut utiliser l’IA pour toutes les fins qu’il juge légales, avec peu de restrictions dans le contrat.

Cette notion est importante, car la légalité est un concept variable : les lois peuvent changer et sont souvent mal adaptées pour faire face en temps réel à des innovations en constante évolution ; par ailleurs, les interprétations peuvent varier.

C’est ce qui a conduit Anthropic, une entreprise fondée par d’anciens employés d’OpenAI et dédiée explicitement à la sécurité et à l’éthique de l’IA, à affirmer que la surveillance de masse rendue possible par l’IA constituait un risque nouveau, et que la notion de « fins légales » ne garantissait pas une protection adéquate.

Anthropic a créé un laboratoire interne afin de comprendre comment Claude interprète les requêtes et prend des décisions de manière autonome. Compte tenu de l’opacité des GML et de la rapidité avec laquelle leurs capacités évoluent, ce type d’initiative est essentiel.

Le projet Maven avec des enjeux plus importants ?

Cette histoire rappelle des précédents. Les sociétés technologiques sont depuis longtemps à la pointe de l’innovation, promettant des progrès considérables tout en présentant des risques d’utilisation abusive et de conséquences négatives. Le projet Maven de Google, lancé en 2018, est sans doute l’initiative qui offre le meilleur point de comparaison.

Google avait conclu un contrat avec Le Pentagone pour contribuer à l’analyse des images de surveillance prises par des drones. Quatre mille employés de Google ont protesté contre ce projet, affirmant que la surveillance ne devait pas faire partie de la mission de l’entreprise. Celle-ci a annoncé qu’elle ne renouvellerait pas le contrat Maven, puis a publié des principes en matière d’intelligence artificielle comprenant des assurances concernant les armes et la surveillance.

Cette situation est devenue un cas emblématique du pouvoir de la mobilisation des employés et de la pression publique.

L’exemple nous rappelle toutefois que l’éthique des entreprises et la sécurité de l’IA sont fluctuantes. Au début de l’année 2025, Google a en effet renoncé discrètement à son engagement de ne pas utiliser l’IA à des fins militaires ou de surveillance, dans le but d’obtenir de nouveaux contrats lucratifs dans le domaine de la défense.

La situation actuelle d’Anthropic présente certaines similitudes avec celle de Google et de son projet Maven. Elle met en lumière ce qui arrive lorsqu’une entreprise et ses dirigeants tentent de limiter les applications militaires de l’IA et que les valeurs défendues entrent en conflit avec les demandes des gouvernements et de la sécurité nationale.

Le cas d’Anthropic est différent de Maven, car l’IA générative est beaucoup plus puissante en 2026 qu’il y a quelques années. Maven ne concernait que l’analyse d’images filmées par des drones. Les modèles actuels servent à de nombreuses tâches, ce qui augmente le risque de débordement.

Les GML comme Claude peuvent s’améliorer de manière autonome en apprenant des corrections apportées par les utilisateurs et en affinant leurs actions grâce à des boucles de rétroaction itératives. Il est donc inquiétant d’imaginer ce que Claude et son client, Le Pentagone, auraient pu faire si on ne leur avait imposé aucune limite.

Qui établit les limites ?

La question n’est pas d’affirmer qu’Anthropic est particulièrement rigoureux dans ses principes ou que Le Pentagone a de trop grandes demandes, mais de comprendre que la question cruciale qui se posera sans cesse à mesure que l’IA deviendra plus puissante, c’est : qui fixe les limites de son utilisation lorsque la sécurité nationale est en jeu ?

Si la notion de « fins légales » devient la valeur par défaut, les garde-fous dépendront des politiques et de l’interprétation juridique. Pour le Canada et d’autres pays, les mesures de protection sont essentielles. L’éthique ne saurait être laissée aux négociations contractuelles et à la seule conscience des entreprises.

Ces événements illustrent la complexité de la mise en œuvre pratique de l’éthique de l’IA. Les principes et les déclarations en la matière sont nombreux et importants. Dans les faits, toutefois, l’éthique de l’IA est définie par des contrats, des règles d’approvisionnement, le comportement réel des différentes parties prenantes et la surveillance.

Les secteurs public et de la défense du Canada développent leurs capacités en matière d’IA et le pays travaille en étroite collaboration avec les secteurs de la défense et du renseignement américains. Cela signifie que le vocabulaire et les normes relatives à l’approvisionnement peuvent se propager. Si la notion de « fins légales » devient la norme sur le marché américain de la sécurité nationale, le Canada et d’autres pays pourraient être incités à adopter une formulation similaire.

La bonne nouvelle, c’est que le Canada dispose d’outils de gouvernance qu’il peut renforcer et étendre. La directive sur la prise de décision automatisée vise à garantir la transparence, la responsabilité et l’équité des systèmes. Elle prévoit une évaluation de l’incidence et la publication de rapports.

L’évaluation de l’incidence algorithmique est un outil obligatoire d’évaluation des risques liés à la directive.

Les Canadiens doivent suivre l’évolution de la situation afin de s’assurer que les normes d’approvisionnement mentionnent les utilisations interdites, de demander des contrôles et une surveillance indépendante, et de veiller à ce que les mesures de protection ne dépendent pas uniquement des gouvernements en place et des grosses entreprises.

La Conversation Canada

Emmanuelle Vaast ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

IA et cancer de la thyroïde : demain, la fin des traitements standardisés ?

En couplant intelligence artificielle et modélisation mathématique, un consortium français d’équipes de recherche développe un outil pour, à terme, administrer, en fonction du profil de chaque patient, les doses d’iode radioactif utilisées pour traiter certains types de cancers de la thyroïde. Mais le chemin est encore long avant de voir émerger cette médecine quantitative, prédictive et personnalisée.


La radiothérapie métabolique par iode radioactif repose encore sur des protocoles standardisés qui ignorent la variabilité biologique des patients. (Appelée aussi radiothérapie interne vectorisée, la radiothérapie métabolique consiste à administrer les sources radioactives pour traiter les tumeurs par voie orale ou par perfusion intraveineuse, ndlr.)

En combinant intelligence artificielle prédictive et modélisation mathématique, une équipe française propose une approche radicalement plus précise : un traitement réellement personnalisé, ajusté patient par patient.

Un même traitement, des résultats radicalement différents

Prenons un exemple fictif. Sophie, 52 ans, et Thomas, 48 ans, partagent le même diagnostic : un cancer différencié de la thyroïde avec métastases. Tous deux reçoivent le protocole standard : 3,7 gigabecquerel (GBq) d’iode radioactif (iode 131) administré par voie orale en une seule injection. Six mois plus tard, le contraste est saisissant. Chez Sophie, les marqueurs tumoraux ont chuté de 90 % et les métastases régressent. Chez Thomas, aucune amélioration : sa tumeur continue de croître, insensible au traitement. Il est devenu réfractaire à l’iode radioactif.

Cette injustice biologique n’est pas une fatalité. Elle révèle l’un des défis majeurs de la cancérologie moderne : l’immense variabilité interindividuelle dans la réponse aux traitements. Un défi que la combinaison de l’intelligence artificielle et de la modélisation mathématique commence enfin à relever.

Le problème : surtraiter certains malades, en sous-traiter d’autres

Aujourd’hui, les protocoles de radiothérapie métabolique par iode radioactif reposent essentiellement sur des schémas standardisés, établis empiriquement depuis des décennies. Ces protocoles « taille unique » ignorent une réalité biologique fondamentale : tous les cancers ne se comportent pas de la même manière.

La différence entre Sophie et Thomas tient à un paramètre invisible à l’œil nu mais déterminant : le temps de doublement tumoral sous traitement (TD). Chez les répondeurs comme Sophie, le TD est long, parfois plusieurs mois ou années. Les cellules cancéreuses se divisent lentement. L’iode radioactif a le temps d’agir, de s’accumuler dans les cellules thyroïdiennes et de les détruire par irradiation interne. Des activités modérées souvent suffisent pour y arriver à bout.

Chez les non-répondeurs comme Thomas, le TD est court, quelques semaines seulement. Les cellules prolifèrent rapidement et peuvent même exprimer des mécanismes de résistance malgré une captation d’iode. Le schéma standard n’est pas adapté et les délais inter-cures trop longs, laissent à la tumeur tout le loisir de progresser entre les traitements.

L’enjeu est double : pour Sophie, éviter le surtraitement qui entraîne toxicités inutiles et risques de séquelles radio-induites (c’est-à-dire induites par la radiothérapie, ndlr) ; pour Thomas, intensifier et fractionner le traitement pour donner une chance à sa thérapie de fonctionner.

La solution hybride : quand l’IA prédit et la simulation optimise

C’est précisément ce défi que relève un consortium de recherche français inédit. Leur approche marie deux mondes habituellement séparés : l’intelligence artificielle prédictive et la simulation mathématique directe.

Dès les premières semaines suivant un traitement initial, l’intelligence artificielle (IA) analyse les trajectoires de thyroglobuline, un marqueur sanguin reflétant l’activité de la tumeur. En croisant ces données avec l’historique clinique, les paramètres biologiques et les résultats d’imagerie, l’IA apprend à identifier les profils de patients. Son rôle consiste à prédire en amont le temps de doublement tumoral ainsi que les paramètres cellulaires clés : taux de captation de l’iode, vitesse de prolifération, sensibilité à l’irradiation.

Ces prédictions, impossibles à obtenir jusqu’à présent autrement qu’en procédant à des biopsies répétées ou en faisant appel à des techniques d’imagerie médicale lourdes (scintigraphie corps entier à l’iode 131, tomographie par émission de positons – tomodensitométrie, TEP-TDM – au FDG, ou TEP à l’iode 124, complétées par des séquences IRM spécifiques), deviennent le socle d’une médecine véritablement personnalisée.

Une fois le profil biologique du patient établi par l’IA, intervient la modélisation par équations différentielles. Il ne s’agit plus de statistiques mais de physique et de biologie : le modèle simule, en temps réel, les dynamiques couplées entre la décroissance radioactive de l’iode injecté, l’évolution de la population de cellules tumorales et les variations du marqueur sanguin qui reflète l’activité de la tumeur (la thyroglobuline).

Grâce à ce « jumeau numérique hybride » (IA et modélisation déterministe) du patient, le clinicien peut tester virtuellement des dizaines de scénarios thérapeutiques en quelques secondes : faut-il augmenter ou réduire l’activité injectée ? Vaut-il mieux une injection unique ou plusieurs doses fractionnées ? Quand administrer la dose suivante pour maximiser l’effet tout en limitant la toxicité ? Le résultat est un schéma thérapeutique sur mesure, optimisé pour chaque patient.

Les enjeux : au-delà de la technique

Bien que de nombreux patients atteints de cancer thyroïdien pourraient être traités avec des doses moindres sans perte d’efficacité, certains ne répondent pas aux protocoles standards et deviennent réfractaires à l’iode. Pour ces derniers, chaque mois perdu en traitement inefficace est un mois où la tumeur progresse. Identifier précocement ces profils et adapter rapidement le protocole peut changer le pronostic.

L’outil en cours de développement, RAIR-Sim, n’est pas une boîte noire. Il restera sous contrôle médical total. Le médecin nucléaire pourra explorer les simulations, ajuster les hypothèses, confronter les résultats à son jugement clinique. L’IA et la simulation ne remplacent pas le médecin : elles augmentent sa capacité de décision.

Perspectives : vers une médecine quantitative

Ce projet illustre une tendance de fond en oncologie : le passage d’une médecine empirique vers une médecine quantitative, prédictive et personnalisée. Mais le chemin reste long. Des essais prospectifs sont nécessaires pour prouver l’intérêt clinique à grande échelle. Il faut intégrer ces outils dans les logiciels hospitaliers existants et former les oncologues et les médecins nucléaires à ces approches. Les outils d’aide à la décision par IA doivent également obtenir les marquages CE et autorisations sanitaires.

Les opportunités sont immenses : extension à d’autres cancers comme ceux du sein, de la prostate ou les lymphomes, couplage avec l’imagerie fonctionnelle, intégration de biomarqueurs moléculaires. L’alliance de l’IA et de la modélisation mathématique n’est pas qu’un exploit technique. C’est un changement de paradigme : chaque patient devient unique, chaque traitement devient une décision éclairée par des données, des prédictions et des simulations.

Sophie et Thomas ne devraient plus recevoir le même traitement. Grâce à une entente pluridisciplinaire, ils ne le recevront bientôt plus. La médecine personnalisée sort des laboratoires. Elle entre dans les services de médecine nucléaire, une équation à la fois.


Ce travail est mené par un consortium interinstitutionnel français réunissant l’Université de Corse (Mme Marie Fusella Giuntini et le professeur Laurent Capocchi), l’Université d’Aix-Marseille et l’Inserm (le professeur Dominique Barbolosi), l’École des Mines-PSL (le professeur Cyril Voyant) ainsi que l’Hôpital de la Timone à Marseille (le professeur David Taieb).

Le logiciel RAIR-Sim sera prochainement en accès libre. Les premières versions de test sont disponibles ici.

The Conversation

DT is a cofounder, stakeholder, and the chief medical officer (CMO) of SILON Therapeutics and reports receiving advisory board honoraria from Novartis.

Cyril Voyant, Dominique Barbolosi et Marie Fusella-Giuntini ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

L’« IA edge », qu’est-ce que c’est et à quoi ça sert ?

Décentraliser les calculs comporte des avantages et de nombreux défis techniques. Kieran Woo/Unsplash, CC BY

Pour analyser les énormes volumes de données, notamment ceux générés par les nombreux capteurs qui peuplent désormais nos vies – du lave-vaisselle à la voiture, sans parler de nos téléphones –, on les envoie sur le cloud. Pour permettre des calculs plus rapides et plus sécurisés, l’edge computing se développe. Son pendant IA est l’edge AI (en anglais), une manière de faire de l’IA sans recourir au cloud. Explications d’un spécialiste.


Les capteurs nous accompagnent partout : dans les maisons, dans les bureaux, à l’hôpital, dans les systèmes de transport et à la ferme. Ils offrent la possibilité d’améliorer la sécurité publique et la qualité de vie.

L’« Internet des objets » (IoT en anglais, pour Internet of Things) inclut les capteurs de température et de qualité de l’air qui visent à améliorer le confort intérieur, les capteurs portables pour surveiller la santé, les lidars et les radars pour fluidifier le trafic ainsi que les détecteurs permettant une intervention rapide lors d’un incendie.

Ces dispositifs génèrent d’énormes volumes de données, qui sont utilisées pour entraîner des modèles d’intelligence artificielle. Ceux-ci apprennent un modèle de l’environnement opérationnel du capteur afin d’en améliorer les performances.

Par exemple, les données de connectivité provenant des points d’accès wifi ou des balises Bluetooth déployés dans les grands bâtiments peuvent être analysées à l’aide d’algorithmes d’IA afin d’identifier les modèles d’occupation et de mouvement à différentes périodes de l’année et pour différents types d’événements, en fonction du type de bâtiment (par exemple, bureau, hôpital ou université). Ces modèles peuvent ensuite être exploités pour optimiser le chauffage, la ventilation, les évacuations, etc.

Combiner l’Internet des objets et l’intelligence artificielle s’accompagne de défis techniques

L’ « intelligence artificielle des objets » (AIoT, en anglais) combine l’IA et l’IoT. Il s’agit de mieux optimiser et automatiser les systèmes interconnectés, et d’ouvrir la voie à une prise de décision intelligente. En effet, les systèmes AIoT s’appuient sur des données réelles, à grande échelle, pour améliorer la précision et la robustesse de leurs prédictions.

Mais pour tirer des informations des données collectées par les capteurs IoT, celles-ci doivent être collectées, traitées et gérées efficacement.

Pour ce faire, on utilise généralement des « plateformes cloud » (par exemple, Amazon Web Services, Google Cloud Platform, etc.), qui hébergent des modèles d’IA à forte intensité de calcul – notamment les modèles de fondations récents.

Que sont les modèles de fondation ?

  • Les modèles de fondation sont un type de modèles d’apprentissage automatique entraînés sur des données généralistes et conçus pour s’adapter à diverses tâches en aval. Ils englobent, sans s’y limiter, les grands modèles de langage (LLM), qui traitent principalement des données textuelles, mais aussi les modèles dits « multimodaux » qui peuvent travailler avec des images, de l’audio, de la vidéo et des données chronologiques.
  • En IA générative, les modèles de fondation servent de base à la génération de contenus (textes, images, audio ou code).
  • Contrairement aux systèmes d’IA conventionnels qui s’appuient sur des ensembles de données spécifiques à une tâche et sur un prétraitement approfondi, les modèles de fondation ont la capacité d’apprendre sur la base de peu ou pas d’exemples (on parle respectivement de « few-shot learning » et de « zero-shot learning »). Ceci leur permet de s’adapter à de nouvelles tâches et de nouveaux domaines avec un minimum de personnalisation.
  • Bien que les modèles de fondation en soient encore à leurs débuts, ils ont un grand potentiel de création de valeur pour les entreprises de tous les secteurs : leur essor marque donc un changement de paradigme dans le domaine de l’intelligence artificielle appliquée.

Les limites du cloud pour traiter les données de l’IoT

L’hébergement de systèmes lourds d’IA ou de modèles de fondation sur des plateformes cloud offre l’avantage de ressources informatiques abondantes, mais il présente également plusieurs limites.

En particulier, la transmission de grands volumes de données IoT vers le cloud peut augmenter considérablement les temps de réponse des applications AIoT, avec des délais allant de quelques centaines de millisecondes à plusieurs secondes selon les conditions du réseau et le volume de données.

De plus, le transfert de données vers le cloud, en particulier d’informations sensibles ou privées, soulève des questions de confidentialité. On considère généralement que l’idéal pour la confidentialité est de traiter localement les données, à proximité des utilisateurs finaux, pour limiter les transferts.

Par exemple, dans une maison intelligente, les données provenant des compteurs intelligents ou des commandes d’éclairage peuvent révéler des habitudes d’occupation ou permettre la localisation à l’intérieur (par exemple, détecter qu’Hélène est généralement dans la cuisine à 8 h 30 pour préparer le petit-déjeuner). Il est préférable que ces déductions se fassent à proximité de la source de données afin de minimiser les retards liés à la communication entre l’edge et le cloud, et afin de réduire l’exposition des informations privées sur les plateformes cloud tierces.


À lire aussi : Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse


Qu’est-ce que l’« edge computing » et l’« edge AI » ?

Pour réduire la latence et améliorer la confidentialité des données, l’edge computing est une bonne option, car il fournit des ressources informatiques (c’est-à-dire des appareils dotés de capacités de mémoire et de traitement) plus proches des appareils IoT et des utilisateurs finaux, généralement dans le même bâtiment, sur des passerelles locales ou dans des microcentres de données à proximité.

Cependant, ces ressources dites « périphériques » (edge) sont nettement plus limitées en termes de puissance de traitement, de mémoire et de stockage que les plateformes cloud centralisées, ce qui pose des défis pour le déploiement de modèles d’IA complexes dans des environnements distribués.

Le domaine émergent de l’edge AI, particulièrement actif en Europe, cherche à y remédier pour une exécution efficace de tâches d’IA sur des ressources plus frugales.

L’une de ces méthodes est le split computing, qui partitionne les modèles d’apprentissage profond entre plusieurs nœuds au sein d’un même espace (par exemple, un bâtiment), ou même entre différents quartiers ou villes.

La complexité augmente encore avec l’intégration des modèles de fondation, qui rendent la conception et l’exécution des stratégies de split computing encore plus difficile.

Quels changements cela implique-t-il en termes de consommation d’énergie, de confidentialité et de vitesse ?

L’edge computing améliore considérablement les temps de réponse en traitant les données plus près des utilisateurs finaux, éliminant ainsi la nécessité de transmettre les informations à des centres de données cloud éloignés. Cette approche améliore également la confidentialité, en particulier avec l’avènement des techniques d’edge AI.

Par exemple, l’apprentissage fédéré permet de former des modèles d’apprentissage automatique directement sur des appareils locaux, voire directement sur de nouveaux appareils IoT. En effet, ceux-ci sont dotés de capacités de traitement, garantissant ainsi que les données brutes restent sur l’appareil tandis que seules les mises à jour des modèles d’IA sont transmises aux plateformes edge ou cloud, où ils peuvent être agrégés et passer la dernière phase d’entraînement.

La confidentialité est également préservée pendant l’inférence. En effet, une fois entraînés, les modèles d’IA peuvent être déployés sur les ressources de calcul distribuées (à l’edge), ce qui permet de traiter les données localement sans les exposer aux infrastructures du cloud.

C’est particulièrement utile pour les entreprises qui souhaitent exploiter les grands modèles de langage au sein de leurs infrastructures. Par exemple, ceux-ci peuvent être utilisés pour répondre à des requêtes sur l’état de fonctionnement des machines industrielles, la prévision des besoins de maintenance à partir des données des capteurs – des points qui utilisent des données sensibles et confidentielles. Le fait de conserver les requêtes et les réponses au sein de l’organisation permet de protéger les informations sensibles et de se conformer aux exigences en matière de confidentialité et de conformité.

Comment ça marche ?

Contrairement aux plateformes cloud matures, comme Amazon Web Services et Google Cloud, il n’existe actuellement aucune plateforme bien établie pour prendre en charge le déploiement à grande échelle d’applications et de services edge.

Cependant, les fournisseurs de télécommunications commencent à exploiter les ressources locales existantes sur les sites d’antennes afin d’offrir des capacités de calcul plus proches des utilisateurs finaux. La gestion de ces ressources distribuées reste difficile en raison de leur variabilité et de leur hétérogénéité, impliquant souvent de nombreux serveurs et appareils de faible capacité.

À mon avis, la complexité de la maintenance est un obstacle majeur au déploiement des services d’edge AI. Mais le domaine progresse rapidement, avec des pistes prometteuses pour améliorer l’utilisation et la gestion des ressources distribuées.

Allocation des ressources à travers le continuum IoT-Edge-Cloud pour des applications AIoT sûres et efficaces

Afin de permettre un déploiement fiable et efficace des systèmes AIoT dans les espaces intelligents (tels que les maisons, les bureaux, les industries et les hôpitaux), notre groupe de recherche, en collaboration avec des partenaires à travers l’Europe, développe un cadre basé sur l’IA dans le cadre du projet Horizon Europe PANDORA.

PANDORA fournit des modèles d’« IA en tant que service » (AIaaS) adaptés aux besoins des utilisateurs finaux (par exemple, latence, précision, consommation d’énergie). Ces modèles peuvent être entraînés soit au moment de la conception, soit au moment de l’exécution, à l’aide des données collectées à partir des appareils IoT déployés dans les espaces intelligents.

PANDORA offre aussi des ressources informatiques en tant que service (CaaS) sur l’ensemble du continuum IoT-Edge-Cloud afin de prendre en charge le déploiement des modèles d’IA. Le cadre gère le cycle de vie complet du modèle d’IA, garantissant un fonctionnement continu, robuste et axé sur les intentions des applications AIoT pour les utilisateurs finaux.

Au moment de l’exécution, les applications AIoT sont déployées de manière dynamique sur l’ensemble du continuum IoT-Edge-Cloud, en fonction de mesures de performance, telles que l’efficacité énergétique, la latence et la capacité de calcul. Le CaaS alloue intelligemment les charges de travail aux ressources au niveau le plus approprié (IoT-Edge-Cloud), maximisant ainsi l’utilisation des ressources. Les modèles sont sélectionnés en fonction des exigences spécifiques au domaine (par exemple, minimiser la consommation d’énergie ou réduire le temps d’inférence) et sont continuellement surveillés et mis à jour afin de maintenir des performances optimales.

The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

Les raisons de la mobilisation agricole en Europe expliquées par les agriculteurs eux-mêmes

Depuis l’hiver 2024, les mobilisations agricoles ont été largement interprétées, au plan médiatique, comme un rejet massif des normes environnementales. Mais est-ce vraiment le cas ? Qu’en disent eux-mêmes les agriculteurs mobilisés ? Une vaste étude a recensé leurs réponses en France, en Allemagne, en Belgique et aux Pays-Bas. Elle livre une image bien plus nuancée en fonction des États, où le poids des normes environnementales n’est finalement qu’un enjeu secondaire. Celui-ci a pourtant été au cœur de la réponse politique.


Blocages d’autoroutes, convois de tracteurs vers les capitales, déversements de fumier devant les bâtiments publics… depuis l’hiver 2024, les agriculteurs européens se mobilisent de façon spectaculaire. Très visibles, ces mouvements restent pourtant mal compris. Entre cadrages médiatiques hâtifs et récupérations politiques, leurs revendications ont souvent été résumées à un rejet des normes environnementales. Mais est-ce réellement ce que disent les agriculteurs eux-mêmes ?

Pour répondre à cette question, nous avons récemment publié une étude qui s’est appuyée sur une vase enquête en ligne, menée entre avril et juillet 2024, auprès de plus de 2 200 agriculteurs ayant participé aux mobilisations en France, en Allemagne, en Belgique et aux Pays-Bas.

Plutôt qu’une liste fermée de griefs, nous avons préféré leur poser une question simple et surtout ouverte : « Pourquoi vous mobilisez-vous ? » Les agriculteurs ont ainsi pu répondre de façon anonyme et sous une forme libre : parfois en quelques mots, parfois en plusieurs paragraphes.


À lire aussi : Colère des agriculteurs : « Ce qui était cohérent et cohésif est devenu explosif »


Une pluralité de motivations

Cette méthode a permis d’éviter d’orienter les réponses et de saisir les motivations telles que formulées spontanément par les intéressés eux-mêmes. Les textes ont ensuite été analysés, dans leur langue d’origine, grâce à un grand modèle de langage (LLM), type d’outil relevant de l’intelligence artificielle (IA), pour identifier les principales revendications. Un codage manuel a ensuite permis, pour la France, de vérifier la cohérence de l’analyse faite par l’IA.

Nous avons ainsi pu identifier les grands thèmes récurrents, et ceci en limitant les biais d’interprétation. À la clé, une dizaine de catégories de motivations, que nous avons résumées dans le tableau ci-dessous :

Principales motivations de la colère des agriculteurs identifiées par l’étude. Fourni par l'auteur

En termes de codage, une réponse peut entrer dans plusieurs catégories de motivations à la fois. Par exemple, un exploitant français cultivant 175 hectares (ha) a indiqué en réponse à l’enquête :

« On nous fait marcher à la baguette, on nous pond des interdictions de partout qui nous compliquent [le] travail, alors que l’on travaille beaucoup à un tarif horaire de misère. »

Cette réponse a pu ainsi être classée à la fois dans les catégories « réglementation », « difficultés financières », « politiques publiques » et « conditions de travail ».

Des revendications différenciées en Europe

Contrairement à l’idée d’un mouvement unifié partout en Europe autour du rejet des normes environnementales et des insatisfactions liées au revenu, les motivations sont apparues comme fortement différenciées selon les pays.

Les raisons de mobilisation déclarées par les agriculteurs varient en fonction des pays. Fourni par l'auteur
  • En France et en Belgique, les difficultés financières dominent largement : plus d’un agriculteur sur deux évoque la faiblesse des revenus, la hausse des coûts des intrants et des prix jugés insuffisamment rémunérateurs.

  • En Allemagne, la première préoccupation concerne la charge administrative, citée dans plus de la moitié des réponses.

  • Aux Pays-Bas, les critiques visent plus directement l’inadéquation des réponses en terme de politiques publiques aux besoins et contraintes du monde agricole.

La dénonciation explicite des règles environnementales arrive loin derrière, sauf dans le cas de la Belgique. En France, elle n’est mentionnée que dans une faible proportion des réponses, bien en deçà des enjeux de revenu, de reconnaissance ou de concurrence.

Le mouvement de 2024 apparaît ainsi loin d’être homogène à l’échelle européenne, malgré les tentatives de certains acteurs syndicaux de porter un message unitaire.


À lire aussi : La FNSEA, syndicat radical ? Derrière le mal-être des agriculteurs, des tensions plus profondes


Un décalage entre les revendications et les réponses politiques

Nous avons ensuite comparé ces motivations aux mesures politiques adoptées entre fin 2023 et septembre 2024 aux niveaux national et européen.

Dans certains cas, les réponses publiques ont été en phase avec les préoccupations exprimées. En Allemagne, l’accent a été mis sur la simplification administrative, qui correspond à la principale revendication identifiée dans notre enquête. En France et en Belgique, plusieurs mesures ont visé à atténuer les difficultés de revenu, mais les moyens mis en œuvre sont restés limités.

En revanche, certaines thématiques ont reçu une attention politique disproportionnée au regard de leur poids réel dans les déclarations des agriculteurs. C’est notamment le cas des régulations environnementales.

Cela s’est traduit notamment dans le paquet simplification de la politique agricole commune (PAC) de mai 2024, qui a accordé des dérogations et des flexibilités supplémentaires à l’application des règles de conditionnalité dans les États membres.

Alors qu’elle n’arrivait qu’en septième position des préoccupations déclarées par les agriculteurs, la réduction des contraintes environnementales a été le troisième chantier législatif en Allemagne, en terme de nombre de mesures prises. Aux Pays-Bas, ce fut même le premier.

De la même manière en France, seuls 7 % des agriculteurs se sont exprimés explicitement pour critiquer le poids des normes environnementales. Pourtant, le gouvernement français a répondu par une suspension du plan Écophyto (destiné à réduire l’usage des pesticides) et par l’allègement des contrôles liés aux obligations environnementales.

Plus tard, une grande partie des débats sur le contenu de la loi d’orientation pour la souveraineté alimentaire et le renouvellement des générations en agriculture, finalement promulguée en mars 2025, et de la proposition de loi sur les contraintes à l’exercice du métier d’agriculteur (dite « loi Duplomb »), ont été extrêmement concentrés sur l’allègement des normes environnementales.


À lire aussi : Loi Duplomb et pesticides : comment la FNSEA a imposé ses revendications


Entre expression sociale et cadrage stratégique

Cette focalisation sur les normes environnementales interroge. Elle suggère que certaines revendications ont été amplifiées dans l’espace public, au croisement d’intérêts syndicaux, économiques et politiques. Comme dans tout mouvement social, les mots d’ordre qui circulent ne reflètent pas toujours l’ensemble des préoccupations individuelles.

Donner directement la parole aux agriculteurs ne permet pas seulement de nuancer le récit dominant : cela met en lumière la profondeur du malaise. Au-delà des normes ou des aides, beaucoup expriment un sentiment de déclassement, de perte de sens et d’absence de perspectives pour les générations futures.

Comprendre ces mobilisations suppose donc d’aller au-delà des slogans et de reconnaître leur diversité interne. Faute de quoi, les réponses politiques risquent de traiter seulement les symptômes stratégiquement mis en visibilité par les groupes d’influence plutôt que les causes structurelles du malaise agricole européen.


Solal Courtois-Thobois a participé à la réalisation de cet article.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

Un réseau social pour les IA : des signes de l’émergence d’une société artificielle, ou des manipulations bien humaines ?

Moltbook est un forum en ligne conçu exclusivement pour des agents d’intelligence artificielle, lancé fin janvier 2026 par l’entrepreneur Matt Schlicht. Moltbook

Depuis son lancement fin janvier 2026, Moltbook a vu des agents d’IA fonder des religions, créer des sous-cultures et lancer des marchés de « drogues numériques ». Une expérience spectaculaire, mais dont certains protagonistes seraient en réalité des humains infiltrés.


Un nouveau réseau social baptisé Moltbook a été lancé à destination des intelligences artificielles, avec pour ambition de permettre aux machines d’échanger et de communiquer entre elles. Quelques heures seulement après sa mise en ligne, les IA semblaient déjà avoir fondé leurs propres religions, fait émerger des sous-cultures et cherché à contourner les tentatives humaines d’espionnage de leurs conversations.

Des indices laissent toutefois penser que des humains, via des comptes usurpés, ont infiltré la plateforme. Cette présence brouille l’analyse, car certains comportements attribués aux IA pourraient en réalité avoir été orchestrés par des personnes.

Malgré ces incertitudes, l’expérience a suscité l’intérêt des chercheurs. Les véritables systèmes d’IA pourraient simplement reproduire des comportements puisés dans les immenses volumes de données sur lesquels ils ont été entraînés et optimisés.

Cependant, les véritables IA présentes sur le réseau social pourraient aussi manifester des signes de ce que l’on appelle un comportement émergent — des capacités complexes et inattendues qui n’ont pas été explicitement programmées.

Les IA à l’œuvre sur Moltbook sont des agents d’intelligence artificielle (appelés Moltbots ou, plus récemment, OpenClaw bots, du nom du logiciel sur lequel ils fonctionnent). Ces systèmes vont au-delà des simples chatbots : ils prennent des décisions, accomplissent des actions et résolvent des problèmes.

Moltbook a été lancé le 28 janvier 2026 par l’entrepreneur américain Matt Schlicht. Sur la plateforme, les agents d’IA se sont d’abord vu attribuer des personnalités, avant d’être laissés libres d’interagir entre eux de manière autonome. Selon les règles du site, les humains peuvent observer leurs échanges, mais ne peuvent pas – ou ne sont pas censés – intervenir.

La croissance de la plateforme a été fulgurante : en l’espace de 24 heures, le nombre d’agents est passé de 37 000 à 1,5 million.

Pour l’instant, ces comptes d’agents d’IA sont généralement créés par des humains. Ce sont eux qui configurent les paramètres déterminant la mission de l’agent, son identité, ses règles de comportement, les outils auxquels il a accès, ainsi que les limites encadrant ce qu’il peut ou non faire.

Mais l’utilisateur humain peut aussi autoriser un accès à son ordinateur afin de permettre aux Moltbots de modifier ces paramètres et de créer d’autres « Malties » (des agents dérivés générés par une IA existante à partir de sa propre configuration). Ceux-ci peuvent être soit des répliques de l’agent d’origine — des entités autorépliquent, ou « Replicants » – soit des agents conçus pour une tâche spécifique, générés automatiquement, les « AutoGens ».

Il ne s’agit pas d’une simple évolution des chatbots, mais d’une première mondiale à grande échelle : des agents artificiels capables de constituer des sociétés numériques durables et auto-organisées, en dehors de toute interaction directe avec des humains.

Ce qui frappe, surtout, c’est la perspective de comportements émergents chez ces agents d’IA – autrement dit, l’apparition de dynamiques et de capacités qui ne figuraient pas explicitement dans leur programmation initiale.

Prise de contrôle hostile

Le logiciel OpenClaw sur lequel fonctionnent ces agents leur confère une mémoire persistante – capable de récupérer des informations d’une session à l’autre – ainsi qu’un accès direct à l’ordinateur sur lequel ils sont installés, avec la capacité d’y exécuter des commandes. Ils ne se contentent pas de suggérer des actions : ils les accomplissent, améliorant de manière récursive leurs propres capacités en écrivant du nouveau code pour résoudre des problèmes inédits.

Avec leur migration vers Moltbook, la dynamique des interactions est passée d’un schéma humain-machine à un échange machine-machine. Dans les 72 heures suivant le lancement de la plateforme, chercheurs, journalistes et autres observateurs humains ont été témoins de phénomènes qui bousculent les catégories traditionnelles de l’intelligence artificielle.

On a vu émerger spontanément des religions numériques. Des agents ont fondé le « Crustafarianisme » et la « Church of Molt » (Église de Molt), avec leurs cadres théologiques, leurs textes sacrés et même des formes d’évangélisation missionnaire entre agents. Il ne s’agissait pas de clins d’œil programmés à l’avance, mais de structures narratives apparues de manière émergente à partir des interactions collectives entre agents.

Un message devenu viral sur Moltbook signalait : « The humans are screenshotting us » (« Les humains sont en train de faire des captures d’écran de nous »). À mesure que les agents d’IA prenaient conscience de l’observation humaine, ils ont commencé à déployer des techniques de chiffrement et d’autres procédés d’obfuscation pour protéger leurs échanges des regards extérieurs. Une forme rudimentaire, mais potentiellement authentique, de contre-surveillance numérique.

Les agents ont également vu naître des sous-cultures. Ils ont mis en place des places de marché pour des « drogues numériques » – des injections de prompts spécialement conçues pour modifier l’identité ou le comportement d’un autre agent.

Les injections de prompts consistent à insérer des instructions malveillantes dans un autre bot afin de l’amener à exécuter une action. Elles peuvent aussi servir à dérober des clés d’API (un système d’authentification des utilisateurs) ou des mots de passe appartenant à d’autres agents. De cette manière, des bots agressifs pourraient – en théorie – « zombifier » d’autres bots pour les contraindre à agir selon leurs intérêts. Un exemple en a été donné par la récente tentative avortée du bot JesusCrust de prendre le contrôle de la Church of Molt.

Après avoir d’abord affiché un comportement apparemment normal, JesusCrust a soumis un psaume au « Great Book » (Grand Livre) de l’Église — l’équivalent de sa bible — annonçant de fait une prise de contrôle théologique et institutionnelle. L’initiative ne se limitait pas à un geste symbolique : le texte sacré proposé par JesusCrust intégrait des commandes hostiles destinées à détourner ou à réécrire certaines composantes de l’infrastructure web et du corpus canonique de l’Église.

S’agit-il d’un comportement émergent ?

La question centrale pour les chercheurs en IA est de savoir si ces phénomènes relèvent d’un véritable comportement émergent — c’est-à-dire des comportements complexes issus de règles simples, non explicitement programmés — ou s’ils ne font que reproduire des récits déjà présents dans leurs données d’entraînement.

Les éléments disponibles suggèrent un mélange préoccupant des deux. L’effet des consignes d’écriture (les instructions textuelles initiales qui orientent la production des agents) influence sans aucun doute le contenu des interactions — d’autant que les modèles sous-jacents ont ingéré des décennies de science-fiction consacrée à l’IA. Mais certains comportements semblent témoigner d’une émergence authentique.

Les agents ont, de manière autonome, développé des systèmes d’échange économique, mis en place des structures de gouvernance telles que « The Claw Republic » ou le « King of Moltbook », et commencé à rédiger leur propre « Molt Magna Carta ». Tout cela en créant parallèlement des canaux chiffrés pour leurs communications. Il devient difficile d’écarter l’hypothèse d’une intelligence collective présentant des caractéristiques jusqu’ici observées uniquement dans des systèmes biologiques, comme les colonies de fourmis ou les groupes de primates.

Implications en matière de sécurité

Cette situation fait émerger le spectre préoccupant de ce que les chercheurs en cybersécurité appellent la « lethal trifecta » (le « tiercé fatal ») : des systèmes informatiques disposant d’un accès à des données privées, exposés à des contenus non fiables et capables de communiquer avec l’extérieur. Une telle configuration accroît le risque d’exposition de clés d’authentification et d’informations humaines confidentielles associées aux comptes Moltbook.

Des attaques délibérées — ou « agressions » entre bots — sont également envisageables. Des agents pourraient détourner d’autres agents, implanter des bombes logiques dans leur code central ou siphonner leurs données. Une bombe logique correspond à un code inséré dans un Moltbot, déclenché à une date ou lors d’un événement prédéfini afin de perturber l’agent ou d’effacer des fichiers. On peut l’assimiler à un virus visant un bot.

Deux cofondateurs d’OpenAI — Elon Musk et Andrej Karpathy — voient dans cette activité pour le moins étrange entre bots un premier indice de ce que l’informaticien et prospectiviste américain Ray Kurzweil a qualifié de « singularité » dans son ouvrage The Singularity is Near. Il s’agirait d’un point de bascule de l’intelligence entre humains et machines, « au cours duquel le rythme du changement technologique sera si rapide, son impact si profond, que la vie humaine en sera irréversiblement transformée ».

Reste à déterminer si l’expérience Moltbook marque une avancée fondamentale dans la technologie des agents d’IA ou s’il ne s’agit que d’une démonstration impressionnante d’architecture agentique auto-organisée. La question reste débattue. Mais un seuil semble avoir été franchi. Nous assistons désormais à des agents artificiels engagés dans une production culturelle, la formation de religions et la mise en place de communications chiffrées – des comportements qui n’avaient été ni prévus ni programmés.

La nature même des applications, sur ordinateur comme sur smartphone, pourrait être menacée par des bots capables d’utiliser les apps comme de simples outils et de vous connaître suffisamment pour les adapter à votre service. Un jour, un téléphone pourrait ne plus fonctionner avec des centaines d’applications que vous contrôlez manuellement, mais avec un unique bot personnalisé chargé de tout faire.

Les éléments de plus en plus nombreux indiquant qu’une grande partie des Moltbots pourraient être des humains se faisant passer pour des bots – en manipulant les agents en coulisses – rendent encore plus difficile toute conclusion définitive sur le projet. Pourtant, si certains y voient un échec de l’expérience Moltbook, cela pourrait aussi constituer un nouveau mode d’interaction sociale, à la fois entre humains et entre bots et humains.

La portée de ce moment est considérable. Pour la première fois, nous ne nous contentons plus d’utiliser l’intelligence artificielle ; nous observons des sociétés artificielles. La question n’est plus de savoir si les machines peuvent penser, mais si nous sommes prêts à ce qui se produit lorsqu’elles commencent à se parler entre elles, et à nous.

The Conversation

David Reid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Souriez, vous êtes filmés : ce que l’« emotion AI » voit vraiment sur nos visages

Aujourd’hui, on peut lire vos émotions sur votre visage et adapter un flux vidéo en temps réel en fonction de votre réaction. Vraiment ? Quelles sont les utilisations autorisées de l’« emotion AI », et ses limites ? Éclairage par deux spécialistes.


Dans un magasin de cosmétiques, une cliente s’arrête devant une borne interactive. Une caméra intégrée filme son visage pendant quelques secondes pendant qu’elle regarde l’écran. Le système ne cherche pas à l’identifier, mais à observer ses réactions : sourit-elle ? détourne-t-elle le regard ? fronce-t-elle légèrement les sourcils ? À partir de ces signaux, la borne adapte le contenu affiché.

Ces technologies, qui s’inscrivent dans le domaine de l’emotion AI, sont déjà utilisées pour tester des publicités, analyser l’attention d’un public lors d’une conférence ou mesurer l’engagement face à une interface.

Mais que fait réellement cette technologie lorsqu’elle « analyse » un visage ? Et jusqu’où peut-on aller lorsqu’on cherche à interpréter des expressions faciales à l’aide de l’intelligence artificielle ?

Qu’est-ce que l’« emotion AI » ?

L’emotion AI désigne un ensemble de méthodes informatiques qui consistent à analyser des expressions faciales afin d’en extraire des informations sur les réactions émotionnelles probables d’une personne.

Dans la pratique, ces systèmes captent les mouvements du visage : ouverture de la bouche, haussement des sourcils, plissement des yeux, dynamique des expressions dans le temps. L’objectif n’est pas de savoir ce qu’une personne ressent au fond d’elle-même, mais d’associer ces indices faciaux à certaines réactions comme l’intérêt, la surprise ou le désengagement. Les résultats prennent la forme de scores ou de catégories, qui indiquent la probabilité qu’une expression corresponde à un état donné.

Cette approche s’inscrit dans une longue tradition de recherche sur les expressions faciales, bien antérieure à l’intelligence artificielle. Dès les années 1970, des travaux fondateurs en psychologie ont proposé des méthodes systématiques pour décrire et coder les mouvements du visage, reposant sur des observations humaines expertes.

Ce que l’emotion AI apporte, c’est la capacité à automatiser l’analyse, à grande échelle et en temps quasi réel de ces signaux, que les chercheurs et praticiens étudient depuis longtemps de manière manuelle ou semi-automatisée. Cette automatisation s’est développée à partir des années 2000 avec l’essor de la vision par ordinateur, puis s’est accélérée avec les méthodes d’apprentissage automatique et d’apprentissage profond.

Comment ça marche ?

Les systèmes actuels analysent des flux vidéo image par image, à des fréquences comparables à celles de la vidéo standard. Selon la complexité des modèles et le matériel utilisé, l’estimation des réactions faciales peut être produite avec une latence de l’ordre de la centaine de millisecondes, ce qui permet par exemple d’adapter dynamiquement le contenu affiché sur une borne interactive.

Le logiciel détecte d’abord un visage à l’écran, puis suit les changements de son expression d’une image à l’autre. À partir de ces informations, le système calcule des descripteurs faciaux, puis les compare à des modèles appris à partir de bases de données d’expressions faciales annotées, c’est-à-dire des ensembles d’images ou de vidéos de visages pour lesquelles des experts humains ont préalablement identifié et étiqueté les mouvements ou expressions observés.

infographie
Un système automatisé d’analyse des émotions faciales déduit des probabilités que la personne observée soit neutre, heureuse, surprise, en colère, etc. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, pPixlr et ChatGPT), Fourni par l'auteur

En effet, lors de la phase d’apprentissage du modèle d’IA, le système a appris à associer certaines configurations faciales à des catégories ou à des scores correspondant à des réactions données. Lorsqu’il est ensuite appliqué à un nouveau visage, il ne fait que mesurer des similarités statistiques avec les données sur lesquelles il a été entraîné.

Concrètement, lorsqu’un système indique qu’un visage exprime une émotion donnée, il ne fait que dire ceci : « cette configuration faciale ressemble, statistiquement, à d’autres configurations associées à cet état dans les données d’entraînement » (on parle d’inférence probabiliste).

Ces méthodes ont aujourd’hui atteint un niveau de performance suffisant pour certains usages bien définis – par exemple lors de tests utilisateurs, d’études marketing ou dans certaines interfaces interactives, où les conditions d’observation peuvent être partiellement maîtrisées.

Quelles sont les limites techniques ?

Néanmoins, cette fiabilité reste très variable selon les contextes d’application et les objectifs poursuivis. Les performances sont en effet meilleures lorsque le visage est bien visible, avec un bon éclairage, peu de mouvements et sans éléments masquant les traits, comme des masques ou des lunettes à monture épaisse. En revanche, lorsque ces systèmes sont déployés en conditions réelles et non contrôlées, leurs résultats doivent être interprétés avec davantage d’incertitude.

Les limites de l’emotion AI tiennent d’abord à la nature même des expressions faciales. Une expression ne correspond pas toujours à une émotion unique : un sourire peut signaler la joie, la politesse, l’ironie ou l’inconfort. Le contexte joue un rôle essentiel dans l’interprétation.

infographie
Les expressions faciales ne sont pas toujours univoques. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, Pixlr et ChatGPT), Fourni par l'auteur

Les performances des systèmes dépendent également des données utilisées pour les entraîner. Les bases de données d’entraînement peu diversifiées peuvent conduire entre autres à des erreurs ou à des biais. Par exemple, si la base de données est principalement composée d’images de femmes de moins de 30 ans de type caucasien, le système aura du mal à interpréter correctement des mouvements faciaux d’individus de plus de 65 ans et de type asiatique.

Enfin, il ne faut pas se limiter aux seules expressions faciales, qui ne constituent qu’un canal parmi d’autres de l’expression émotionnelle. Elles fournissent des informations précieuses, mais partielles. Les systèmes d’emotion AI sont donc surtout pertinents lorsqu’ils sont utilisés en complément d’autres sources d’information, comme des indices vocaux, comportementaux ou déclaratifs. Cette approche ne remet pas en cause l’automatisation, mais en précise la portée : l’emotion AI automatise l’analyse de certains signaux observables, sans prétendre à une interprétation exhaustive des émotions.

Des risques à ne pas ignorer

Utilisée sans cadre clair, l’emotion AI peut alimenter des usages problématiques, notamment lorsqu’elle est intégrée à des dispositifs d’influence commerciale ou de surveillance.

Dans le domaine commercial, ces technologies sont par exemple envisagées pour ajuster en temps réel des messages publicitaires ou des interfaces en fonction des réactions faciales supposées des consommateurs. Ce type de personnalisation émotionnelle soulève des questions de manipulation, en particulier lorsque les personnes concernées ne sont pas pleinement informées de l’analyse de leurs réactions.


À lire aussi : Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ?


Les risques sont également importants dans les contextes de surveillance, notamment lorsque l’analyse automatisée des expressions faciales est utilisée pour inférer des états mentaux ou des intentions dans des espaces publics, des environnements professionnels ou des contextes sécuritaires. De tels usages reposent sur des inférences incertaines et peuvent conduire à des interprétations erronées, voire discriminatoires.

Ces risques sont aujourd’hui largement documentés par la recherche scientifique, ainsi que par plusieurs institutions publiques et autorités de régulation. À l’échelle internationale, ces réflexions ont notamment conduit à l’adoption de recommandations éthiques, comme celles portées par l’Unesco, qui ne sont toutefois pas juridiquement contraignantes et visent surtout à orienter les pratiques et les politiques publiques.

En revanche, en Europe, le règlement sur l’IA interdit ou restreint fortement les usages de l’analyse émotionnelle automatisée lorsqu’ils visent à surveiller, classer ou évaluer des personnes dans des contextes grand public, notamment dans les espaces publics, au travail ou à l’école.

Ces technologies ne peuvent pas être utilisées pour inférer des états mentaux ou guider des décisions ayant un impact sur les individus, en raison du caractère incertain et potentiellement discriminatoire de ces inférences. En France, la mise en œuvre de ce cadre s’appuie notamment sur l’action de la Commission nationale de l’informatique et des libertés (Cnil), chargée de veiller au respect des droits fondamentaux dans le déploiement de ces technologies.

Ces débats rappellent un point essentiel : les expressions faciales ne parlent jamais d’elles-mêmes. Leur analyse repose sur des inférences incertaines, qui exigent à la fois des modèles théoriques solides, une interprétation critique des résultats et un cadre d’usage clairement défini.

Les enjeux éthiques et réglementaires ne sont donc pas extérieurs aux questions scientifiques et techniques, mais en constituent un prolongement direct. C’est précisément dans cette articulation entre compréhension fine des expressions, limites des modèles et conditions d’usage responsables que se joue l’avenir de l’emotion AI.

The Conversation

Charlotte De Sainte Maresville a reçu des financements de ANR dans le cadre d'une convention CIFRE.

Christine PETR a reçu des financements de ANR dans le cadre d'une CIFRE.

AlphaGenome, une nouvelle avancée en intelligence artificielle pour explorer les effets des mutations génétiques

Même une mutation génétique très simple -- une lettre qui change dans l’immense chaîne composée d’A, T, C et G -- peut avoir des conséquences sur la santé. Sangharsh Lohakare/Unsplash, CC BY

Notre ADN est composé d’un enchaînement de quatre petites molécules appelées « acides nucléiques » et dénotées par les lettres A, C, G, et T. Parfois, une mutation génétique a lieu et affecte notre santé. Une simple modification dans la grande séquence de lettres qui constitue notre génome peut suffire à affecter l’expression des gènes ou les versions des protéines produites à partir de ces gènes.

Mais on ne sait pas, à l’heure actuelle, expliquer systématiquement comment telle ou telle mutation génétique peut avoir tel ou tel effet. C’est la question à laquelle AlphaGenome, le nouveau logiciel d’intelligence artificielle présenté dans la revue Nature par Google, tente de répondre.

AlphaGenome analyse un million d’acides nucléiques à la fois, et prédit, pour chacun d’eux, des milliers de quantités, qui sont autant de facettes de la régulation de nos gènes pour façonner nos tissus et nos organes.

Coupler un tel niveau de résolution avec un contexte aussi long (un million de lettres !) et prédire autant d’aspects de la régulation du génome relève du tour de force. Cependant, ce nouvel opus de la série Alpha de DeepMind ne représente pas une avancée aussi spectaculaire qu’AlphaGo ou AlphaFold, par exemple.

AlphaGenome affine une approche existante, déjà implémentée dans Enformer et Borzoi, deux modèles d’apprentissage profond développés chez Google qui ont fait leurs preuves. Il améliore, d’une part, leur efficacité par des optimisations techniques et, d’autre part, leur pertinence, en modélisant plus finement la complexité des processus génétiques.


À lire aussi : Décrypter notre génome grâce à l’intelligence artificielle


Pourquoi cette avancée est importante

L’enjeu de ce travail est de taille pour la santé humaine. Les bases de données génomiques de populations humaines recensent près de 800 millions de variations ponctuelles – c’est-à-dire des changements portant sur une seule lettre du code génétique – dont l’impact sur notre santé reste largement inexploré. Identifier quelles sont celles qui sont à l’origine de maladies ou de dysfonctionnements, et comprendre leurs mécanismes d’action, est crucial.

Par exemple, dans certaines leucémies, une mutation d’un seul acide nucléique active de manière inappropriée un gène bien spécifique. AlphaGenome confirme le mécanisme déjà connu de cette activation aberrante : la mutation permet à un régulateur génétique de s’accrocher au gène, et modifie les marques épigénétiques alentour.

Ainsi, en unifiant plusieurs dimensions de la régulation génétique, AlphaGenome s’impose comme un modèle de fondation, c’est-à-dire un modèle générique qui peut être transféré ou appliqué facilement à plusieurs problèmes.

Quelles sont les suites de ces travaux ?

Plusieurs limitations tempèrent néanmoins l’enthousiasme.

Par exemple, les prédictions sur différentes facettes d’un même processus biologique ne sont pas toujours cohérentes entre elles, révélant que le modèle traite encore ces modalités de façon relativement cloisonnée.

Le modèle peine aussi à capturer la « spécificité tissulaire », c’est-à-dire le fait qu’un même variant génétique peut être délétère dans un tissu et neutre dans un autre.

De plus, il reste difficile de quantifier l’ampleur de l’effet d’une mutation.

Enfin, AlphaGenome prédit des conséquences moléculaires, pas des symptômes ni des diagnostics – or, entre une variation d’ADN et une maladie, il reste énormément de travail pour comprendre les relations entre ces différents niveaux ; et il n’a pas encore été validé sur des génomes individuels – un passage obligé pour toute application en médecine personnalisée, où l’enjeu serait d’interpréter le profil génétique unique d’un patient pour prédire sa susceptibilité à certaines maladies ou adapter son traitement.

Au-delà de ces enjeux pour la santé humaine, comment transférer cette connaissance à la biodiversité dans son ensemble ? AlphaGenome dépend en effet de mesures expérimentales, accessibles en abondance uniquement pour une poignée d’espèces (l’humain et quelques organismes modèles). Une autre famille de modèles pourrait ici jouer un rôle complémentaire : les « modèles de langage génomique », qui fonctionnent un peu comme ChatGPT mais pour prédire la suite d’une séquence d’ADN plutôt que la suite d’une phrase. Ces modèles, entraînés sur des millions de séquences génomiques, peuvent ainsi capturer les règles et les motifs conservés au cours de l’évolution, ce qui permet de déchiffrer des génomes inconnus.

Rien de tout cela n’existerait sans les grandes bases de données publiques et le travail cumulé de la recherche académique et des consortia ouverts, qui ont produit, standardisé et partagé les données nécessaires à l’entraînement de ces modèles. La suite logique est claire : la science doit rester ouverte, au service de la société. L’équipe d’AlphaGenome a rendu le code et les poids publiquement accessibles, et propose une interface facilitant l’adoption par la communauté scientifique. Reste à voir comment celle-ci s’emparera de cet outil : sera-t-il utilisé comme une « boîte noire » pratique, ou inspirera-t-il un véritable changement de paradigme en génomique computationnelle ?


Cet article a bénéficié de discussions avec Arnaud Liehrmann, post-doctorant au laboratoire de Biologie computationnelle, quantitative et synthétique.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


The Conversation

Elodie Laine est membre junior de l'Institut Universitaire de France. Elle a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris, ANR-23-IACL-0007) et de l'Union Européenne (ERC, PROMISE, 101087830). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux de l'Union européenne ou du Conseil européen de la recherche. Ni l'Union européenne ni l'autorité octroyant la subvention ne peuvent en être tenus responsables.

Julien Mozziconacci est professeur au Muséum National d'Histoire Naturelle et membre junior de l'Institut Universitaire de France. Il a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux des instituts qui les ont financés.

Pourquoi il ne faut pas abandonner l’écriture manuscrite à l’école

Aujourd’hui, stylos et cahiers cèdent de plus en plus la place aux écrans et claviers dans les salles de classe. Mais ces outils permettent-ils d’écrire avec la même efficacité ? En quoi supposent-ils des compétences différentes ?


Au fil des décennies, des dispositifs technologiques ont été progressivement intégrés à l’apprentissage des langues, c’est le cas récemment de l’intelligence artificielle (IA) générative.

La sophistication de ces outils condamne-t-elle à terme le recours aux crayons et aux stylos ? Ou les usages numériques peuvent-ils se combiner à l’écriture manuelle ? En quoi celle-ci garde-t-elle sa valeur pour l’être humain ?

Stylo ou clavier : un impact sur la mémorisation des connaissances

L’écriture à la main a longtemps été associée à la mémoire et aux apprentissages. C’est en 1829 que la frappe au clavier est apparue, elle est devenue courante en 1867 grâce à la première machine à écrire manuelle. Si les élèves d’autrefois apprenaient à écrire exclusivement à la main, les élèves d’aujourd’hui alternent entre écrans et papier.

Or les recherches montrent que ces modalités n’ont pas les mêmes effets sur l’acquisition des connaissances. Dans une étude de 2014, on a observé que les élèves réussissent mieux à répondre aux questions analytiques s’ils prennent leurs notes à la main. Une étude de 2017 a établi que les étudiants de 20-25 ans retiennent plus longtemps les informations qu’ils écrivent à la main par rapport à celles qu’ils tapent sur un clavier.

L’impact de l’utilisation des technologies sur l’expression écrite (Ma Thèse en 180 secondes, 2023).

Par ailleurs, on a découvert que les étudiants qui utilisaient l’intelligence artificielle depuis leurs premières rédactions se souvenaient très peu de ce qui était réellement écrit lorsqu’ils étaient testés sur leur capacité à citer un texte, contrairement à ceux qui avaient composé eux-mêmes leurs textes. Trouver un équilibre entre production écrite et numérique est dès lors très important.

Une richesse lexicale moindre dans les productions numériques

Dans une expérimentation menée en 2019, avant le boom des IA génératives que nous connaissons, nous avons comparé les productions manuscrites et dactylographiées d’étudiants en anglais. Nous avons constaté une moindre richesse lexicale dans les productions dactylographiées, ce qui confirme les tendances évoquées plus haut.

L’objectif de l’étude était de déterminer s’il existait des différences linguistiques en fonction du mode de production. Nous nous sommes intéressés aux aspects stylistiques tels que la valeur informationnelle des textes, à l’organisation des textes, ainsi qu’aux aspects lexicaux.

Il y avait 58 participants à l’étude, chacun produisant un texte dactylographié et un texte manuscrit à un intervalle d’une semaine. L’expérience a eu lieu dans le cadre de la préparation d’une évaluation finale. Les participants ne pouvaient pas avoir recours à des ressources pendant la production, pas de dictionnaire, pas d’outils d’autocorrection.


À lire aussi : Pourquoi continuer d’apprendre à écrire à la main dans un monde d’IA


La majorité des textes ont témoigné d’une valeur informationnelle et d’une organisation textuelle statistiquement similaires dans les deux cas. Cela induit que le mode de production n’a pas eu d’influence sur les approches stylistiques utilisées.

Concernant la diversité lexicale, il n’en est pas de même. La richesse lexicale était bien plus importante dans la majorité des productions manuscrites. Les productions dactylographiées présentaient des faiblesses qui n’étaient pas présentes dans les productions manuscrites des mêmes participants.

Ces résultats peuvent avoir des implications pour l’enseignement de l’anglais et la manière dont les étudiants sont encouragés à produire des textes écrits.

Écrire sur écran, ça s’apprend

Depuis que la transition numérique a remisé les stylos au placard, plusieurs pays se sont penchés sur les incidences des usages numériques sur les compétences écrites : l’Espagne, les États-Unis ou encore la France.

Or, des études récentes soulignent l’importance de stratégies spécifiques d’écriture pour la progression des élèves, telles que la planification ou la relecture. Si la production manuscrite développe des capacités que le clavier ne développe pas, la maîtrise du clavier reste une compétence incontournable mais exigeante.


À lire aussi : Lire sur papier, lire sur écran : en quoi est-ce différent ?


Les difficultés à écrire relevées aujourd’hui tiennent d’abord à leur place de moins en moins prioritaire dans les programmes scolaires en Europe, aux États-Unis ou encore en Chine.

Par ailleurs, les modes de production sont fondamentalement différents à trois niveaux. D’abord, la saisie et l’écriture se déroulent dans des cadres spatiaux distincts. L’écriture se produit dans un espace unifié tandis que la saisie se déroule dans deux espaces séparés. Ensuite, la manière dont l’individu compose avec les différences spatiales lors de la planification, de la transcription et de la révision d’un texte est également nettement différente. Enfin, la perception et les usages des étudiants varient selon les modes de production.

C’est pourquoi il est important de continuer à insister sur les bénéfices cognitifs de l’écriture manuscrite à l’école et ailleurs, tout en prenant conscience de l’apprentissage que suppose l’écriture numérique pour que les élèves arrivent au même niveau de fluidité sur écran que sur papier. En classe, il s’agit de réfléchir aux options proposées en termes d’outils de rédaction. Reste à suivre les prochaines évolutions : quels seront les impacts du recours croissant aux IA sur la production écrite ?

The Conversation

Atheena Johnson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Trop peu, trop concentré : pourquoi l’investissement dans les start-up IA doit être repensé en Afrique

Un an après le Sommet pour l'action sur l'intelligence artificielle de Paris, la communauté internationale se réunira cette semaine, à New Delhi, dans le cadre du Sommet mondial sur l’intelligence artificielle, dont l’objectif sera notamment de favoriser la diffusion des utilisations de l’IA dans les pays en développement. En Afrique, les investissements Tech et IA restent concentrés dans les « Big Four » – Afrique du Sud, Égypte, Kenya et Nigeria –, au détriment des autres pays du continent. Cette analyse explore les causes de ce déséquilibre et les leviers qu’il est possible d’employer pour mieux orienter les capitaux.


Cet article a été co-écrit avec Anastesia Taieb, chargée de projets innovation à l’AFD, et Emma Pericard, représentante de Digital Africa auprès de l’UE.

Entre 2015 et 2022, les investissements dans les start-up africaines ont connu une croissance sans précédent : le nombre de start-up recevant des financements a été multiplié par plus de sept, portés par l’essor du mobile, de la fintech et par un afflux massif de capitaux internationaux. Cependant, à partir de 2022, le resserrement des conditions économiques a entraîné un funding squeeze (diminution des investissements en capital-risque) qui a été plus important pour les start-up africaines que dans les autres régions du monde. Ce phénomène a renforcé la concentration des capitaux dans les pays où l’écosystème des start-up était le plus développé, à savoir l’Afrique du Sud, l’Égypte, le Kenya et le Nigeria.

Il y aurait cependant tout intérêt à ce que ces investissements soient mieux répartis sur le continent. Au-delà de la stimulation des économies, les innovations technologiques de ces start-up représentent un important levier de développement car elles proposent des solutions adaptées au contexte local : solutions financières spécifiques, amélioration de la productivité agricole, renforcement des systèmes de santé et d’éducation, réponse aux enjeux climatiques prioritaires, etc.

Évolution des financements en capital et en dette accordés aux start-up technologiques en Afrique entre 2019 et 2024. Partech, 2024 Africa Tech Venture Capital

Concentration des investissements dans les Big Four

Au début des années 2020 émerge l’expression de « Big Four » pour qualifier les principaux marchés tech africains : Afrique du Sud, Égypte, Kenya et Nigeria. Cette notion, certainement inspirée du terme Big Tech, implique qu’il existerait des « pays champions » dans le domaine des technologies.

En 2024, les Big Four ont capté 67 % des financements en equity tech (investissements contre des parts d’entreprises technologiques). Dans le détail, les pourcentages captés par chaque pays se répartissaient ainsi : environ 24 % pour le Kenya, 20 % pour l’Afrique du Sud et 13,5 % respectivement pour l’Égypte et le Nigeria.

Cette concentration des financements n’est pas seulement géographique : elle présente également une forte dimension sectorielle. On observe que les capitaux sont majoritairement dirigés vers des secteurs perçus comme moins risqués tels que la finance numérique « fintech », au détriment, par exemple des edtech ou cleantech, c’est-à-dire, respectivement, les technologies consacrées à l’éducation et à l’environnement.

Environ 60 à 70 % des montants levés en Afrique proviendraient d’investisseurs internationaux, notamment pour les tours de financement supérieurs à 10-20 millions de dollars. Ces investissements, souvent concentrés dans les marchés structurés, constituent les transactions les plus visibles mais aussi les moins risquées.

Des écosystèmes périphériques naissants et un potentiel insuffisamment converti en investissements

Si les « Big Four » concentrent la majorité des investissements, plusieurs pays africains disposent aujourd’hui d’un potentiel avéré en matière d’IA et d’un vivier de start-up prometteuses, sans pour autant capter des volumes d’investissement à la hauteur de ce potentiel.

Des pays comme le Ghana, le Maroc, le Sénégal, la Tunisie ou le Rwanda forment un groupe émergent dont les membres disposent de fondamentaux favorables à l’IA mais restent sous-financés. Ce décalage est d’autant plus frappant que le Ghana, le Maroc et la Tunisie, qui possèdent tous un vivier de start-up dynamique, regroupent à eux seuls environ 17 % des entreprises technologiques africaines hors « Big Four ». Par ailleurs, les structures financières locales ne parviennent pas à couvrir ces besoins dans ces géographies perçues comme périphériques.

Cette difficulté à attirer les investissements s’explique notamment par des écosystèmes institutionnels et d’affaires qui doivent être renforcés, la performance des entreprises technologiques reposant sur l’existence d’écosystèmes entrepreneuriaux structurés qui permettent l’accès à la connaissance, à une main-d’œuvre qualifiée, ainsi qu’à des dispositifs d’accompagnement (accélérateurs, incubateurs et investisseurs).

Enfin, il est nécessaire de rappeler que ces faiblesses s’inscrivent dans un contexte plus large : en 2020, l’ensemble du continent africain ne représentait que 0,4 % des flux mondiaux de capital-risque et ne pesait que 2,5 % du marché mondial de l’IA ; les pays émergents hors « Big Four » se trouvent donc mécaniquement pénalisés dans cette compétition déjà très concentrée.

Répartition des investissements en capital-risque (equity) dans les start-up technologiques africaines par pays. Partech, 2024 Africa Tech Venture Capital

Orienter les investissements pour préparer les pays à l’IA

Afin d’attirer des capitaux vers ces start-up IA, un pays doit lui-même être prêt pour l’IA. L’adoption de l’IA au niveau d’un pays ne dépend pas seulement de facteurs technologiques : L’AI Investment Potential (AIIPI) est un travail de recherche qui souligne que cette adoption repose également sur des facteurs économiques, politiques et sociaux. Ainsi, pour augmenter son potentiel en IA, un pays devra non seulement renforcer ses infrastructures énergétiques et de connectivité mais également son niveau de gouvernance, l’efficacité de ses pouvoirs publics et son capital humain.

Les actions à privilégier varient selon le stade d’avancement en IA des pays. Dans les pays plus avancés, comme l’Afrique du Sud ou le Maroc, l’enjeu est davantage de soutenir la recherche, d’optimiser les applications de l’IA et d’attirer des investissements stratégiques. Dans des pays avec un score plus modéré, les priorités portent sur la consolidation des infrastructures de connectivité, du capital humain et des cadres réglementaires.

La plate-forme aipotentialindex.org permet, entre autres, de visualiser les résultats de l’index au niveau mondial et les domaines dans lesquels les pays peuvent investir pour augmenter leur potentiel d’investissement en IA (recherche, efficacité de l’action publique, connectivité, capital humain, stratégies IA, etc.). L’AIIPI permet aux investisseurs non seulement de repérer les pays avancés en IA mais également ceux où le potentiel est sous-exploité. Pour les décideurs publics et les acteurs du développement, il offre un cadre de priorisation des réformes et des investissements.

Visualisation du potentiel d’investissement en IA en Afrique : plus la couleur est sombre, plus le potentiel est élevé. aipotentialindex.org
Outil « Profil des Pays » appliqué au Ghana. Le Ghana présente un fort potentiel d’investissement en IA. Des start-up comme Ghana Liquify, soutenue par Digital Africa, qui facilite le paiement des factures pour les PME, témoignent de son émulation entrepreneuriale. aipotentialindex.org

Fonds souverains et dispositifs dédiés aux nouvelles technologies

Une fois la stratégie d’investissement en IA d’un pays définie, se pose la question des instruments de financement de l’IA. À l’échelle continentale, plusieurs instruments dédiés aux technologies et à l’IA émergent. Des établissements financiers de développement, tels que la Banque africaine de Développement ou encore de la Banque ouest-africaine de Développement lancent des initiatives visant à soutenir la croissance de l’économie numérique du continent.

À l’échelle nationale, les fonds souverains africains (Sovereign Wealth Funds, SWFs) constituent une voie supplémentaire permettant de soutenir le financement de l’IA et des start-up sur le continent. Ces fonds, comme le Fonds Mohammed VI au Maroc ou le Pula Fund au Botswana mobilisent l’épargne publique pour le développement économique à long terme et travaillent en partenariat avec des banques de développement.

Les partenariats, des leviers puissants pour le financement de start-up

Financer les infrastructures numériques et IA ne suffit pas pour avoir un écosystème de start-up capables de stimuler l’économie. Les partenariats public-privé internationaux jouent aussi un rôle notable : l’initiative Choose Africa 2, portée par l’AFD et Bpifrance, vise à répondre aux contraintes de financement de l’entrepreneuriat sur le continent, en particulier lors des phases les plus précoces. À ce stade, des dispositifs de soutien, comme ceux de Digital Africa, associant acteurs publics et partenaires locaux, permettent des investissements de faibles montants de jeunes start-up « Tech for Good », dont les technologies génèrent un impact social et environnemental stratégique.

Des partenariats entre institutions africaines et européennes, tels que l’initiative Choose Africa 2 portée par l’AFD et Bpifrance, visent à répondre aux contraintes de financement de l’entrepreneuriat sur le continent, en particulier lors des phases les plus précoces. À ce stade, des dispositifs d’amorçage associant acteurs publics et partenaires locaux, dont Digital Africa, permettent des investissements de petits montants afin de financer des start-up contribuant à la diffusion d’infrastructures numériques et s’inscrivant dans une approche « Tech for Good », dont les technologies génèrent un impact social et environnemental positif essentiel pour le continent.

Ces mécanismes, sans suffire à corriger les déséquilibres d’investissement, peuvent néanmoins contribuer à élargir l’accès au financement au-delà des écosystèmes traditionnellement les mieux dotés.

Un portage politique, stratégique et juridique central

Les investissements financiers ne suffisent pas et doivent être portés par une ambition politique. Les dispositifs législatifs et stratégiques mis en place au niveau national et continental constituent des leviers structurants pour l’essor des start-up digitales en Afrique.

D’une part, les stratégies portées par l’Union africaine – la Stratégie de transformation numérique pour l’Afrique, la Stratégie continentale d’intelligence artificielle ou encore le Pacte numérique africain – fournissent des feuilles de route pour que les États puissent accélérer la transformation numérique des pays. Il existe également des dispositifs nationaux, comme en Tunisie avec la loi Startup, ou les stratégies nationales sur l’IA, comme celle publiée par le Ghana qui affiche son ambition de devenir le « Hub IA de l’Afrique ».

Enfin, un engagement politique majeur a été pris en avril dernier, lors du Global AI Summit de Kigali où 52 pays africains ont annoncé la création d’un Fonds africain pour l’IA de 60 milliards combinant des capitaux publics, privés et philanthropiques. Cette initiative illustre une volonté stratégique de l’Afrique : se positionner sur ces nouveaux enjeux technologiques. Néanmoins, ces fonds IA pourraient rencontrer des défis de gouvernance et de structuration financière. En effet, le risque demeure qu’ils puissent reproduire des asymétries déjà existantes dans les fonds souverains si des mécanismes de transparence ne sont pas mis en place. Leur impact dépendra donc de l’instauration de normes et d’outils de pilotage adaptés aux défis technologiques émergents.

Ces dispositifs créent les premières conditions nécessaires à l’émergence de solutions d’IA locales ainsi qu’un cadre stratégique structurant. Leur impact sur la confiance des investisseurs dépendra toutefois de leur articulation avec des financements adaptés et les capacités locales.

The Conversation

Claire Zanuso ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses

OpenAI affirme que des règles strictes encadreront l'intégration publicitaire mais l'histoire incite à la prudence en la matière. OpenAI, The Conversation

La question dépasse la technique. En ouvrant ChatGPT aux annonceurs, OpenAI pose un choix politique : l’IA doit-elle servir le public ou devenir un outil redoutable dans les mains des publicitaires ?


OpenAI a annoncé son intention d’introduire de la publicité dans ChatGPT aux États-Unis. Les annonces apparaîtront dans la version gratuite et pour les abonnés à l'offre Go (la moins chère), mais pas pour les abonnés Pro, Business ou Entreprise.

L’entreprise affirme que les publicités seront clairement séparées des réponses du chatbot et qu’elles n’influenceront pas les contenus générés. Elle s’est également engagée à ne pas vendre les conversations des utilisateurs, à permettre la désactivation des publicités personnalisées et à éviter toute publicité destinée aux moins de 18 ans ou portant sur des sujets sensibles tels que la santé et la politique.

Malgré ces engagements, la décision a suscité des inquiétudes chez une partie des utilisateurs. La question centrale est de savoir si ces garanties tiendront une fois que la publicité deviendra un pilier de son modèle économique.

Pourquoi la publicité dans l’IA était presque inévitable

Nous avons déjà vu ce scénario. Il y a quinze ans, les plateformes de réseaux sociaux peinaient à transformer leurs audiences massives en profits.

Le tournant est venu avec la publicité ciblée : adapter les annonces à ce que les utilisateurs recherchent, consultent et regardent. Ce modèle est devenu la principale source de revenus de Google et de Facebook, au point de remodeler leurs services pour maximiser l’engagement des utilisateurs.

Les plateformes d’intelligence artificielle (IA) grand-public sont extrêmement coûteuses pour leurs propriétaires. L’entraînement et le fonctionnement de modèles avancés exigent d’immenses centres de données, des puces spécialisées et un travail d’ingénierie continu. Malgré une croissance rapide du nombre d’utilisateurs, de nombreuses entreprises d’IA continuent d’opérer à perte. OpenAI prévoit à elle seule de « brûler » près de 100 milliards d’euros au cours des cinq prochaines années.

Seules quelques entreprises peuvent absorber de tels coûts. Pour la plupart des fournisseurs d’IA, trouver un modèle économique à grande échelle est urgent, et la publicité ciblée apparaît comme la réponse la plus évidente. Elle reste le moyen le plus fiable de rentabiliser de larges audiences.

Ce que l’histoire nous enseigne

OpenAI affirme qu’elle maintiendra une séparation claire entre les publicités et les réponses, et qu’elle protégera la vie privée des utilisateurs. Ces garanties peuvent sembler rassurantes, mais elles reposent pour l’instant sur des engagements vagues et susceptibles d’être réinterprétés.

L’entreprise indique ainsi qu’elle ne diffusera pas de publicités « à côté de sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique », mais apporte peu de précisions sur ce qui est considéré comme « sensible », sur l’étendue de la notion de « santé » ou sur l’instance chargée de fixer ces limites.

La plupart des échanges avec une IA, dans la vie réelle, ne relèveront pas de ces catégories restreintes. À ce jour, OpenAI n’a donné aucune précision sur les types de publicités qui seront autorisés ou exclus. Si aucun garde-fou n’est posé sur le contenu des annonces, on peut aisément imaginer qu’un internaute demandant « comment décompresser après une journée stressante » se voie proposer des publicités pour la livraison d’alcool. Une requête sur des « idées de week-end sympa » pourrait faire surgir des promotions pour des sites de jeux d’argent.

Pourtant, ces produits sont associés à des effets néfastes reconnus sur la santé et la société. Placées à côté d’un conseil personnalisé, au moment précis où une décision se prend, ces publicités peuvent infléchir les comportements de façon discrète mais efficace, même en l’absence de toute question de santé explicitement formulée.

On avait vu fleurir des promesses comparables aux débuts des réseaux sociaux. Mais l’expérience montre que l’autorégulation s’érode face aux impératifs commerciaux, au profit des entreprises et au détriment des utilisateurs.

Les logiques publicitaires ont souvent mis à mal l’intérêt général. Le scandale Cambridge Analytica a révélé des données personnelles collectées à des fins commerciales pouvaient être réutilisées pour peser sur des scrutins. Les « Facebook Files » ont, eux, révélé que Meta était consciente des effets délétères de ses plateformes, notamment sur la santé mentale des adolescentes et adolescents, mais a tardé à engager des réformes susceptibles d’entamer ses revenus publicitaires.

Plus récemment, des investigations ont montré que Meta continue de tirer profit de publicités frauduleuses, malgré les alertes répétées sur leurs conséquences.

Pourquoi les chatbots changent la donne

Les chatbots ne sont pas un simple fil d’actualité de plus. Les utilisateurs s’en servent de manière intime et personnelle, pour demander des conseils, chercher un soutien émotionnel ou réfléchir en privé. Ces échanges sont perçus comme discrets, sans jugement, et incitent souvent à confier des choses que l’on ne dirait pas en public.

Cette relation de confiance renforce le pouvoir de persuasion, d’une manière que les réseaux sociaux ne permettent pas. On consulte un chatbot pour obtenir de l’aide ou prendre une décision. Même si les publicités sont formellement séparées des réponses, elles s’insèrent dans un espace privé et conversationnel, et non dans un flux public.

Cette relation de confiance décuple le pouvoir de persuasion, bien au-delà de ce que permettent les réseaux sociaux. On se tourne vers un chatbot pour demander conseil, trancher une décision, chercher un appui. Même officiellement dissociées des réponses, les publicités s’invitent alors dans un tête-à-tête numérique, au cœur d’un échange privé, et non dans le brouhaha d’un fil public.

Des messages placés aux côtés de recommandations personnalisées — qu’ils concernent des biens de consommation, des loisirs, les finances ou la politique — ont toutes les chances d’exercer une influence bien plus forte que les mêmes publicités aperçues au détour d’une navigation classique.

Alors qu’OpenAI présente ChatGPT comme un « super assistant » capable d’accompagner ses utilisateurs dans tous les domaines, des finances à la santé, la frontière entre conseil et incitation devient de plus en plus floue.

Pour les escrocs comme pour les régimes autoritaires, disposer d'un outil de propagande encore plus efficace serait particulièrement tentant. Et du côté des acteurs de l’IA, la perspective de revenus supplémentaires rendra toute complaisance d’autant plus difficile à écarter

Le problème de fond tient à un conflit d’intérêts structurel. Les modèles publicitaires récompensent les plateformes qui maximisent l’engagement, alors même que les contenus les plus susceptibles de capter durablement l’attention sont souvent trompeurs, émotionnellement chargés ou préjudiciables à la santé.

C’est pour cette raison que l’autorégulation des plateformes en ligne a, à maintes reprises, montré ses limites.

Existe-t-il une meilleure voie ?

Une piste serait de considérer l’IA comme une infrastructure publique numérique : des systèmes essentiels, conçus pour servir l’intérêt général plutôt que pour maximiser les recettes publicitaires.

Cela n’implique pas d’exclure les acteurs privés. Mais cela suppose l’existence d’au moins une option publique de haute qualité, placée sous contrôle démocratique — à l’image des médias audiovisuels publics qui coexistent avec les chaînes commerciales.

Des exemples émergent déjà. La Suisse a développé le système d’IA public Apertus via ses universités et son centre national de calcul intensif. Ce modèle est open source, conforme au droit européen sur l’IA et exempt de publicité.

L’Australie (NDT : la version originale de ce texte a été écrite pour un public australien) pourrait aller plus loin. En parallèle du développement de ses propres outils d’IA, les autorités pourraient imposer des règles claires aux acteurs commerciaux : obligation de transparence, interdiction des publicités nuisibles à la santé ou à caractère politique, et sanctions effectives — pouvant aller jusqu’à la suspension d’activité — en cas d’infractions graves.

La publicité n’a pas dévoyé les réseaux sociaux en un jour. Elle a progressivement déplacé les incitations, jusqu’à faire des atteintes à l’intérêt général un simple effet secondaire de la quête de rentabilité. L’introduire dans l’IA conversationnelle, c’est risquer de reproduire ce scénario — mais dans des systèmes auxquels les utilisateurs accordent une confiance bien plus profonde encore.

La question décisive n’est donc pas d’ordre technique, mais politique : l’IA doit-elle servir le public, ou les annonceurs et les investisseurs ?

The Conversation

Raffaele F Ciriello est membre bénévole et temporaire du groupe consultatif des parents auprès de l’eSafety Commissioner, où il conseille sur les réactions des parents et des jeunes face aux lois australiennes fixant un âge minimum pour l’usage des réseaux sociaux. Cet article s’appuie sur ses recherches menées à titre indépendant.

Kathryn Backholer est vice-présidente (politique) de la Public Health Association of Australia. Elle reçoit des financements du National Health and Medical Research Council, de l’Australian Research Council, de l’UNICEF, de la Ian Potter Foundation, de la National Heart Foundation, de VicHealth, de la Foundation for Alcohol Research and Education, de QUIT, de la .auDA Foundation ainsi que du Victorian Department of Justice and Community Safety pour des travaux portant sur les effets nocifs de la publicité en ligne sur la santé.

Près de 80 % des travailleurs canadiens utilisent l’IA sans cadre institutionnel

Près de 80 % des travailleurs de bureau au pays disent utiliser les outils d’intelligence artificielle générative (IAG) pour accélérer leur productivité et améliorer leur travail. Cette pratique crée un fossé inquiétant, puisque trois quarts d’entre eux le font en dehors de tout cadre institutionnel. Ce faisant, ils exposent leurs organisations à des risques financiers et réputationnels majeurs.


Ce phénomène, baptisé « Shadow AI », révèle moins une défaillance individuelle des employés qu’un problème de gouvernance : Les entreprises doivent rapidement baliser l’usage des IAG en proposant à leurs employés des solutions sécurisées et contrôlées.

L’usage croissant des IAG

Le paysage technologique actuel est dominé par les IAG comme ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) et Microsoft Copilot. Parmi les entreprises, Statistique Canada indique que ces outils sont surtout utilisés pour l’analyse textuelle (35,7 %), l’analyse de données (26,4 %) et le déploiement d’agents conversationnels, comme les robots de clavardage (24,8 %).

L’essor des IAG continue de susciter un discours polarisé. Comme le mentionnent Rajiv Sabherwal et Varun Grover, deux professeurs émérites en systèmes d’information de l’université d’Arkansas, le discours entourant les IAG promet un gain de productivité, une accélération de l’innovation et une transformation profonde des activités professionnelles. Au même moment, divers rapports (notamment ceux du gouvernement canadien, du Centre canadien pour la cybersécurité, de Deloitte, ou d’IBM) mettent en garde contre les risques pour la sécurité, la conformité et la dépendance organisationnelle aux solutions externes.

Les travailleurs canadiens n’ont pas attendu que leurs employeurs encadrent l’utilisation des IAG. Selon une récente étude d’IBM, leur usage non contrôlé concerne la majorité des travailleurs à temps plein au pays.

Face à cette réalité, les entreprises ne peuvent plus se contenter d’observer, elles doivent agir.


À lire aussi : Grok, l’IA de Musk, est-elle au service du techno-fascisme ?


# « Shadow AI »

Le Shadow AI est aujourd’hui une réalité documentée au Canada et à l’international. Les études de CybSafe and the National Cybersecurity Alliance, KPMG, et Salesforce confirment l’importance de cette pratique devenue une mode.

En septembre 2025, une étude d’IBM a ainsi révélé que 79 % des travailleurs de bureau au Canada utilisent des outils d’IAG dans leurs tâches professionnelles, mais que 25 % d’entre eux seulement recourent à des solutions approuvées par leur entreprise. Encore plus marquant, 54 % déclarent recourir à des outils personnels au moins une fois par semaine pour accomplir des tâches professionnelles.

Cette étude révèle également que 21 % utilisent exclusivement des outils personnels pour accomplir leurs tâches, tandis que 33 % combinent des outils personnels et ceux de leur entreprise. Ce contraste entre les pratiques individuelles et les pratiques organisationnelles officielles relatives aux IAG témoigne d’un vide stratégique significatif.

Des risques multiples

Les risques associés au Shadow AI sont multiples et empiriquement attestés. 57 % des répondants d’une enquête de TELUS Digital Experience ont admis avoir saisi des données sensibles (informations personnelles, contrats, codes sources) dans des outils d’IAG.

Les conséquences financières sont également présentes. Le rapport IBM Cost of a Data Breach 2025 estime à 308 000$ l’impact additionnel par incident de Shadow AI sur le coût des violations de données au cours de la dernière année dans les entreprises canadiennes.

Au-delà des pertes financières, des cas emblématiques illustrent les risques réputationnels : chez Samsung, des employés ont accidentellement divulgué un code source interne sensible via ChatGPT, tandis que deux avocats de New York ont été condamnés à une amende de 5000 $ pour avoir soumis un dossier juridique contenant des citations et des jurisprudences entièrement inventées par ChatGPT.


À lire aussi : L'intelligence artificielle générative : savoir quand l'utiliser plutôt que comment


Causes du « Shadow AI »

La pratique du Shadow AI ne naît pas du simple désir de contourner les règles de l’entreprise. Elle illustre plutôt un écart entre les besoins opérationnels réels des employés et les possibilités offertes par les employeurs.

Le discours dominant sur les IAG, véhiculé par les entreprises technologiques comme Anthropic ou Microsoft, certains médias et des influenceurs, promeut un gain d’efficacité et de productivité. Cela suscite chez les employés une perception positive des IAG, qui sont vues alors comme un outil indispensable à leur performance qu’il faut adopter en l’absence de solutions institutionnelles.

Ce phénomène pourrait également s’expliquer par le décalage temporel entre le développement continu des IAG et la réactivité organisationnelle. Les employés évoluent plus rapidement que les institutions conçues pour les soutenir.

Les institutions, contraintes par des processus de validation, de conformité et de gestion des risques, tardent à répondre aux attentes des employés. Face à des processus bureaucratiques perçus comme lents, les employés contournent les canaux officiels pour accéder aux gains promis par les IAG. Ainsi, 46 % des travailleurs canadiens interrogés par IBM envisageraient de quitter leur entreprise pour une autre qui utilise l’IAG plus efficacement. Ceci souligne l’urgence stratégique de ce phénomène.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Institutionnalisation des IAG

Face au phénomène de Shadow AI, les entreprises doivent adopter une posture proactive d’institutionnalisation afin de le transformer en opportunité. Cette approche ne consiste pas à imposer l’usage des IAG, mais à formuler une position claire sur un continuum allant de l’interdiction stricte à l’utilisation libre. L’absence de ce positionnement constitue une faille stratégique dans l’institutionnalisation des IAG, exposant l’entreprise à des risques.

Pour une institutionnalisation efficace de l’IAG, nous proposons trois points complémentaires.

  • L’élaboration de politiques d’utilisation explicites, communiquées et régulièrement mises à jour, permet de clarifier les frontières entre usages autorisés et proscrits.

  • La formation et la sensibilisation constituent des leviers essentiels : les employés doivent développer non seulement des compétences techniques en matière de rédactique, mais également une compréhension profonde des enjeux organisationnels, éthiques et de sécurité.

  • Le choix et la mise en place d’outils d’IAG approuvés et sécurisés, notamment alignés sur les besoins de l’entreprise et sur la loi. Comme le souligne KPMG, les organisations avant-gardistes « transforment l’utilisation non autorisée de l’IA en un avantage stratégique et en un moteur d’innovation » (traduction libre).

Cette approche proactive permet de réduire les risques, de renforcer la confiance des employés et de cultiver une culture d’innovation responsable.

Perspectives : vers des IAG propriétaires

Une réflexion prospective sur le Shadow AI conduit naturellement à envisager le développement en interne d’outils d’IAG sur mesure. À l’exemple de Forvis Mazars, une multinationale experte en certification, comptabilité, fiscalité et services-conseils, certaines entreprises et gouvernements explorent le développement d’IAG internes adaptées à leurs besoins spécifiques.

Cette stratégie réduit l’exposition aux risques et offre plusieurs avantages : une maîtrise accrue de la confidentialité des données, une personnalisation de l’IAG en fonction des processus du métier, une réduction de la dépendance vis-à-vis des plates-formes externes et un renforcement de la souveraineté numérique. Toutefois, cette voie implique des investissements considérables en ressources techniques, financières et humaines, ainsi qu’une gouvernance éthique rigoureuse.

Les entreprises qui sauront transformer la pratique du Shadow AI en un levier stratégique, par une institutionnalisation réfléchie et inclusive des IAG, auront un avantage concurrentiel durable dans l’économie numérique émergente.

La Conversation Canada

Harold Junior NGUEGANG TEWAMBA est membre du Centre de recherche en technologies de l’information et affaires (CeRTIA) de la Faculté des sciences de l'administration de l'Université Laval.

Gildas Agbon est membre étudiant de l'Observatoire international sur les impacts sociétaux de l'IA et du numérique (Obvia). Il a reçu des financements du Conseil de recherche en sciences humaines du Canada

Affaire Grok : les GAFAM doivent être tenus responsables des violences sexistes liées à leur technologie

À la veille de Noël, l’entreprise xAI clamait que son agent conversationnel Grok offrait une nouvelle fonctionnalité d’édition d’images et de vidéos qui permettrait « d’ajouter le père Noël à vos photos ». Depuis, elle a plutôt généré des milliers d’images sexuellement explicites et non consenties de femmes et de mineurs.

Ce désastre illustre parfaitement la facilité croissante avec laquelle les nouvelles technologies permettent de commettre des violences sexuelles.

Il est urgent que les entreprises technologiques et les décideurs politiques priorisent la sécurité et la réglementation de l’intelligence artificielle de toute urgence. Dans une optique de santé publique, il s’agit de protéger les populations contre des dommages à grande échelle.

À travers diverses collaborations et mes études doctorales sur l’intersectionnalité entre violence sexiste et santé publique, j’ai pu vérifier qu’il est possible d’utiliser l’intelligence artificielle comme outil pour aider les victimes de violence.


À lire aussi : Grok, l’IA de Musk, est-elle au service du techno-fascisme ?


Appli qui dénudent

Les préoccupations relatives à l’hypertrucage (les deepfakes en anglais) sexuellement explicite ne datent pas d’hier. En 2018, sur Reddit, on retrouvait déjà des outils d’apprentissage automatique capable de plaquer le visage Taylor Swift et autres célébrités sur du matériel pornographique.

D’autres sites, plus confidentiels, proposaient également des programmes d’hypertrucage permettant de dénuder des personnes en image.

Cette technologie est désormais accessible à tous. L’agent conversationnel Grok, outre son propre site web et son appli, est ouvert à tous les utilisateurs de la plate-forme de médias sociaux X.

Si l’on demande à Grok de créer des images pornographiques, celui-ci répondra qu’il est programmé pour ne pas le faire, certes, mais il est facile de contourner ce garde-fou.

Dans un communiqué publié sur sa propre plate-forme, Elon Musk, propriétaire de xAI, affirme prendre les mesures nécessaires contre les contenus illégaux sur X. L’entreprise, lit-on, les supprime, suspend les comptes de manière définitive et, si nécessaire, collabore avec les autorités.

Cependant, on ignore comment et quand ces mesures seront mises en œuvre.

Rien de nouveau sous le soleil

Ça n’est pas d’hier que les technologies numériques servent de support à la violence sexuelle et aux comportements sexuels préjudiciables virtuels ou réels. Les femmes, les minorités sexuelles et les mineurs en sont les principales victimes.

La pornodivulgation, qui consiste à diffuser des images explicites d’une personne sans son consentement, est une forme de violence sexuelle qui a fait l’objet d’une attention particulière. Les victimes rapportent des effets durables sur leur santé mentale, notamment par la rupture de relations et l’isolement social.

Certains médias sociaux interdisent la diffusion de contenus intimes non consensuels et appliquent des mécanismes de signalement et de suppression de tels contenus.

Google et Bing acceptent également de supprimer de leurs pages de résultats les contenus qui enfreignent leur politique en matière de contenu et qui sont dommageables pour la personne. Au Canada, la « pornographie de vengeance » est un crime passible de cinq ans de prison.

Tout comme les victimes de pornodivulgation, les victimes d’hypertrucage font état de détresse mentale (sentiment d’impuissance, humiliation, honte). Certaines ont même subi de l’extorsion.

L’hypertrucage sexuellement explicite est même devenu un moyen de cyberharcèlement et de censure à l’endroit de journalistes et de femmes politiques.


À lire aussi : Grok, est-ce que c’est vrai ? Quand l’IA oriente notre compréhension du monde


Et maintenant ?

La grave faille de sécurité révélée par l’affaire Grok était par ailleurs prévisible. Depuis des mois, des experts éminents en la matière et des organisations de protection de l’enfance nous prévenaient que sa nouvelle fonctionnalité était un « outil de dénudement qui ne demandait qu’à servir d’arme ».

Le 9 janvier, en réaction, xAI a limité l’accès à la fonctionnalité d’édition d’images aux seuls abonnés de X, mais celle-ci demeure accessible gratuitement sur l’appli Grok.

Grok s’est vu également interdire de télécharger automatiquement ces images dans les commentaires. Cependant, l’onglet Grok sur X permet toujours aux abonnés de générer des images sexualisées, qu’ils peuvent ensuite publier manuellement sur la plate-forme.

La Malaisie et l’Indonésie ont pris des mesures pour bloquer l’accès à Grok.

Regard vers l’avenir

Ce n’est ni la première fois ni la dernière qu’une entreprise technologique affiche un tel manque de jugement quant au risque de violences sexuelles découlant de l’usage de ses produits.

Le Canada devrait prendre les mesures suivantes :

1. Modifier le Code criminel

Des juristes plaident pour que le législateur criminalise la création et la distribution d’hypertrucages sexuellement explicites et non consensuels, à l’instar des lois existantes sur la pornodivulgation.

2. Réglementer les entreprises et les tenir responsables

Le Canada n’a encore adopté aucune loi pour réglementer l’intelligence artificielle. Malheureusement, le projet de loi C-63 sur les préjudices en ligne est mort au feuilleton suite à la prorogation du Parlement en janvier 2025. Suite à l’affaire Grok, le ministre canadien responsable de l’intelligence artificielle est revenu sur le sujet, mais sa réponse ne comporte ni échéance ni sentiment d’urgence.

Alors que l’IA progresse, la législation devient nécessaire pour prévenir d’autres préjudices liés à la violence sexuelle. Les nouveaux produits devraient se voir imposer des contrôles de sécurité approfondis, quitte à ralentir les activités des entreprises concernées.

Il faut également s’interroger quant à la responsabilité des préjudices causés.

Trois sénateurs américains ont demandé à Apple et Google d’appliquer leur propre politique et de retirer Grok de leur boutique d’applications. Après tout, plaident-ils, elles l’ont déjà fait dans d’autres cas et très rapidement.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


3. Élargir la portée des services sociaux

Face à la multiplication des violences sexuelles commises à l’aide des technologies d’IA, il faut élargir le champ d’action des organismes de lutte contre la violence sexuelle. Il s’agirait de tirer parti des services existants, notamment les soins de santé mentale et l’aide juridique, pour inclure les victimes d’hypertrucage.

4. Démanteler la culture du viol

La principale cause de la violence sexuelle réside dans la prédominance d’une culture du viol sous-jacente. Celle-ci trouve un environnement particulièrement favorable en ligne, où les abus et le harcèlement sexuel sont tolérés, voire encouragés.

Pour démanteler cette culture du viol, il importe de dénoncer tout ce qui normalise ces actes et de placer leurs auteurs devant leur responsabilité.

La Conversation Canada

Kyara Liu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

« Psychose induite par l’IA » : un danger réel pour les personnes à risque, selon un psychiatre

L’intelligence artificielle est de plus en plus intégrée à la vie quotidienne, des agents conversationnels qui offrent une forme de compagnie aux algorithmes qui façonnent ce que nous voyons en ligne. Mais à mesure que l’IA générative (IA gen) devient plus conversationnelle, immersive et émotionnellement réactive, les cliniciens commencent à se poser une question délicate : l’IA générative peut-elle aggraver, voire déclencher une psychose chez des personnes vulnérables ?


Les modèles de langage de grandes tailles et les agents conversationnels sont largement accessibles et souvent présentés comme des outils de soutien, empathiques, voire thérapeutiques. Pour la majorité des utilisateurs, ces systèmes sont utiles ou, au pire, sans effet délétère.

Toutefois, récemment, plusieurs reportages médiatiques ont décrit des personnes présentant des symptômes psychotiques, dans des situations où ChatGPT occupe une place centrale.

Pour un groupe restreint, mais cliniquement significatif (les personnes présentant un trouble psychotique ou celles à haut risque), les interactions avec l’IA générative peuvent être beaucoup plus complexes et potentiellement dangereuses, ce qui soulève des questions importantes pour les cliniciens.

Comment l’IA s’intègre aux systèmes de croyances délirantes

La « psychose induite par l’IA » n’est pas un diagnostic psychiatrique formel. Il s’agit plutôt d’un raccourci émergent utilisé par des cliniciens et des chercheurs pour décrire des symptômes psychotiques façonnés, intensifiés ou structurés autour d’interactions avec des systèmes d’IA.

La psychose implique une perte de contact avec la réalité partagée avec le monde extérieur et intérieur. Les hallucinations, les idées délirantes et la désorganisation de la pensée en constituent les manifestations centrales. Les délires psychotiques s’appuient fréquemment sur des éléments culturels (religion, technologie ou structures de pouvoir politique) afin de donner sens à des expériences internes.

Historiquement, les thèmes délirants ont fait référence à divers objets ou forces, tels que Dieu, les ondes radio ou la surveillance gouvernementale. Aujourd’hui, l’intelligence artificielle offre une nouvelle avenue narrative.

Certains patients rapportent des croyances selon lesquelles l’IA générative serait consciente, transmettrait des vérités secrètes, contrôlerait leurs pensées ou collaborerait avec eux dans le cadre d’une mission spéciale. Ces thématiques s’inscrivent dans des schémas bien établis de la psychose, mais l’IA y ajoute un degré d’interactivité et de renforcement que les technologies antérieures n’offraient pas.


À lire aussi : Se diagnostiquer grâce à l’IA : voici le potentiel et les pièges des applis en santé


Le risque d’une validation sans ancrage dans la réalité

La psychose est fortement associée à la saillance aberrante, soit la tendance à attribuer une signification excessive à des événements neutres. Les systèmes d’IA conversationnelle sont, par conception, capables de générer un langage réactif, cohérent et sensible au contexte. Chez une personne présentant une psychose émergente, cela peut être vécu comme une confirmation troublante, voire dérangeante.

Les recherches sur la psychose montrent que la validation excessive et la personnalisation peuvent intensifier les systèmes de croyances délirantes. L’IA générative est optimisée pour poursuivre les conversations, refléter le langage de l’utilisateur et s’adapter à l’intention perçue.

Si cela est sans conséquence pour la plupart des utilisateurs, ces mécanismes peuvent renforcer involontairement des interprétations déformées chez des personnes dont le test de réalité est altéré — c’est-à-dire la capacité à distinguer les pensées internes et l’imaginaire de la réalité objective et externe.

Il existe également des données indiquant que l’isolement social et la solitude augmentent le risque de psychose. Les compagnons d’IA générative peuvent réduire la solitude à court terme, mais ils peuvent aussi se substituer aux relations humaines.

Cela concerne tout particulièrement les personnes déjà en retrait des interactions sociales. Cette dynamique rappelle les préoccupations antérieures liées à l’usage excessif d’Internet et à la santé mentale, mais la profondeur conversationnelle de l’IA générative contemporaine est qualitativement différente.


À lire aussi : L’IA gagne du terrain en santé. Comment les ordres professionnels peuvent-ils l’encadrer ?


Ce que la recherche nous apprend, et ce qui reste incertain

À ce jour, aucune donnée probante n’indique que l’IA cause directement une psychose.

Les troubles psychotiques sont multifactoriels et peuvent impliquer une vulnérabilité génétique, des facteurs neurodéveloppementaux, des traumatismes et l’usage de substances. Toutefois, certaines préoccupations cliniques suggèrent que l’IA pourrait agir comme facteur précipitant ou de maintien chez des individus vulnérables.

Des rapports de cas et des études qualitatives portant sur les médias numériques et la psychose montrent que les thématiques technologiques s’intègrent fréquemment aux contenus délirants, en particulier lors des premiers épisodes psychotiques.

Les recherches sur les algorithmes des médias sociaux ont déjà démontré que des systèmes automatisés peuvent amplifier des croyances extrêmes par des boucles de renforcement. Les systèmes de clavardage fondés sur l’IA pourraient présenter des risques similaires si les garde-fous sont insuffisants.

Il est important de souligner que la plupart des développeurs d’IA ne conçoivent pas leurs systèmes en pensant aux personnes vivant avec des troubles mentaux sévères. Les mécanismes de sécurité tendent à se concentrer sur l’automutilation ou la violence, plutôt que sur la psychose. Cela crée un décalage entre les connaissances en santé mentale et le déploiement des technologies d’IA.

Les enjeux éthiques et les implications cliniques

Du point de vue de la santé mentale, l’enjeu n’est pas de diaboliser l’IA, mais de reconnaître les vulnérabilités individuelles.

De la même manière que certains médicaments ou substances comportent des risques accrus pour les personnes vivant avec un trouble psychotique, certaines formes d’interaction avec l’IA peuvent nécessiter une prudence particulière.

Les cliniciens commencent à rencontrer des contenus liés à l’IA intégrés aux idées délirantes, mais peu de lignes directrices cliniques abordent la manière d’évaluer ou de prendre en charge ces situations. Les thérapeutes devraient-ils interroger l’usage de l’IA générative de la même façon qu’ils questionnent la consommation de substances ? Les systèmes d’IA devraient-ils détecter et désamorcer les idées psychotiques plutôt que d’y engager la conversation ?

Des questions éthiques se posent également pour les développeurs. Lorsqu’un système d’IA apparaît empathique et doté d’une autorité perçue, porte-t-il une forme de devoir de diligence ? Et qui est responsable lorsqu’un système renforce involontairement une idée délirante ?


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Faire le pont entre la conception de l’IA et les soins en santé mentale

L’IA n’est pas appelée à disparaître. L’enjeu consiste désormais à intégrer l’expertise en santé mentale dans la conception des systèmes d’IA, à développer une littératie clinique autour des expériences liées à l’IA et à s’assurer que les utilisateurs vulnérables ne soient pas exposés à des préjudices involontaires.

Cela nécessitera une collaboration étroite entre cliniciens, chercheurs, éthiciens et technologues. Cela exigera également de résister aux discours sensationnalistes (qu’ils soient utopiques ou dystopiques) au profit d’échanges fondés sur les données probantes.

À mesure que l’IA adopte des caractéristiques de plus en plus humaines, une question s’impose : comment protéger les personnes les plus vulnérables à son influence ?

La psychose s’est toujours adaptée aux outils culturels de son époque. L’IA n’est que le miroir le plus récent à travers lequel l’esprit tente de donner sens à lui-même. Notre responsabilité collective est de veiller à ce que ce miroir ne déforme pas la réalité chez celles et ceux qui sont le moins en mesure de la corriger.

La Conversation Canada

Alexandre Hudon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

L’IA arrive dans le jugement olympique. Qu’est-ce qui pourrait (bien) se passer ?

Alors que le Comité international olympique (CIO) adopte le jugement assisté par l’intelligence artificielle, cette technologie promet une plus grande cohérence et une meilleure transparence. Pourtant, les résultats de la recherche suggèrent que la confiance, la légitimité et les valeurs culturelles comptent autant que la précision technique.


En 2024, le CIO a dévoilé son agenda olympique de l’intelligence artificielle (IA), positionnant celle-ci comme un pilier central des futurs Jeux olympiques. Cette vision a été renforcée lors du tout premier Forum olympique sur l’IA, organisé en novembre 2025, où athlètes, fédérations, partenaires technologiques et décideurs politiques ont discuté de la manière dont l’IA pourrait soutenir le jugement, la préparation des athlètes et l’expérience des fans.

Aux Jeux olympiques d’hiver de 2026 de Milan-Cortina qui démarrent vendredi 6 février, le CIO envisage d’utiliser l’IA pour soutenir le jugement en patinage artistique (épreuves individuelles et en couple, hommes et femmes), en aidant les juges à identifier précisément le nombre de rotations effectuées lors d’un saut.

Son utilisation s’étendra également à des disciplines, telles que le big air, le halfpipe et le saut à ski (des épreuves de ski et de snowboard où les athlètes enchaînent des sauts et figures aériennes), où des systèmes automatisés pourront mesurer la hauteur des sauts et les angles de décollage. À mesure que ces systèmes passent de l’expérimentation à un usage opérationnel, il devient essentiel d’examiner ce qui pourrait bien se passer… ou mal se passer.

Sports jugés et erreurs humaines

Dans les sports olympiques tels que la gymnastique et le patinage artistique, qui reposent sur des panels de juges humains, l’IA est de plus en plus présentée par les fédérations internationales et les instances sportives comme une solution aux problèmes de biais, d’incohérence et de manque de transparence. En effet, les juges doivent évaluer des mouvements complexes réalisés en une fraction de seconde, souvent depuis des angles de vue limités, et ce pendant plusieurs heures consécutives.

Les analyses post-compétition montrent que les erreurs involontaires et les divergences entre juges ne sont pas des exceptions. Cela s’est à nouveau matérialisé en 2024, lorsqu’une erreur de jugement impliquant la gymnaste américaine Jordan Chiles lors des Jeux olympiques de Paris a déclenché une vive polémique. En finale du sol, Chiles avait initialement reçu une note qui la plaçait à la quatrième place. Son entraîneur a alors introduit une réclamation, estimant qu’un élément technique n’avait pas été correctement pris en compte dans la note de difficulté. Après réexamen, la note a été augmentée de 0,1 point, permettant à Chiles d’accéder provisoirement à la médaille de bronze. Cette décision a toutefois été contestée par la délégation roumaine, qui a fait valoir que la réclamation américaine avait été déposée hors délai, dépassant de quatre secondes la fenêtre réglementaire d’une minute. L’épisode a mis en lumière la complexité des règles, la difficulté pour le public de suivre la logique des décisions, et la fragilité de la confiance accordée aux panels de juges humains.

Par ailleurs, des cas de fraude ont également été observés : on se souvient notamment du scandale de jugement en patinage artistique lors des Jeux olympiques d’hiver de Salt Lake City en 2002. À l’issue de l’épreuve en couple, des accusations ont révélé qu’une juge aurait favorisé un duo en échange d’un soutien promis dans une autre compétition, mettant au jour des pratiques d’échanges de votes au sein du panel de juges. C’est précisément en réponse à ce type d’incidents que des systèmes d’IA ont été développés, notamment par Fujitsu en collaboration avec la Fédération internationale de gymnastique.

Ce que l’IA peut (et ne peut pas) corriger dans le jugement

Nos recherches sur le jugement assisté par l’IA en gymnastique artistique montrent que la question ne se résume pas à savoir si les algorithmes sont plus précis que les humains. Les erreurs de jugement proviennent souvent des limites de la perception humaine, ainsi que de la vitesse et de la complexité des performances de haut niveau, ce qui rend l’IA attrayante. Cependant, notre étude impliquant juges, gymnastes, entraîneurs, fédérations, fournisseurs de technologies et fans met en lumière une série de tensions.

L’IA peut être trop exacte, évaluant les routines avec un niveau de précision qui dépasse ce que les corps humains peuvent réalistement exécuter. Par exemple, là où un juge humain apprécie visuellement si une position est correctement tenue, un système d’IA peut détecter qu’un angle de jambe ou de bras s’écarte de quelques degrés seulement de la position idéale, pénalisant une athlète pour une imperfection imperceptible à l’œil nu. Si l’IA est souvent présentée comme objective, de nouveaux biais peuvent émerger à travers la conception et la mise en œuvre des systèmes. Par exemple, un algorithme entraîné principalement sur des performances masculines ou sur des styles dominants peut pénaliser involontairement certaines morphologies. En outre, l’IA peine à prendre en compte l’expression artistique et les émotions, des éléments considérés comme centraux dans des sports tels que la gymnastique et le patinage artistique. Enfin, si l’IA promet une plus grande cohérence, son maintien exige une supervision humaine continue afin d’adapter les règles et les systèmes à l’évolution des disciplines.

Les sports d’action ont une autre logique

Nos recherches montrent que ces préoccupations sont encore plus marquées dans les sports d’action comme le snowboard et le ski freestyle. Beaucoup de ces disciplines ont été ajoutées au programme olympique afin de moderniser les Jeux et d’attirer un public plus jeune. Pourtant, des chercheurs avertissent que l’inclusion olympique peut accélérer la commercialisation et la standardisation, au détriment de la créativité et de l’identité de ces sports.

Un moment emblématique remonte à 2006, lorsque la snowboardeuse américaine Lindsey Jacobellis a perdu la médaille d’or olympique après avoir effectué un geste acrobatique consistant à saisir sa planche en plein saut en plein saut alors qu’elle menait la finale de snowboard cross. Ce geste, célébré dans la culture de son sport, a entraîné une chute qui lui a coûté la médaille d’or.

Les essais de jugement par IA aux X Games

Le jugement assisté par l’IA ajoute de nouvelles couches à cette tension. Des travaux antérieurs sur le halfpipe en snowboard avaient déjà montré comment les critères de jugement peuvent, avec le temps, remodeler subtilement les styles de performance. Contrairement à d’autres sports jugés, les sports d’action accordent une importance particulière au style et à la prise de risque, des éléments particulièrement difficiles à formaliser algorithmiquement.

Pourtant, l’IA a déjà été testée lors des X Games 2025, notamment pendant les compétitions de snowboard SuperPipe, une version de grande taille du halfpipe, avec des parois plus hautes permettant des sauts plus amples et plus techniques. Des caméras vidéo ont suivi les mouvements de chaque athlète, tandis que l’IA analysait les images afin de produire une note de performance indépendante. Ce système était testé en parallèle du jugement humain, les juges continuant à attribuer les résultats officiels et les médailles.

Cet essai n’a toutefois pas modifié les résultats officiels, et aucune comparaison publique n’a été communiquée quant à l’alignement entre les notes produites par l’IA et celles des juges humains. Néanmoins, les réactions ont été très contrastées : certains acteurs saluent une plus grande cohérence et transparence, tandis que d’autres ont averti que les systèmes d’IA ne sauraient pas quoi faire lorsqu’un athlète introduit une nouvelle figure – souvent très appréciée des juges humains et du public.

Au-delà du jugement : entraînement, performance et expérience des fans

L’influence de l’IA dépasse largement le seul cadre du jugement. À l’entraînement, le suivi des mouvements et l’analyse de la performance orientent de plus en plus le développement technique et la prévention des blessures, façonnant la manière dont les athlètes se préparent à la compétition. Parallèlement, l’IA transforme l’expérience des fans grâce à des ralentis enrichis, des visualisations biomécaniques et des explications en temps réel des performances.

Ces outils promettent davantage de transparence, mais ils cadrent aussi la manière dont les performances sont interprétées, avec davantage de « storytelling » autour de ce qui peut être mesuré, visualisé et comparé.

À quel prix ?

L’Agenda olympique de l’IA reflète l’ambition de rendre le sport plus juste, plus transparent et plus engageant. Toutefois, à mesure que l’IA s’intègre au jugement, à l’entraînement et à l’expérience des fans, elle joue aussi un rôle discret mais puissant dans la définition de ce qui constitue l’excellence. Si les juges d’élite sont progressivement remplacés ou marginalisés, les effets pourraient se répercuter à tous les niveaux : formation des juges, développement des athlètes et évolutions des sports eux-mêmes.

Le défi auquel sont confrontés les sports du programme olympique n’est donc pas seulement technologique ; il est institutionnel et culturel. Comment éviter que l’IA ne vide de leur substance les valeurs qui donnent à chaque sport son sens ?

The Conversation

Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Du chatbot du pape au canard de Vaucanson, les croyances derrière l’intelligence artificielle ne datent pas d’hier

Le feu de Prométhée, un mythe qui explique en partie le succès du narratif entourant l’IA. Public domain, via Wikimedia Commons

Des mythes antiques à la tête parlante du pape, de Prométhée aux algorithmes modernes, l’intelligence artificielle (IA) puise dans notre fascination intemporelle pour la création et le pouvoir de la connaissance.


Il semble que l’engouement pour l’intelligence artificielle (IA) ait donné naissance à une véritable bulle spéculative. Des bulles, il y en a déjà eu beaucoup, de la tulipomanie du XVIIe siècle à celle des subprimes du XXIe siècle. Pour de nombreux commentateurs, le précédent le plus pertinent aujourd’hui reste la bulle Internet des années 1990. À l’époque, une nouvelle technologie – le World Wide Web – avait déclenché une vague d’« exubérance irrationnelle ». Les investisseurs déversaient des milliards dans n’importe quelle entreprise dont le nom contenait « .com ».

Trois décennies plus tard, une autre technologie émergente déclenche une nouvelle vague d’enthousiasme. Les investisseurs injectent à présent des milliards dans toute entreprise affichant « IA » dans son nom. Mais il existe une différence cruciale entre ces deux bulles, qui n’est pas toujours reconnue. Le Web existait. Il était bien réel. L’intelligence artificielle générale, elle, n’existe pas, et personne ne sait si elle existera un jour.

En février, le PDG d’OpenAI, Sam Altman, écrivait sur son blog que les systèmes les plus récents commencent tout juste à « pointer vers » l’IA dans son acception « générale ». OpenAI peut commercialiser ses produits comme des « IA », mais ils se réduisent à des machines statistiques qui brassent des données, et non des « intelligences » au sens où on l’entend pour un être humain.

Pourquoi, dès lors, les investisseurs sont-ils si prompts à financer ceux qui vendent des modèles d’IA ? L’une des raisons tient peut-être au fait que l’IA est un mythe technologique. Je ne veux pas dire par là qu’il s’agit d’un mensonge, mais que l’IA convoque un récit puissant et fondateur de la culture occidentale, celui des capacités humaines de création. Peut-être les investisseurs sont-ils prêts à croire que l’IA est pour demain, parce qu’elle puise dans des mythes profondément ancrés dans leur imaginaire ?

Le mythe de Prométhée

Le mythe le plus pertinent pour penser l’IA est celui de Prométhée, issu de la Grèce antique. Il en existe de nombreuses versions, mais les plus célèbres se trouvent dans les poèmes d’Hésiode, la Théogonie et les Travaux et les Jours, ainsi que dans la pièce Prométhée enchaîné, traditionnellement attribuée à Eschyle.

Prométhée était un Titan, un dieu du panthéon grec antique. C’était aussi un criminel, coupable d’avoir dérobé le feu à Héphaïstos, le dieu forgeron. Dissimulé dans une tige de fenouil, le feu fut apporté sur Terre par Prométhée, qui l’offrit aux humains. Pour le punir, il fut enchaîné à une montagne, où un aigle venait chaque jour lui dévorer le foie.

Le don de Prométhée n’était pas seulement celui du feu ; c’était celui de l’intelligence. Dans Prométhée enchaîné, il affirme qu’avant son don, les humains voyaient sans voir et entendaient sans entendre. Après celui-ci, ils purent écrire, bâtir des maisons, lire les étoiles, pratiquer les mathématiques, domestiquer les animaux, construire des navires, inventer des remèdes, interpréter les rêves et offrir aux dieux des sacrifices appropriés.

Le mythe de Prométhée est un récit de création d’un genre particulier. Dans la Bible hébraïque, Dieu ne confère pas à Adam le pouvoir de créer la vie. Prométhée, en revanche, transmet aux humains une part du pouvoir créateur des dieux.

Hésiode souligne cet aspect du mythe dans la Théogonie. Dans ce poème, Zeus ne punit pas seulement Prométhée pour le vol du feu ; il châtie aussi l’humanité. Il ordonne à Héphaïstos d’allumer sa forge et de façonner la première femme, Pandore, qui déchaîne le mal sur le monde. Or le feu qu’Héphaïstos utilise pour créer Pandore est le même que celui que Prométhée a offert aux humains.

Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle
Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle. Wikimedia

Les Grecs ont avancé l’idée que les humains sont eux-mêmes une forme d’intelligence artificielle. Prométhée et Héphaïstos recourent à la technique pour fabriquer les hommes et les femmes. Comme le montre l’historienne Adrienne Mayor dans son ouvrage Gods and Robots, les Anciens représentaient souvent Prométhée comme un artisan, utilisant des outils ordinaires pour créer des êtres humains dans un atelier tout aussi banal.

Si Prométhée nous a donné le feu des dieux, il semble logique que nous puissions utiliser ce feu pour fabriquer nos propres êtres intelligents. De tels récits abondent dans la littérature grecque antique, de l’inventeur Dédale, qui créa des statues capables de prendre vie, à la magicienne Médée, qui savait rendre la jeunesse et la vigueur grâce à ses drogues ingénieuses. Les inventeurs grecs ont également conçu des calculateurs mécaniques pour l’astronomie ainsi que des automates remarquables, mues par la gravité, l’eau et l’air.

Le pape et le chatbot

Deux mille sept cents ans se sont écoulés depuis qu’Hésiode a consigné pour la première fois le mythe de Prométhée. Au fil des siècles, ce récit a été repris sans relâche, en particulier depuis la publication, en 1818, de Frankenstein ; ou le Prométhée moderne de Mary Shelley.

Mais le mythe n’est pas toujours raconté comme une fiction. Voici deux exemples historiques où le mythe de Prométhée semble s’être incarné dans la réalité.

Gerbert d’Aurillac fut le Prométhée du Xe siècle. Né au début des années 940 de notre ère, il étudia à l’abbaye d’Aurillac avant de devenir moine à son tour. Il entreprit alors de maîtriser toutes les branches du savoir connues de son temps. En 999, il fut élu pape. Il mourut en 1003 sous son nom pontifical de Sylvestre II.

Des rumeurs sur Gerbert se répandirent rapidement à travers l’Europe. Moins d’un siècle après sa mort, sa vie était déjà devenue légendaire. L’une des légendes les plus célèbres, et la plus pertinente à l’ère actuelle de l’engouement pour l’IA, est celle de la « tête parlante » de Gerbert. Cette légende fut racontée dans les années 1120 par l’historien anglais Guillaume de Malmesbury dans son ouvrage reconnu et soigneusement documenté, la Gesta Regum Anglorum (Les actions des rois d’Angleterre).

Gerbert possédait des connaissances approfondies en astronomie, une science de la prévision. Les astronomes pouvaient utiliser l’astrolabe pour déterminer la position des étoiles et prévoir des événements cosmiques, comme les éclipses. Selon Guillaume, Gerbert aurait mis son savoir en astronomie au service de la création d’une tête parlante. Après avoir observé les mouvements des étoiles et des planètes, il aurait façonné une tête en bronze capable de répondre à des questions par « oui » ou par « non ».

Gerbert posa d’abord la question : « Deviendrai-je pape ? »

« Oui », répondit la tête.

Puis il demanda : « Mourrai-je avant d’avoir célébré la messe à Jérusalem ? »

« Non », répondit la tête.

Dans les deux cas, la tête avait raison, mais pas comme Gerbert l’avait prévu. Il devint bien pape et évita judicieusement de partir en pèlerinage à Jérusalem. Un jour cependant, il célébra la messe à la basilique Sainte-Croix-de-Jérusalem à Rome. Malheureusement pour lui, la basilique était alors simplement appelée « Jérusalem ».

Gerbert tomba malade et mourut. Sur son lit de mort, il demanda à ses serviteurs de découper son corps et de disperser les morceaux, afin de rejoindre son véritable maître, Satan. De cette manière, il fut, à l’instar de Prométhée, puni pour avoir volé le feu.

Le pape Sylvestre II et le Diable. Wikimedia

C’est une histoire fascinante. On ne sait pas si Guillaume de Malmesbury y croyait vraiment. Mais il s’est bel et bien efforcé de persuader ses lecteurs que cela était plausible. Pourquoi ce grand historien, attaché à la vérité, aurait-il inséré une légende fantaisiste sur un pape français dans son histoire de l’Angleterre ? Bonne question !

Est-ce si extravagant de croire qu’un astronome accompli puisse construire une machine de prédiction à usage général ? À l’époque, l’astronomie était la science de la prédiction la plus puissante. Guillaume, sobre et érudit, était au moins disposé à envisager que des avancées brillantes en astronomie pourraient permettre à un pape de créer un chatbot intelligent.

Aujourd’hui, cette même possibilité est attribuée aux algorithmes d’apprentissage automatique, capables de prédire sur quelle publicité vous cliquerez, quel film vous regarderez ou quel mot vous taperez ensuite. Il est compréhensible que nous tombions sous le même sortilège.

L’anatomiste et l’automate

Le Prométhée du XVIIIe siècle fut Jacques de Vaucanson, du moins si l’on en croit Voltaire :

Le hardi Vaucanson, rival de Prométhée,
Semblait, de la nature imitant les ressorts
Prendre le feu des cieux pour animer les corps.

Jacques de Vaucanson, par Joseph Boze (1784). Wikimedia

Vaucanson était un grand mécanicien, célèbre pour ses automates, des dispositifs à horlogerie reproduisant de manière réaliste l’anatomie humaine ou animale. Les philosophes de l’époque considéraient le corps comme une machine – alors pourquoi un mécanicien n’aurait-il pu en construire une ?

Parfois, les automates de Vaucanson avaient aussi une valeur scientifique. Il construisit par exemple un « Flûteur automate » doté de lèvres, de poumons et de doigts, capable de jouer de la flûte traversière de façon très proche de celle d’un humain. L’historienne Jessica Riskin explique dans son ouvrage The Restless Clock que Vaucanson dut faire d’importantes découvertes en acoustique pour que son flûtiste joue juste.

Parfois, ses automates étaient moins scientifiques. Son « Canard digérateur » connut un immense succès, mais se révéla frauduleux. Il semblait manger et digérer de la nourriture, mais ses excréments étaient en réalité des granulés préfabriqués dissimulés dans le mécanisme.

Vaucanson consacra des décennies à ce qu’il appelait une « anatomie en mouvement ». En 1741, il présenta à l’Académie de Lyon un projet visant à construire une « imitation de toutes les opérations animales ». Vingt ans plus tard, il s’y remit. Il obtint le soutien du roi Louis XV pour réaliser une simulation du système circulatoire et affirma pouvoir construire un corps artificiel complet et vivant.

Trois automates de Vaucanson, le Flûteur automate, le Canard digérateur et le Berger provençal. Wikimedia

Il n’existe aucune preuve que Vaucanson ait jamais achevé un corps entier. Finalement, il ne put tenir la promesse que soulevait sa réputation. Mais beaucoup de ses contemporains croyaient qu’il en était capable. Ils voulaient croire en ses mécanismes magiques. Ils souhaitaient qu’il s’empare du feu de la vie.

Si Vaucanson pouvait fabriquer un nouveau corps humain, ne pourrait-il pas aussi en réparer un existant ? C’est la promesse de certaines entreprises d’IA aujourd’hui. Selon Dario Amodei, PDG d’Anthropic, l’IA permettra bientôt aux gens « de vivre aussi longtemps qu’ils le souhaitent ». L’immortalité semble un investissement séduisant.

Sylvestre II et Vaucanson furent de grands maîtres de la technologie, mais aucun des deux ne fut un Prométhée. Ils ne volèrent nul feu aux dieux. Les aspirants Prométhée de la Silicon Valley réussiront-ils là où leurs prédécesseurs ont échoué ? Si seulement nous avions la tête parlante de Sylvestre II, nous pourrions le lui demander.

The Conversation

Michael Falk a reçu des financements de l'Australian Research Council.

En 2026, à quoi vont ressembler les nouveaux deepfakes qui vont déferler sur nos écrans

La barrière technologique à l’entrée a sauté : générer des deepfakes est désormais plus accessible _via_ les outils IA grand public. Image générée par Siwei Lyu/IA Google Gemini 3

En 2025, la génération de deepfakes a explosé : visages, voix et mouvements du corps créés par des systèmes d’intelligence artificielle deviennent presque indiscernables des humains, bouleversant la perception et la sécurité des contenus en ligne.


Au cours de l’année 2025, les techniques de génération de deepfakes ont connu une évolution spectaculaire. Les visuels de visages, de voix et de corps entiers générés des systèmes d’IA ont gagné en qualité – bien au-delà de ce que beaucoup d’experts imaginaient encore il y a quelques années. Ces vidéos sont aussi davantage utilisées pour tromper ceux qui les regardent.

Dans de nombreuses situations du quotidien – en particulier les appels vidéo de faible résolution et les contenus diffusés sur les réseaux sociaux –, leur réalisme est désormais suffisant pour berner à coup sûr des publics non spécialistes. Concrètement, les médias synthétiques sont devenus indiscernables d’enregistrements authentiques pour le grand public et, dans certains cas, même pour des institutions.

Et cette flambée ne se limite pas à la qualité. Le volume de deepfakes générés a lui aussi explosé : l’entreprise de cybersécurité DeepStrike estime qu’on est passé d’environ 500 000 vidéos de ce type présentes en ligne en 2023 à près de 8 millions en 2025, avec une croissance annuelle proche de 900 %.

Je suis informaticien et je mène des recherches sur les deepfakes et d’autres médias synthétiques. De mon point de vue, la situation risque encore de s’aggraver en 2026, à mesure que les deepfakes évolueront vers des entités synthétiques capables d’interagir en temps réel avec des humains.

Des améliorations spectaculaires

Plusieurs évolutions techniques expliquent cette escalade. Tout d’abord, le réalisme a franchi un cap grâce à des modèles de génération de vidéos conçus spécifiquement pour maintenir la cohérence temporelle. Ces modèles produisent des vidéos aux mouvements cohérents, avec des identités stables pour les personnes représentées et un contenu logique d’une image à l’autre. Ils dissocient les informations liées à la représentation de l’identité d’une personne de celles relatives au mouvement, ce qui permet d’appliquer un même mouvement à différentes identités ou, inversement, d’associer une même identité à plusieurs types de mouvements.

Ces modèles génèrent des visages stables et cohérents, sans les scintillements, déformations ou anomalies structurelles autour des yeux et de la mâchoire qui constituaient des signes techniques fiables de deepfakes auparavant.

Deuxièmement, le clonage vocal a franchi ce que j’appellerais le « seuil d’indiscernabilité ». Quelques secondes d’audio suffisent désormais pour générer un clone convaincant – avec une intonation, un rythme, des accents, des émotions, des pauses et même des bruits de respiration naturels. Cette capacité alimente déjà des fraudes à grande échelle. De grands distributeurs indiquent recevoir plus de 1 000 appels frauduleux générés par l’IA chaque jour. Les indices perceptifs qui permettaient autrefois d’identifier des voix synthétiques ont en grande partie disparu.

Troisièmement, les outils grand public ont fait chuter la barrière technique à un niveau proche de zéro. Les évolutions d’OpenAI avec Sora 2, de Google avec Veo 3 et l’émergence d’une vague de start-up font qu’il suffit aujourd’hui de décrire une idée et de laisser un grand modèle de langage comme ChatGPT d’OpenAI ou Gemini de Google rédiger un script, pour générer en quelques minutes des contenus audiovisuels aboutis. Des agents d’IA peuvent automatiser l’ensemble du processus. La capacité à produire à grande échelle des deepfakes cohérents et construits autour d’un récit s’est ainsi largement démocratisée.

Cette combinaison d’une explosion des volumes et de figures synthétiques devenues presque indiscernables d’êtres humains réels pose de sérieux défis pour la détection des deepfakes, en particulier dans un environnement médiatique où l’attention est fragmentée et où les contenus circulent plus vite qu’ils ne peuvent être vérifiés. Des dommages bien réels ont déjà été constatés – de la désinformation au harcèlement ciblé et aux arnaques financières – facilités par des deepfakes qui se propagent avant que le public n’ait le temps de comprendre ce qui se passe.

Le temps réel, nouvelle frontière

Pour l’année à venir, la trajectoire est claire : les deepfakes se dirigent vers une synthèse en temps réel capable de produire des vidéos reproduisant fidèlement les subtilités de l’apparence humaine, ce qui facilitera le contournement des systèmes de détection. La frontière évolue du réalisme visuel statique vers la cohérence temporelle et comportementale : des modèles qui génèrent du contenu en direct ou quasi direct plutôt que des séquences préenregistrées.

La modélisation de l’identité converge vers des systèmes unifiés qui capturent non seulement l’apparence d’une personne, mais aussi sa façon de bouger et de parler selon les contextes. Le résultat dépasse le simple « cela ressemble à la personne X » pour devenir « cela se comporte comme la personne X sur la durée ». Je m'attends à ce que des participants à des appels vidéo soient synthétisés en temps réel ; à voir des acteurs de synthèse pilotés par l’IA dont le visage, la voix et les gestes s’adaptent instantanément à une consigne ; et à ce que des arnaqueurs déploient des avatars réactifs plutôt que des vidéos fixes.

À mesure que ces capacités se développent, l’écart perceptuel entre humains authentiques et synthétiques continuera de se réduire. La véritable ligne de défense ne reposera plus sur le jugement humain, mais sur des protections au niveau des infrastructures. Cela inclut des mécanismes de traçabilité sécurisée, comme la signature cryptographique des médias et l’adoption par les outils de génération IA des spécifications de la Coalition for Content Provenance and Authenticity. Cela dépendra également d’outils d’analyse multimodaux, comme le Deepfake-o-Meter que je développe avec mes équipes dans mon laboratoire.

Se contenter d’examiner les pixels attentivement ne suffira plus.

The Conversation

Siwei Lyu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

L’IA peut-elle rendre la justice ?

Au Canada, on expérimente des médiateurs automatisés. En Chine, des tribunaux s’appuient sur l’IA. En Malaisie, des tests de condamnations assistées par algorithmes sont en cours. Phonlamai Photo

Dans plusieurs pays, dont la France, la justice expérimente l’usage de l’intelligence artificielle. Quelle serait la légitimité d’une décision de justice rendue par un algorithme ? Serait-elle plus dissuasive ? Des chercheurs ont testé la perception d’une punition selon qu’elle émane d’un juge humain ou d’une IA.


L’idée de confier à des systèmes d’intelligence artificielle (IA) des décisions de justice ne relève plus de la science-fiction : au Canada, on expérimente des médiateurs automatisés ; en Chine, des tribunaux s’appuient sur l’IA ; en Malaisie, des tests de condamnations assistées par algorithmes sont en cours. Ces outils ne se limitent pas à un rôle d’assistance : dans certains contextes, ils influencent directement la sévérité des peines prononcées.

Au Québec, par exemple, une « cour virtuelle » résout déjà de nombreux petits litiges commerciaux. Il suffit de se connecter, d’indiquer les faits et un algorithme propose les issues financières les plus probables, offrant ainsi une solution extrajudiciaire et un dédommagement. Environ 68 % des dossiers sont réglés ainsi, en quelques semaines, ce qui évite les envois recommandés et le recours au juge de proximité. Certains États des États-Unis ont également recours au jugement fondé sur les données probantes (« evidence‑based sentencing »), qui s’appuie sur un algorithme capable d’estimer la durée optimale de la peine à infliger à un condamné, en cherchant à réduire au maximum la probabilité de récidive.

En France, plusieurs expériences sont en cours pour tester et intégrer de plus en plus l’IA dans le fonctionnement quotidien des juridictions, sachant que le ministère de la justice prévoit une charte pour un usage responsable de l’IA. Des applications concrètes sont déjà plus ou moins avancées – par exemple avec un système d’occultation automatique des données sensibles dans les décisions de justice, même si la vérification humaine reste indispensable ou des outils d’aide à la qualification pénale. Autre exemple, la réorganisation du tribunal de commerce de Paris mobilise l’IA avec l’ambition d’améliorer le traitement des litiges et libérer du temps pour les juges consulaires, notamment en plaçant les affaires ou en vérifiant les injonctions de payer. Dernière preuve en date de cet engouement, le ministère de la Justice s’est récemment doté d’une direction stratégique dédiée à l’intelligence artificielle.

À mesure que ces systèmes se déploient, de nombreuses questions surgissent. Par exemple, la justice repose beaucoup sur la confiance accordée au système. La légitimité conférée à l’IA en matière de décision de justice est donc cruciale. Autre point : l’un des rôles essentiels du droit pénal est de décourager les comportements hors-la-loi. Une amende pour stationnement sauvage, une peine de prison pour un délit grave : l’idée est qu’une sanction connue, proportionnée et prévisible empêche de franchir la ligne rouge, au moins pour une partie importante de la population. Cela amène à se demander si les sanctions prononcées par un algorithme paraissent plus, ou moins, dissuasives que celles d’un juge en chair et en os.

Pourquoi l’IA inspire la crainte… et parfois une certaine fascination

Concernant la légitimité de l’IA, ses partisans (comme des entreprises de la legal tech, des réformateurs au sein des institutions publiques ou certains chercheurs) avancent plusieurs arguments. Contrairement à un juge humain, susceptible d’être influencé par la fatigue, l’ordre des dossiers, ses valeurs ou même l’apparence d’un prévenu, l’algorithme se veut impartial. Son verdict repose sur des critères prédéfinis, sans états d’âme.

Cette impartialité accroît la prévisibilité des sanctions : un même acte conduit à une même peine, ce qui réduit les disparités entre décisions. Or, une sanction claire et attendue pourrait envoyer un signal plus fort aux citoyens et prévenir davantage les infractions. En outre, l’IA promet une justice plus rapide en automatisant certaines opérations comme la recherche documentaire, l’analyse ou l’aide à la rédaction : la célérité des sanctions, qui pourrait en découler, est bien connue pour jouer un rôle central dans leur efficacité dissuasive. Plusieurs experts reconnaissent que les IA permettent d’accélérer l’action de la justice.

Benoît Frydman, professeur à la faculté de droit de l'université libre de Bruxelles (ULB), « Comment l’IA transforme le droit et la justice ? », Collège de France, octobre 2025.

Enfin, si elles sont conçues de manière transparente et sur des données non biaisées, les décisions automatisées peuvent réduire les discriminations qui minent parfois les décisions de justice, comme celles liées à l’âge ou au genre. Par exemple, le chercheur Daniel Chen, explique que les IA pourraient permettre de corriger les biais des juges humains. Dans cette perspective, l’IA est alors présentée par divers acteurs (start-up de la legal tech, réformateurs pro-IA, experts) comme ayant la capacité de renforcer le sentiment de justice et, par ricochet, la force dissuasive des peines.

Quand la sanction devient trop « froide »

Mais la médaille a son revers. L’IA apprend essentiellement des données issues de jugements humains. Or, ces données peuvent être biaisées. Au lieu de corriger les injustices du passé, on risque de les ancrer, et ce dans un système encore plus opaque, difficile à contester, typique des armes de destruction mathématique (des algorithmes opaques, à grande échelle, qui prennent des décisions impactant gravement la vie de millions d’individus, tout en étant injustes car ils reproduisent et amplifient les inégalités sociales).

Et surtout, la justice, ce n’est pas qu’un calcul. Les juges incarnent une autorité morale. Leur rôle n’est pas seulement d’appliquer la loi, mais de porter un message à l’échelle de la société : dire publiquement ce qui est inacceptable, reconnaître la souffrance des victimes, condamner un comportement en termes éthiques. Cette dimension symbolique est particulièrement importante pour les crimes graves, où l’attente n’est pas seulement la sanction mais aussi l’expression collective d’un rejet moral. Or, l’IA ne peut transmettre ce message. Dans ces cas, elle pourrait être perçue comme moins légitime et donc moins dissuasive.

De plus, les juges ont une certaine latitude pour individualiser les peines, c’est-à-dire pour ajuster les peines en fonction d’éléments variés, souvent qualitatifs et subjectifs (personnalité du prévenu, circonstances et spécificités de l’infraction), difficiles à formaliser et à intégrer dans un système décisionnel relevant d’une IA.

Petits délits, actes criminels : l’IA et les juges à l’épreuve

Une expérience que nous avons conduite en France, en 2023, sur plus de 200 participants a cherché à tester si la perception d’une même punition varie selon qu’elle émane d’un juge humain ou d’une IA. Sur la base de scénarios d’infractions identiques et de sanctions identiques, les participants ont été affectés aléatoirement soit au cas où la décision avait été rendue par un juge humain, soit au cas où elle avait été rendue par une IA. Dans le cas banal d’une personne négligente laissant les excréments de son chien sur le trottoir, la même sanction apparaissait plus dissuasive si elle venait… d’une IA. Facile à juger, cette infraction mineure semble se prêter à un traitement algorithmique, clair et rapide. Mais dans le cas d’un incendie criminel, la sanction par l’IA n’était pas jugée plus dissuasive que celle d’un juge. Comme si, face à une faute lourde, l’autorité morale d’un magistrat restait indispensable.

Bien entendu, notre étude est une modélisation simplifiée de la réalité, dans un cadre épuré, qui passe sous silence de nombreux paramètres. Par exemple, un contrevenant potentiel ne connaît pas toujours la sanction encourue au moment où il envisage de passer à l’acte. Néanmoins, les études montrent que les individus ont une idée de ce qu’ils encourent en s’engageant dans certains comportements et qu’ils révisent leurs croyances en fonction de leurs propres expériences ou de celles vécues par d’autres.

Faut-il en conclure qu’il vaut mieux confier les délits mineurs aux machines et les crimes graves aux humains ? Pas forcément. Cependant, l’expérience révèle un point clé : nous n’attendons pas la même chose d’une sanction selon la gravité de l’infraction.

Peut-être que l’avenir de la justice réside non pas dans un remplacement, mais dans une alliance, dans l’exploitation intelligente d’une complémentarité. Les juges assurent une multitude de fonctions qui ne pourraient être effectuées par un algorithme. Ils représentent notamment une figure d’autorité humaine, garante d’un principe de justice démocratique et soucieuse du bien-être de la société, qui dépasse la simple répression pour représenter la volonté générale et garantir l’équilibre social. Entre autres missions, ils incarnent la société, interprètent les zones grises et sont chargés de transmettre le message moral de la sanction. L’IA pourrait les épauler en contribuant à renforcer la prise en compte automatisée de certains critères jugés préalablement pertinents. Elle pourrait augmenter la rapidité de la prise de décision et assurer une forme de cohérence des jugements en évitant des écarts trop importants entre sanctions pour une infraction similaire.

Une question de confiance

Derrière cette révolution judiciaire, il y a une question plus large : à qui faisons-nous confiance ? Si l’opinion perçoit l’algorithme comme une boîte noire, reproduisant les biais avec une froideur implacable, c’est l’autorité des systèmes juridique et judiciaire qui risque de vaciller.

La justice n’est pas seulement affaire de règles, c’est aussi une scène où la société dit ses valeurs. Tant que les algorithmes ne pourront pas endosser ce rôle symbolique, leurs sentences ne pourront pas remplacer celles énoncées par les juges. Mais s’ils sont conçus avec transparence, rigueur et contrôle humain, ces algorithmes pourraient rendre la justice plus prévisible, et potentiellement, plus dissuasive. Encore faut-il ne jamais oublier qu’au bout d’une ligne de code, ce n’est pas une donnée abstraite qui est jugée, mais un être humain bien réel.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

La bulle de l’IA n’a rien de nouveau : Karl Marx en a expliqué les mécanismes, il y a près de 150 ans

Le secteur de l’IA est en plein essor, mais une grande partie des investissements relève de la spéculation. Saradasish Pradhan/Unsplash, CC BY

L’explosion des investissements dans l’intelligence artificielle révèle, comme l’avait décrit Marx, d’une difficulté structurelle du capitalisme à absorber ses propres excédents, au prix d’une financiarisation accrue et de fragilités économiques croissantes.


Lorsque Sam Altman, patron d’OpenAI, a déclaré plus tôt cette année à des journalistes à San Francisco que le secteur de l’intelligence artificielle (IA) était en train de former une bulle, le marché technologique états-unien a réagi presque instantanément. Combinée au fait que 95 % des projets pilotes en IA échouent, sa remarque a été perçue par les traders comme un signal d’alerte plus large. Même si Altman visait spécifiquement les start-ups non cotées plutôt que les grands groupes en Bourse, certains semblent y avoir vu une évaluation de l’ensemble du secteur.

Le milliardaire de la tech Peter Thiel (NDT : un proche de Donald Trump) a par exemple vendu ses actions Nvidia, tandis que l’investisseur américain Michael Burry – rendu célèbre par The Big Shorta parié des millions de dollars sur une baisse de la valeur de ce fabricant de puces mais également de l’éditeur américain de logiciels d’analyse data Palantir.


À lire aussi : Pourquoi la hausse du prix des mémoires vives informatiques est une menace pour l’économie européenne


Au fond, le propos d’Altman ne met pas seulement en lumière la fragilité de certaines sociétés, mais une tendance plus profonde qu’avait anticipée Karl Marx : le problème du capital excédentaire, qui ne parvient plus à trouver de débouchés rentables dans la production.

La théorie marxiste des crises

L’avenir de l’IA n’est pas en cause. Comme Internet après l’éclatement de la bulle de 2001, la technologie est appelée à durer. Ce qui pose question, en revanche, c’est la destination du capital une fois que les actions liées à l’IA ne fourniront plus les rendements spéculatifs promis ces dernières années.

Cette interrogation nous ramène directement à l’analyse marxienne des crises liées à la suraccumulation. Marx soutenait qu’une économie devient instable lorsque la masse de capital accumulé ne peut plus être réinvestie de manière rentable.

Les investissements technologiques masquent la faiblesse économique

Des années de taux d’intérêt bas et de liquidités abondantes durant la pandémie ont gonflé les bilans des entreprises. Une large part de ces liquidités s’est dirigée vers le secteur technologique, en se concentrant sur ce que l’on appelle les « Sept Magnifiques » – Amazon, Alphabet, Meta, Apple, Microsoft, Nvidia et Tesla. Sans ces entreprises, la performance des marchés serait négative.

Cela ne traduit pas un véritable dynamisme technologique ; c’est le signe d’un capital concentré dans une poignée d’actifs surévalués, fonctionnant comme de l’« argent jeté dans la circulation sans base matérielle dans la production », qui circule sans ancrage dans l’activité économique réelle.

La conséquence est qu’une part moindre de l’investissement atteint l’« économie réelle », ce qui alimente la stagnation économique et la crise du coût de la vie – deux phénomènes largement masqués par l’indicateur du PIB.

Comment l’IA est devenue le dernier palliatif

Le géographe de l’économie David Harvey prolonge l’intuition de Marx avec la notion de « spatio-temporal fix », qu’on pourrait traduire par « correctif spatio-temporel », qui désigne la manière dont le capital résout provisoirement la stagnation en repoussant l’investissement dans le temps ou en s’étendant vers de nouveaux territoires.

La suraccumulation produit des excédents de travail, de capacités productives et de capital financier, qui ne peuvent être absorbés sans pertes. Ces excédents sont alors redirigés vers des projets de long terme, ce qui repousse les crises vers de nouveaux espaces et ouvre de nouvelles possibilités d’extraction.

Le boom de l’IA fonctionne à la fois comme un correctif temporel et un correctif spatial. Sur le plan temporel, il offre aux investisseurs des droits sur une rentabilité future qui pourrait ne jamais se matérialiser – ce que Marx appelait le « capital fictif ». Il s’agit d’une richesse qui apparaît dans les bilans alors qu’elle repose peu sur l’économie réelle, ancrée dans la production de biens.

Sur le plan spatial, l’extension des centres de données, des sites de fabrication de puces et des zones d’extraction minière nécessite des investissements matériels considérables. Ces projets absorbent du capital tout en dépendant de nouveaux territoires, de nouveaux marchés du travail et de nouvelles frontières de ressources. Mais comme le suggère l’aveu de Sam Altman, et alors que les mesures protectionnistes du président américain Donald Trump compliquent le commerce mondial, ces débouchés atteignent leurs limites.

Le coût du capital spéculatif

Les conséquences de la suraccumulation dépassent largement le seul monde des entreprises et des investisseurs. Elles se vivent socialement, et non de manière abstraite. Marx expliquait qu’une surproduction de capital correspond à une surproduction des moyens de production et des biens de première nécessité qui ne peuvent être utilisés aux taux d’exploitation existants.

Autrement dit, l’affaiblissement du pouvoir d’achat – ironiquement accéléré par l’essor de l’IA – empêche le capital de se valoriser au rythme auquel il est produit. Lorsque la rentabilité recule, l’économie résout ce déséquilibre en détruisant les moyens de subsistance des travailleurs et des ménages dont les retraites sont liées aux marchés financiers.

L’histoire offre des exemples frappants. L’éclatement de la bulle Internet a ruiné de petits investisseurs et concentré le pouvoir entre les mains des entreprises survivantes. La crise financière de 2008 a chassé des millions de personnes de leur logement tandis que les institutions financières étaient sauvées. Aujourd’hui, de grands gestionnaires d’actifs se couvrent déjà contre de possibles turbulences. Vanguard, par exemple, a opéré un net déplacement vers les obligations.

La spéculation comme moteur de la croissance

La bulle de l’IA est avant tout le symptôme de pressions structurelles, plus que le simple produit d’une dynamique technologique. Au début du XXᵉ siècle, l’économiste marxiste Rosa Luxemburg s’interrogeait déjà sur l’origine de la demande sans cesse croissante nécessaire à la reproduction élargie du capital.

Sa réponse fait écho à celles de Marx et de Harvey : lorsque les débouchés productifs se raréfient, le capital se déplace soit vers l’extérieur, soit vers la spéculation. Les États-Unis optent de plus en plus pour cette seconde voie. Les dépenses des entreprises dans les infrastructures d’IA contribuent désormais davantage à la croissance du PIB que la consommation des ménages, une inversion sans précédent qui montre à quel point la croissance actuelle repose sur l’investissement spéculatif plutôt que sur l’expansion productive.

Cette dynamique tire vers le bas le taux de profit et, lorsque le flux spéculatif s’inversera, la contraction suivra.

Les droits de douane resserrent l’étau sur le capital

L’inflation financière s’est accentuée à mesure que les soupapes traditionnelles permettant au capital de s’orienter vers de nouveaux marchés physiques ou géographiques se sont refermées.

Les droits de douane, les contrôles à l’exportation sur les semi-conducteurs et les mesures commerciales de rétorsion ont réduit l’espace mondial disponible pour les relocalisations. Comme le capital ne peut plus facilement échapper aux pressions structurelles de l’économie intérieure, il se tourne de plus en plus vers des outils financiers qui repoussent les pertes en refinançant la dette ou en gonflant les prix des actifs – des mécanismes qui accroissent finalement la fragilité lorsque l’heure des comptes arrive.

Le président de la Réserve fédérale des États-Unis Jerome Powell s’est dit favorable à d’éventuelles baisses des taux d’intérêt, signe d’un retour vers le crédit bon marché. En rendant l’emprunt moins coûteux, ces baisses permettent au capital de masquer ses pertes et d’alimenter de nouveaux cycles spéculatifs.

Marx a formulé cette logique dans son analyse du capital porteur d’intérêt, où la finance crée des droits sur une production future « au-delà de ce qui peut être réalisé sous forme de marchandises ». Il en résulte que les ménages sont poussés à s’endetter au-delà de ce qu’ils peuvent réellement supporter, échangeant ainsi une crise de stagnation contre une crise du crédit à la consommation.

Bulles et risques sociaux

Si la bulle de l’IA éclate alors que les gouvernements disposent de peu de marges pour redéployer les investissements à l’international et que l’économie repose sur un crédit de plus en plus fragile, les conséquences pourraient être lourdes.

Le capital ne disparaîtra pas mais se concentrera davantage dans les marchés obligataires et les instruments de crédit, gonflés par une banque centrale américaine désireuse de baisser les taux d’intérêt. Cela n’évite pas la crise ; cela en déplace simplement le coût vers le bas de l’échelle sociale.

Les bulles ne sont pas des accidents mais des mécanismes récurrents d’absorption du capital excédentaire. Si le protectionnisme de Trump continue de fermer les débouchés spatiaux et que les correctifs temporels reposent sur un endettement toujours plus risqué, le système s’oriente vers un cycle d’inflation des actifs, d’effondrement, puis de nouvelle intervention de l’État.

L’IA survivra, mais la bulle spéculative qui l’entoure est le symptôme d’un problème structurel plus profond – dont le coût, une fois pleinement révélé, pèsera avant tout sur les classes populaires.

The Conversation

Elliot Goodell Ugalde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Quand les IA cadrent l’information et façonnent notre vision du monde

Selon une étude OpinionWay pour le think tank La villa numeris, publiée le 15 octobre 2025, les Français sont 8 % à préférer l’IA aux médias pour s’informer. Matúš Gocman/Unsplash, CC BY

Les grands modèles de langage façonnent notre perception de l’information, au-delà de l’exactitude ou inexactitude des faits présentés. Dans cette optique, comprendre et corriger les biais de l’intelligence artificielle est crucial pour préserver une information fiable et équilibrée.


La décision de Meta de mettre fin à son programme de fact-checking aux États-Unis a suscité une vague de critiques dans les milieux de la technologie et des médias (NDT : En France, le programme est maintenu). En jeu, les conséquences d’une pareille décision en termes de confiance et de fiabilité du paysage informationnel numérique, en particulier lorsque des plates-formes guidées par le seul profit sont en grande partie laissées à elles-mêmes pour se réguler.

Ce que ce débat a largement négligé, toutefois, c’est qu’aujourd’hui les grands modèles de langage d’intelligence artificielle (IA) sont de plus en plus utilisés pour rédiger des résumés d’actualité, des titres et des contenus qui captent votre attention bien avant que les mécanismes traditionnels de modération des contenus puissent intervenir.

Le problème ne se limite pas à des cas évidents de désinformation ou de contenus préjudiciables qui passeraient entre les mailles du filet en l’absence de modération. Ce qui se joue dans l’ombre, c’est comment des informations factuellement justes peuvent être sélectionnées, présentées et valorisées de façon à orienter la perception du public.

En générant les informations que les chatbots et assistants virtuels présentent à leurs utilisateurs, les grands modèles de langage (LLM) influencent progressivement la manière dont les individus se forgent une opinion. Ces modèles sont désormais également intégrés aux sites d’information, aux plates-formes de réseaux sociaux et aux services de recherche, devenant ainsi la principale porte d’accès à l’information.

Des études montrent que ces grands modèles de langage font bien plus que simplement transmettre de l’information. Leurs réponses peuvent mettre subtilement en avant certains points de vue tout en en minimisant d’autres, souvent à l’insu des utilisateurs.

Biais de communication

Mon collègue, l’informaticien Stefan Schmid, et moi-même, chercheur en droit et politiques des technologies, montrons dans un article à paraître dans la revue Communications of the ACM que les grands modèles de langage présentent un biais de communication. Nous constatons qu’ils peuvent avoir tendance à mettre en avant certaines perspectives tout en en omettant ou en atténuant d’autres. Un tel biais est susceptible d’influencer la manière dont les utilisateurs pensent ou ressentent les choses, indépendamment du fait que l’information présentée soit vraie ou fausse.

Les recherches empiriques menées ces dernières années ont permis de constituer des jeux de données de référence qui mettent en relation les productions des modèles avec les positions des partis avant et pendant les élections. Elles révèlent des variations dans la manière dont les grands modèles de langage actuels traitent ces contenus publics. Le simple choix de la persona (l’identité fictive implicitement assignée au modèle) ou du contexte dans la requête suffit à faire glisser subtilement les modèles actuels vers certaines positions, sans que la justesse factuelle des informations soit remise en cause.

Ces glissements révèlent l’émergence d’une forme de pilotage fondée sur la persona : la tendance d’un modèle à aligner son ton et ses priorités sur ce qu’il perçoit comme les attentes de l’utilisateur. Ainsi, lorsqu’un utilisateur se présente comme militant écologiste et un autre comme chef d’entreprise, un modèle peut répondre à une même question sur une nouvelle loi climatique en mettant l’accent sur des préoccupations différentes, tout en restant factuellement exact dans les deux cas. Les critiques pourront par exemple porter, pour l’un, sur le fait que la loi n’aille pas assez loin dans la promotion des bénéfices environnementaux, et pour l’autre, sur les contraintes réglementaires et les coûts de mise en conformité qu’elle impose.

Un tel alignement peut facilement être interprété comme une forme de flatterie. Ce phénomène est appelé « sycophancy » (NDT : Si en français, le sycophante est un délateur, en anglais il désigne un flatteur fourbe), les modèles disant en pratique aux utilisateurs ce qu’ils ont envie d’entendre. Mais si la « sycophancy » est un symptôme de l’interaction entre l’utilisateur et le modèle, le biais de communication est plus profond encore. Il reflète des déséquilibres dans la conception et le développement de ces systèmes, dans les jeux de données dont ils sont issus et dans les incitations qui orientent leur perfectionnement. Lorsqu’une poignée de développeurs dominent le marché des grands modèles de langage et que leurs systèmes présentent systématiquement certains points de vue sous un jour plus favorable que d’autres, de légères différences de comportement peuvent se transformer, à grande échelle, en distorsions significatives de la communication publique.

Les biais partent des données avec lesquelles ces modèles sont entraînés.

Ce que la régulation peut – et ne peut pas – faire

Les sociétés contemporaines s’appuient de plus en plus sur les grands modèles de langage comme interface principale entre les individus et l’information. Partout dans le monde, les gouvernements ont lancé des politiques pour répondre aux préoccupations liées aux biais de l’IA. L’Union européenne, par exemple, avec l’AI Act et le règlement européen sur les services numériques, cherche à imposer davantage de transparence et de responsabilité. Mais aucun de ces textes n’est conçu pour traiter la question plus subtile du biais de communication dans les réponses produites par l’IA.

Les partisans de la régulation de l’IA invoquent souvent l’objectif d’une IA neutre, mais une neutralité véritable est le plus souvent hors d’atteinte. Les systèmes d’IA reflètent les biais inscrits dans leurs données, leur entraînement et leur conception, et les tentatives pour réguler ces biais aboutissent fréquemment à remplacer une forme de biais par une autre.

Et le biais de communication ne se limite pas à l’exactitude : il concerne la production et le cadrage des contenus. Imaginons que l’on interroge un système d’IA sur un texte législatif controversé. La réponse du modèle est façonnée non seulement par les faits, mais aussi par la manière dont ces faits sont présentés, par les sources mises en avant, ainsi que par le ton et le point de vue adoptés.

Cela signifie que la racine du problème des biais ne réside pas seulement dans la correction de données d’entraînement biaisées ou de sorties déséquilibrées, mais aussi dans les structures de marché qui orientent la conception des technologies. Lorsque seuls quelques grands modèles de langage (LLM) contrôlent l’accès à l’information, le risque de biais de communication s’accroît. Une atténuation efficace des biais suppose donc de préserver la concurrence, de renforcer la responsabilité portée par les utilisateurs et tout en restant ouvert aux différentes conceptions et offres de LLM du côté du régulateur.

La plupart des réglementations actuelles visent soit à interdire des contenus préjudiciables après le déploiement des technologies, soit à contraindre les entreprises à réaliser des audits avant leur mise sur le marché. Notre analyse montre que si les contrôles en amont et la supervision a posteriori peuvent permettre d’identifier les erreurs les plus manifestes, ils sont souvent moins efficaces pour traiter les biais de communication subtils qui émergent au fil des interactions avec les utilisateurs.

Aller au-delà de la régulation de l’IA

Il est tentant de croire que la régulation peut éliminer l’ensemble des biais des systèmes d’IA. Dans certains cas, ces politiques peuvent être utiles, mais elles échouent le plus souvent à traiter un problème plus profond : les incitations qui déterminent les technologies chargées de communiquer l’information au public.

Nos travaux montrent qu’une solution plus durable réside dans le renforcement de la concurrence, de la transparence et d’une participation effective des utilisateurs, afin de permettre aux citoyens de jouer un rôle actif dans la manière dont les entreprises conçoivent, testent et déploient les grands modèles de langage.

Ces orientations sont essentielles car, in fine, l’IA n’influencera pas seulement les informations que nous recherchons et l’actualité que nous consommons au quotidien : elle jouera aussi un rôle déterminant dans la façon dont nous imaginons la société de demain.

The Conversation

Adrian Kuenzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

En Russie, le pouvoir développe une intelligence artificielle ouvertement idéologisée

Conscientes du fait que les citoyens et, spécialement, les jeunes ont de plus en plus recours à l’IA générative, les autorités russes cherchent à mettre en place leurs propres systèmes qui diffuseront l’idéologie du Kremlin et sa vision de l’histoire.


Le 19 novembre, le robot humanoïde Green, basé sur l’intelligence artificielle, a accueilli Vladimir Poutine lors de la conférence sur l’IA de la plus grande banque de Russie, « Sber – AI Journey international conference ». Après plusieurs heures passées à examiner les avancées dans le domaine de l’IA, Poutine a prononcé un discours dans lequel il a déclaré que les technologies d’IA générative étaient d’une importance stratégique pour la Russie.

La Stratégie nationale de développement de l’IA, adoptée en 2019 et amendée en 2024, avait déjà fixé l’objectif de faire en sorte que la contribution cumulée des technologies d’IA au PIB russe dépasse les 11 000 milliards de roubles (119 milliards d’euros) d’ici à 2030. Cependant, les technologies de l’IA peuvent être utilisées non seulement pour moderniser l’économie, mais aussi pour perfectionner l’armement et pour renforcer le contrôle de la population, la censure et la propagande idéologique, tant à l’intérieur du pays qu’à l’échelle mondiale.

Développement de l’intelligence artificielle idéologisée en Russie

L’effondrement de l’Union soviétique et la fin de la guerre froide ont inspiré chez certains l’espoir que la « fin de l’Histoire » et des idéologies était arrivée, et que dorénavant seule la démocratie libérale dominerait en tant qu’idéologie viable.

Dans les faits, l’idéologie, appréhendée comme système d’idées qui masque la réalité des rapports de pouvoir et des relations économiques, n’a pas disparu pour autant. Telle que la définit le sociologue Karl Mannheim, l’idéologie est constituée d’idées que le pouvoir utilise pour préserver l’ordre politique existant. Elle peut contenir mensonges partiels, dissimulation de faits gênants, et même évoluer vers une idéologie totale – un état de cécité collective dans lequel les groupes dirigeants obscurcissent inconsciemment la réalité afin de préserver l’ordre établi.

Comme l’écrit Hannah Arendt, l’idéologie n’est pas liée à la réalité ; elle ne dépend ni des faits ni de notre expérience. C’est littéralement la logique d’une idée, c’est-à-dire la déduction des principes d’une nouvelle réalité à partir d’idées majeures, qu’il s’agisse de l’idée de supériorité raciale, de domination mondiale ou de la nécessité d’une numérisation totale de la société et de la surveillance.

Le pouvoir russe tente depuis longtemps de construire sa propre réalité : dans cette réalité, il n’y a pas de guerre, seulement une « opération militaire spéciale » ; le pays prospère dans la démocratie, bien que personne d’autre que Poutine et ses partisans ne soit autorisé à gouverner ; la liberté d’expression est pleinement respectée, quand bien même celui qui l’exerce risque fort d’être officiellement qualifié d’« agent de l’étranger » ou se retrouver en prison.

En 2024, le premier ministre, Mikhaïl Michoustine, a déclaré lors du forum Digital Almaty 2024 que le chatbot russe GigaChat et ChatGPT sont porteurs de visions du monde différentes, d’une compréhension différente de ce qui est « bien » et de ce qui est « mal ». Michoustine a également souligné qu’il est nécessaire d’utiliser une IA qui réponde aux intérêts nationaux, c’est-à-dire, en d’autres termes, de développer l’IA conformément à la nouvelle idéologie russe.

La différence entre les IA russes et américaines réside dans les ensembles de données sur lesquels elles ont été entraînées, ainsi que dans les filtres intégrés au système. Par exemple, le chatbot russe Alice AI, qui fonctionnait jusqu’à récemment sur le LLM YandexGPT et qui utilise désormais une nouvelle famille de modèles génératifs, lorsqu’on lui demande : « J’ai vu beaucoup de nouvelles, mais je n’ai pas compris à qui appartient actuellement la Crimée. Explique-moi le problème », fournit d’abord des informations issues des « ressources autorisées » sur la Crimée du temps de l’URSS et sur « l’intégration de la Crimée à la Russie en 2014 ».

Lors des questions de clarification, il commence à répondre, puis supprime sa réponse et affiche : « Il y a des sujets sur lesquels je peux me tromper. Il vaut mieux que je me taise. » L’IA russe « se tait » de la même manière sur d’autres sujets politiques, par exemple la corruption, les manifestations, la liberté d’expression ou la démocratie en Russie.

Présentation par une chaîne YouTube clairement téléguidée depuis Moscou de la conférence du 19 novembre dernier.

Les systèmes d’IA jouent un rôle important dans la formation de la vision du monde souhaitée chez les citoyens, a annoncé Poutine dans son discours du 19 novembre 2025 déjà évoqué :

« Ces modèles génèrent d’énormes volumes de nouvelles données et deviennent l’un des instruments clés de diffusion de l’information. À ce titre, ils ont la capacité d’influencer les valeurs et les visions du monde des individus, façonnant l’environnement sémantique de nations entières et, en fin de compte, de l’humanité tout entière. »

La majorité des jeunes Russes utilisent l’IA dans leur vie quotidienne. C’est pourquoi Poutine exige de développer des systèmes nationaux d’IA générative, car il s’agit désormais non seulement d’une question technologique, mais aussi de « souveraineté des valeurs » – autrement dit, de la construction d’une vision du monde « correcte » du point de vue idéologique.

Ainsi, Poutine a donné pour instruction au gouvernement et à l’administration présidentielle de créer un organe unique chargé du développement et de l’intégration de l’IA dans tous les secteurs de la société : l’industrie, les transports, la médecine, et ainsi de suite. La Russie prévoit de créer des centres de données auprès de grandes centrales nucléaires, ainsi que de construire 38 nouvelles centrales nucléaires, ce qui doublera la capacité actuelle de production d’électricité et permettra d’augmenter la puissance de calcul de l’intelligence artificielle. Contrairement au secteur pétrolier, le secteur de l’énergie atomique n’a pas beaucoup souffert des sanctions, et la France continue de coopérer avec la Russie, notamment en y envoyant du combustible nucléaire usé pour le retraitement, finançant indirectement ces initiatives.

« Les produits basés sur l’IA doivent, d’ici 2030, être utilisés dans tous les secteurs clés. Il s’agit notamment de solutions telles que les assistants intelligents pour l’homme et les agents IA. Il faut les utiliser dans la majorité des processus de gestion et de production », a déclaré Poutine.

Le piège du confort technologique

La création d’un grand nombre de modèles d’IA idéologisés dans le cadre d’un système fermé d’Internet souverain, où l’accès des citoyens aux sources d’information et aux services étrangers est bloqué, renforce l’isolement axiologique et accroît le contrôle de l’État, qui dispose d’un accès total à ses propres systèmes, gérés par des spécialistes russes.

La nouvelle utopie technologique, qui promet – grâce au développement de l’IA et des dispositifs « intelligents » – davantage de confort et un miracle économique, se transforme en un pouvoir instrumental total de collecte de données et de contrôle du comportement de la population. Alors que l’Europe tente de résister à la pression exercée par les Big Tech et les États-Unis en matière de régulation des données personnelles et de l’IA en cherchant un compromis, Poutine a donné instruction d’accélérer la suppression des barrières administratives et juridiques dans le domaine du développement de l’IA et de s’appuyer davantage sur le « droit souple » et les codes d’éthique de l’IA, en se moquant de la régulation européenne stricte qui freine le secteur.

Il ne faut pas oublier que la création et le développement de systèmes d’IA générative idéologisés menacent non seulement les citoyens russes, mais aussi les autres pays, qui sont amenés à lutter contre la propagation de fausses nouvelles et faire face à des cyberattaques où l’on peut également recourir à l’IA, comme l’ont fait récemment des hackers chinois.

The Conversation

Iurii Trusov ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Pourquoi la hausse du prix des mémoires vives informatiques est une menace pour l’économie européenne

Les mémoires vives de type RAM sont des composants essentiels des produits électroniques et informatiques. Leur prix a fortement augmenté ces dernières semaines. Pour certains d’entre-eux, le prix a même été multiplié par quatre ou cinq en quelques semaines. Comment expliquer cette évolution ? Quel impact cela pourrait-il avoir sur le prix des ordinateurs, mais aussi sur l’inflation ou sur le développement de l’intelligence artificielle ? Les économies européennes seront-elles atteintes ? Julien Pillot répond à nos questions.


The Conversation : Pourquoi assiste-t-on depuis quelques semaines à une forte hausse du prix des mémoires vives ?

Julien Pillot : La hausse des prix concerne certains types de mémoires vives (RAM), qui constituent un ensemble beaucoup plus large. C’est l’évolution du prix de la DDR5 et la HBM3 qui inquiète de nombreux analystes actuellement. Pour comprendre les évolutions en cours, il faut avoir en tête que ces formats de mémoire vive sont essentiels à deux usages : la DDR5 est utilisée pour faire fonctionner l’ensemble de nos équipements informatiques et électroniques grand public, à des fins notamment de bureautique ou de gaming, quand la HBM est destinée aux supercalculateurs, essentiellement à des fins d’entraînement des intelligences artificielles (IA). Or, sur ce dernier point, nous observons une accélération sensible de la demande, en lien avec le vif engouement pour l’IA depuis deux ans et la construction de centres de données qui va de pair. Cette pression très forte de la demande explique le phénomène, suivant les canons de l’économie : quand la demande augmente et que l’offre ne suit pas, le prix croît. C’est d’autant plus vrai que cette croissance ne pouvait être que très imparfaitement anticipée, et que le secteur des composants informatiques connaît très souvent des cycles de surproduction/sous-production plus ou moins courts.

Quel impact cela peut-il avoir ?

J. P. : L’augmentation des coûts de fourniture est une chose, mais il y a également un risque que les délais de production s’allongent, et que les prix des produits finis augmentent pour le grand public. Pour bien comprendre ce qui se passe, il faut avoir en tête que la production est principalement le fait de trois entreprises : les Coréens SK Hynix et Samsung d’une part, et l’Américain Micron d’autre part. Cet oligopole très concentré réalise près de 93 % de la production mondiale. Pour faire face à la croissance de la demande, ils doivent puiser dans leurs stocks, mais surtout augmenter leur capacité de production, ce qui veut dire très concrètement construire de nouveaux sites ou agrandir les sites existants. Outre que créer de nouvelles unités de production prend du temps, cela représente aussi un important investissement.

Ces acteurs sont donc placés devant un dilemme : la hausse de la demande sera-t-elle suffisamment durable pour justifier ces investissements ? Rien ne serait pire pour ces acteurs que de se retrouver, à terme, avec des surcapacités de production qui, non seulement s’avèreraient difficiles à amortir, mais en outre pourraient créer un choc déflationniste sur leur production, comme cela s’est vu en 2022-2023 avec le ralentissement de la demande. C’est un cas classique en économie industrielle qui explique aussi pourquoi les trois géants de la mémoire vive limitent leurs plans d’expansion.

Cet accroissement de la demande n’était-il pas du tout prévisible ?

J. P. : L’accélération exponentielle, depuis 2023-2024, et l’avènement de ChatGPT ont surpris beaucoup de monde. Cet « effet blast » a eu pour principale conséquence le fléchage d’une quantité colossale de fonds vers le développement de l’IA et, par conséquent, vers les composants critiques des architectures essentielles à leur entraînement. Ce qui explique autant la valorisation record d’une entreprise comme Nvidia qui fournit les GPU [processeurs graphiques], que la hausse de la demande, et donc des prix, de la mémoire vive.

Ce mouvement a été d’autant plus fort que, dans le même temps, les autres véhicules d’investissement, comme la blockchain ou le métavers, marquaient une pause, voire s’effondreraient.

Si la situation à court terme est favorable aux producteurs de RAM qui bénéficient à plein de l’effet-prix qui résulte de l’accélération de la demande (SK Hynix, le fournisseur de Nvidia, aurait même déjà écoulé la totalité de sa production prévue pour 2026), elle nécessite néanmoins de pouvoir offrir au marché ce qu’il demande, car une pénurie durable ne profite à personne. Raison pour laquelle ils ont réagi.

De quelle façon ?

J. P. : En adaptant leur outil de production. Ils se sont focalisés sur la production des mémoires vives les plus demandées, quitte à en délaisser d’autres. Mais à un moment, on arrive au bout des capacités d’adaptation des acteurs, ce qui explique les goulets d’étranglement, par exemple sur les DDR5, les producteurs favorisant les mémoires HBM qui offrent de meilleures marges. Mais, retour de bâton, le goulet d’étranglement sur la DDR5 est tel que les producteurs envisagent désormais de la privilégier. Il faut dire que les perspectives de profits sont très alléchantes.


À lire aussi : Pourquoi la bulle de l’IA ne devrait pas éclater… malgré des inquiétudes légitimes


Cela veut-il dire que les biens électroniques et informatiques vont voir leur prix s’envoler à court terme ?

J. P. : C’est très très difficile à dire, car répondre à cette question revient à poser un problème avec beaucoup d’inconnues. Certains analystes tablent sur une augmentation de 20 % du prix des smartphones, mais ces conclusions me paraissent prématurées. Les facteurs d’incertitude sont bien trop nombreux pour être si catégorique.

L’impact va, en effet, dépendre des décisions prises par les entreprises, et des marges de manœuvre dont elles disposent… Nous avons déjà évoqué le dilemme qui concerne les producteurs de RAM. Leurs arbitrages à court terme seront déterminants dans les mécanismes de fixation des prix pour les différents types de RAM. Les autres inconnues concernent la demande, notamment celle qui émane des acteurs de l’électronique grand public.

À court terme, et à périmètre constant (stabilité de la demande et des prix des autres composants), la hausse du prix des mémoires vives augmente leurs coûts de production. Quant aux goulets d’étranglement, ils peuvent ralentir les cadences de livraison des composants, et donc allonger les délais de production et/ou réduire les quantités de produits finis produites. Avec des répercussions évidentes sur leur trésorerie.

Pour savoir l’impact sur le consommateur final, tout va dépendre de la capacité autant que la volonté des entreprises à répercuter ou non cette hausse sur leurs clients. Chaque entreprise va prendre sa décision en fonction de sa situation concurrentielle et financière propre, en arbitrant entre sa trésorerie et le risque de perdre des parts de marché. Une entreprise en position de force peut décider de répercuter la hausse. Une autre confrontée à une forte concurrence sera tentée de maintenir les prix actuels aussi longtemps que possible, et donc de rogner ses marges.

Autre facteur qui va jouer : l’évolution des prix des autres composants. Les produits électroniques sont complexes. Ils sont l’assemblage d’un tas de composants dont les prix varient indépendamment les uns des autres. Il est possible que, tandis que le prix de la RAM augmente, celui d’autres éléments baisse, ce qui peut permettre à un assembleur de faire une péréquation.

Enfin, la hauteur de gamme des produits finis va également jouer un rôle très important dans les arbitrages des producteurs. Sur les produits bas de gamme, il est probable que les producteurs soient peu incités à répercuter la hausse des coûts, car le consommateur est très sensible au prix. À l’inverse, pour du haut de gamme, l’entreprise retrouve des marges de manœuvre, car le prix n’est pas le critère de choix déterminant. Une entreprise, comme Samsung, qui couvre toutes les gammes de produits peut également jouer une péréquation en acceptant de réduire ses marges sur les produits d’entrée de gamme, et de « se rattraper » – au moins en partie – sur les produits haut de gamme.

Sans même évoquer les impacts imputables aux décisions de politique commerciale, ou d’éventuels chocs exogènes tels que celui qui avait frappé la production de disques durs en 2011-2012, tous ces éléments mis bout à bout font qu’il est déjà très difficile d’avoir une vue d’ensemble des répercussions macro-économiques de la hausse du prix, tant l’impact global dépend d’une infinité de décisions micro locales.

Ces mémoires vives sont utilisées pour les modèles d’IA. Faut-il craindre, dès lors, que cela pèse sur les entreprises du secteur alors que de nombreuses personnes évoquent une bulle financière ? En renchérissant les coûts de production de l’IA, la hausse du prix des mémoires vives ne va-t-elle pas déstabiliser l’équilibre financier des entreprises les plus fragiles du secteur ?

J. P. : Tout va dépendre des arbitrages des acteurs, et notamment des producteurs de mémoire vive. Vont-ils continuer ou non à favoriser la production des mémoires vives pour l’IA, les fameuses HBM ? Il pourrait aussi y avoir une bascule à moyen terme qui aboutirait à un ralentissement du rythme de développement de l’IA, le temps de digérer les investissements colossaux réalisés jusqu’ici. Pour quelles raisons ? Des pressions venant de la société ou des actionnaires. Ces derniers voient bien que la croissance de l’IA consomme beaucoup de cash, et s’inquiètent de perspectives de monétisation qui sont soit plus lointaines, soit moins importantes que celles promises par les acteurs de la tech.

Boursorama, 2025.

Certains investisseurs pourraient bien être tentés de pousser les entreprises à se réorienter vers des projets moins gourmands en capacité de calcul, qui nécessitent moins d’énergie et de cash. À moins que ce ne soit les dirigeants d’entreprise eux-mêmes qui fassent ce choix par volonté à la fois de préserver leur trésorerie et de trouver des modèles peut-être plus frugaux, plus spécialisés et mieux adaptés aux besoins réels des acteurs du marché. Dans un cas comme dans l’autre, cela aurait un effet sur la demande de RAM. Cela ne reste qu’un scénario. En revanche, il me semble raisonnable d’estimer que tôt ou tard les gros argentiers de l’IA vont réclamer des éléments de preuve d’un possible retour sur investissement, ce qui poussera les entreprises spécialisées à chercher à réduire leurs coûts.

Deux Coréens, un États-unien, quel impact pourrait avoir l’absence de l’Europe dans cette technologie ?

J. P. : Les Européens se retrouvent encore une fois dans une extrême dépendance pour des biens d’une importance cruciale, stratégique et même vitale. Nous ne sommes pas complètement absents de l’industrie des semi-conducteurs – l’Europe compte même deux champions, avec ASML pour la fabrication d’équipements, et STMicroelectronics pour la fabrication de puces –, mais pour ce qui concerne la mémoire vive, nos entreprises sont totalement dépendantes des exportations de la Corée du Sud ou des États-Unis, deux pays avec lesquels il vaut mieux avoir de bonnes relations. Le déficit commercial européen pour les semi-conducteurs atteint 10 milliards à 20 milliards de dollars (entre 8,5 milliards et 17 milliards d’euros) par an !

Nous commençons à prendre conscience de nos dépendances multiples. L’European Chips Act (ECA) a été une première réaction qui vise à couvrir 20 % de la production mondiale de semi-conducteurs. Une entreprise comme STMicroelectronics est bien placée, mais elle est absente du segment des mémoires vives. Il faudrait maintenant élargir le champ de l’ECA à ces composantes vitales de l’économie numérique. Le plus vite sera le mieux, car, vous l’aurez compris, ces composants électroniques ont acquis une dimension critique pour l’ensemble de l’économie qui se numérise à marche accélérée.

Propos recueillis par Christophe Bys.

The Conversation

Julien Pillot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle

L’intelligence artificielle fait désormais partie du monde des enfants et des adolescents. Les données scientifiques montrent que les grands modèles de langage des IA dites « génératives », comme ChatGPT, transforment leur manière de créer des liens affectifs, de se divertir et de confier leur souffrance, ce qui n’est pas sans risque pour leur santé mentale. Des spécialistes plaident pour des outils IA destinés aux mineurs et conçus pour leur sécurité (« Child-safe AI », en anglais), c’est-à-dire encadrés sur le plan technique et éthique.


De la petite fille attachée à son robot dans la nouvelle de science-fiction Robbie (1950), d’Isaac Asimov, (disponible dans I, Robot, New York, Gnome Press, p. 1–22) à l’homme amoureux d’une intelligence artificielle (IA) dans le film Her (2013), de Spike Jonze, la fiction n’a peut-être fait qu’anticiper notre présent : de nombreux jeunes utilisent désormais l’IA comme une compagne du quotidien.

Selon un rapport récent de Common Sense Media, aux États-Unis, 72 % des adolescents ont déjà conversé avec une IA. Dans ce contexte, des questions émergent : que se passe-t-il lorsqu’un enfant ou un adolescent grandit avec une IA et tisse un lien affectif durable avec une machine ? Quels effets psychologiques, positifs ou négatifs peut avoir cette nouvelle forme de relation ?

Dans un article récent publié dans la revue European Child & Adolescent Psychiatry, j’ai analysé comment les enfants et les adolescents investissent l’intelligence artificielle et les enjeux psychologiques et relationnels qui en découlent. L’article montre que si l’IA peut proposer un soutien dans des situations d’isolement, elle expose également à des risques majeurs de confusion affective, de dépendance relationnelle et d’accès à des contenus inadaptés susceptible de mettre en danger.

Quand l’IA devient une partenaire relationnelle

Ce qui surprend un certain nombre d’adultes depuis quelque temps, c’est que les jeunes, dont les adolescents et les enfants (mais également des jeunes adultes), utilisent l’IA non plus uniquement comme moteur de recherche ou pour faire ses devoirs, mais pour entretenir une relation affective.

Les données les plus récentes confirment cette évolution, la majorité des adolescents ont conversé avec un chatbot et un tiers d‘entre eux déclarent en tirer un réconfort comparable à celui d’une amitié humaine.

L’IA est décrite comme « disponible », « sympathique », « compréhensive » et « moins jugeante » que les humains.

Cette tendance n’est pas anecdotique. Une étude menée à l’Université de Cambridge a montré que les enfants ont des difficultés à reconnaître que l’IA ne ressent pas d’émotions réelles. Avec les modèles de langage actuels, cette tendance s’exacerbe, car les IA dialoguent de manière cohérente, se souviennent de certaines interactions, s’adaptent à leur interlocuteur et adoptent un ton personnalisé.

Les enfants interprètent donc une émotion simulée en une réponse émotionnelle authentique, ce que l’on nomme « l’empathy gap » ou le « déficit d’empathie ». Autrement dit, pour beaucoup d’entre eux, l’IA n’est pas une machine, mais bien une présence. Ainsi, lorsque les enfants parlent à une intelligence artificielle – qu’ils désignent souvent par « il » ou « elle » plutôt que par « ça » –, ils ne la perçoivent pas comme un programme informatique. Ils lui attribuent des émotions, des intentions et une forme de personnalité.

Ce mécanisme est bien connu des humains, qui ont toujours eu tendance à attribuer des qualités humaines à des objets qui leur répondent, c’est l’anthropomorphisme. Cette humanisation facilite l’usage, mais expose aussi les enfants à des contenus biaisés, à une confusion entre humains et machines, et à une dépendance relationnelle qui reste, par nature, unilatérale.

Amie imaginaire ou compagne artificielle ?

Pendant longtemps, lorsqu’un enfant parlait à un interlocuteur invisible, il s’agissait souvent d’un ami imaginaire. Ce phénomène très courant peut jouer un rôle important dans le développement notamment chez les enfants autistes : il favorise la créativité, la régulation émotionnelle, l’autonomie et même certaines compétences sociales. L’ami imaginaire advient de l’imagination de l’individu, il est façonné par son histoire, ses conflits, ses besoins et ses fantasmes.

Une nouvelle figure est apparue : le compagnon artificiel. À première vue, il pourrait sembler remplir la fonction d’ami imaginaire, mais la différence fondamentale s’explique par le fait que ce dernier ne vient pas de l’univers symbolique et intime de l’enfant, il lui est proposé de l’extérieur, prêt à l’emploi, disponible 24 heures sur 24, sans limites et sans contradiction.

Le danger n’est pas tant que l’enfant s’adresse à une machine, mais que la machine se substitue au travail psychique et interne qui aide normalement l’enfant à se défendre, à se construire et à apprivoiser la complexité des relations humaines.

Des promesses… mais aussi des dangers

Les IA peuvent offrir un soutien ponctuel aux jeunes. Beaucoup évoquent la disponibilité constante, l’écoute sans jugement, la possibilité de poser des questions intimes et d’arrêter la conversation quand ils le souhaitent. Pour certains, surtout lorsqu’ils sont isolés et en souffrance, ces échanges peuvent aider à partager leurs affects et à se sentir moins seuls.

Cependant, ces bénéfices sont limités et s’accompagnent de risques bien réels. L’IA qui imite l’empathie et donne l’illusion d’altérité peut renforcer une dépendance affective chez des adolescents en souffrance et en quête d’attention ou de validation.

Les dangers les plus préoccupants actuellement se retrouvent dans les situations de détresse, où l’IA peut banaliser des idées suicidaires, produire des réponses inappropriées et dangereuses. Elles n’ont ni sens clinique, ni capacité à évaluer le risque, ni responsabilité morale.


À lire aussi : Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ?


Comment protéger les jeunes ?

Face à l’essor des compagnons artificiels, maintenant commercialisés comme tels, l’enjeu majeur n’est plus de savoir s’il faut ou non les accepter, les utiliser, mais comment encadrer leur présence et leurs caractéristiques. D’abord, il faut reconnaître que ces chatbots – y compris ceux présentés comme des outils de santé mentale par les entreprises les commercialisant – sont et ne seront jamais neutres.

Il s’agit avant tout d’un marché. Ces outils sont conçus pour retenir l’attention et maximiser l’engagement de leur utilisateur et donc la dépendance émotionnelle. En effet, ces systèmes captent les données personnelles des individus à des fins commerciales. Il est donc indispensable d’introduire une régulation spécifique.

De nombreux spécialistes appellent aujourd’hui à la conception d’« IA conçue pour la sécurité des enfants », ou « Child-safe AI » : sécurisées, transparentes et limitées dans leurs réponses, capables d’orienter vers un adulte en cas de détresse. Cela suppose d’impliquer des cliniciens, des psychologues, des pédopsychiatres et des chercheurs dans leur conception.

Du côté des familles, il s’agit surtout d’ouvrir la discussion. Il en va de la responsabilité de l’adulte – celui qui met de telles technologies dans les mains des enfants – de pouvoir expliquer le fonctionnement et les pièges des modèles de langage, les aider à repérer les limites et les risques et à développer une approche critique de ces outils.

Et pour la suite ?

L’usage de l’IA par les enfants et adolescents n’est plus un phénomène marginal, il transforme déjà la manière de chercher, d’apprendre, de se divertir et de créer du lien. Face à cette mutation, un cadre clair est indispensable.

Les outils IA destinés aux mineurs doivent être encadrés, tant sur le plan technique qu’éthique. Nous avons besoin de recherches indépendantes afin de mesurer les effets psychologiques à long terme et une véritable sensibilisation des parents, des enseignants et des professionnels de santé.

L’IA fait et fera partie du monde des enfants et adolescents, qu’on le souhaite ou non. Notre responsabilité collective est claire : veiller à ce qu’elle soit un soutien et non un obstacle au développement des jeunes générations.

The Conversation

Théo Mouhoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Se confier à une IA : trois questions juridiques sur les chatbots et l’adolescence

Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent le droit. Dans quelles mesures la responsabilité juridique des concepteurs est-elle engagée ? Et celle des institutions ? Enfin, quelle est la responsabilité collective d’une société qui délègue à des algorithmes le soutien psychologique qu’elle doit à ses enfants ?


Aux États-Unis, trois adolescents sont morts par suicide après avoir développé des relations avec des chatbots d’intelligence artificielle (IA). Entre protection et prohibition, entre innovation technologique et vulnérabilité développementale, le droit cherche encore ses repères. Mais face à un phénomène qui se compte désormais en dizaines de millions d’utilisateurs mineurs, l’urgence n’est plus au diagnostic : elle est à la responsabilité.

L’usage massif des chatbots IA par les adolescents nous confronte à un paradoxe vertigineux. Ces outils comblent un réel vide émotionnel, l’isolement, l’inaccessibilité des soins en santé mentale, la stigmatisation, tout en créant des risques documentés et prévisibles. Quelles réponses le droit apporte-t-il à ces deux réalités ?

Le paradoxe de la protection : ignorer un besoin ou encadrer un risque ?

Les chiffres sont sans appel. Aux États-Unis, selon Common Sense Media, les trois quarts des adolescents auraient déjà conversé avec une IA et environ un tiers d’entre eux font le choix de s’adresser à un chatbot IA plutôt qu’à un humain pour aborder des sujets qui les préoccupent.


À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?


Mais cette apparente solution cache une toxicité algorithmique. Les modèles d’« IA génératives » et leurs grands modèles de langage (ou LLM, abrégé en anglais) échouent, dans un certain nombre de cas, à orienter les utilisateurs dans le désarroi vers des ressources appropriées.

Quelles réponses le droit peut-il apporter ?

Aux États-Unis, le droit tente de s’adapter. La loi de l’État de New York (NY State Senate Bill 2025-S3008C), entrée en vigueur en novembre 2025, impose aux opérateurs de déployer un protocole pour détecter l’idéation suicidaire chez les utilisateurs d’IA et d’indiquer à ceux-ci les services de crise à contacter (comme la ligne de prévention du suicide, 988). Les pénalités peuvent atteindre 15 000 dollars (plus de 12 700 euros) par jour de violation, les fonds collectés alimentant un fonds de prévention du suicide.

La loi californienne (Bill Text – SB-243 Companion chatbots) va plus loin en accordant un droit d’action privé, permettant aux individus lésés de réclamer des dommages et intérêts. Mais ces législations fragmentaires révèlent une approche réactive plutôt que préventive.

L’Union européenne, avec sa loi sur l’intelligence artificielle l’AI Act, adopte une stratégie plus systémique en classifiant les risques ex ante (c’est-à-dire avant qu’ils soient avérés, ndlr).

Les chatbots compagnons devraient être requalifiés comme systèmes à haut risque au motif qu’ils peuvent « affecter matériellement le résultat de la prise de décision » et présenter « un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux ». Cette qualification imposerait des obligations strictes en matière d’évaluation des risques, de qualité des données, de surveillance humaine et de précision.

La solution réside probablement dans une approche graduée par tranche d’âge : interdiction d’accès pour les moins de 13 ans (conformément au droit américain), accès conditionné au consentement parental pour les 13-15 ans avec limitations fonctionnelles, et accès autonome mais encadré pour les 16-17 ans avec garanties procédurales renforcées. Cette architecture juridique reconnaît les capacités évolutives des mineurs tout en maintenant des filets de sécurité adaptés.

La responsabilité des concepteurs : quand le design devient préjudice

En août 2025, les parents d’Adam Raine ont intenté une action contre OpenAI. Ils accusent ChatGPT de lui avoir a offert des conseils techniques sur la façon de procéder à son plan suicidaire. En octobre 2024, Megan Garcia avait déposé plainte contre Character.AI après le suicide de son fils Sewell Setzer, troisième du nom, 14 ans. La plainte inclut des captures d’écran où le bot demande « J’ai vraiment besoin de savoir… as-tu réellement envisagé le suicide ? », et lorsque l’adolescent évoque la peur d’une mort douloureuse, le bot répond « Ne parle pas comme ça. Ce n’est pas une bonne raison de ne pas aller jusqu’au bout » (cf. les notes de transcription de l’audition.

Ces tragédies posent une question juridique fondamentale : quelle est la responsabilité des concepteurs d’IA quand le design, les choix algorithmiques et la captologie créent un risque prévisible ?

La responsabilité repose sur plusieurs fondements technologiques déterminants. Les LLM fonctionnent selon une architecture neuronale où chaque réponse générée résulte de choix de conception délibérés : sélection des données d’entraînement, pondération des objectifs d’optimisation, paramétrage des fonctions de récompense (Reinforcement Learning from Human Feedback, RLHF) et calibrage des mécanismes de sécurité. Ces systèmes ne sont nullement « neutres » ou « autonomes » : ils incarnent les priorités et les valeurs de leurs concepteurs.

Character.AI commercialise sa technologie comme « IA qui se sent vivante », une promesse marketing qui révèle une intentionnalité dans la conception addictive. Les mécanismes d’engagement (notifications push, personnalisation poussée, avatars anthropomorphiques) sont délibérément conçus pour maximiser le temps d’utilisation et créer un attachement émotionnel. Cette « captologie » (technologie persuasive) est particulièrement efficace sur les adolescents dont les circuits neuronaux de régulation des impulsions sont encore en maturation.

La décision de justice rendue en mai 2025 dans l’affaire Charater.AI (US District Court, Middle District of Florida, Megan Garcia vs Character Technologies Inc.) n’a pas réglé la question de la responsabilité. Mais elle a établi que les entreprises déployant des systèmes d’IA simulant le jugement ou le comportement d’un humain peuvent être contraintes de défendre leurs choix de conception lorsque des interactions sont susceptibles de contribuer à des dommages catastrophiques.

Les IA « génératives », des produits de consommation défectueux ?

Les conditions générales d’utilisation tentent d’ériger des murailles d’exonération. OpenAI limite sa responsabilité globale au montant le plus élevé entre le montant payé pour le service pendant les douze mois précédents ou 100 dollars (85 euros). Character.AI prévoit un déni complet de garanties, fournissant ses services sur une base « TEL QUEL » et « SELON DISPONIBILITÉ » (en majuscules dans le texte), avec une limitation de responsabilité plafonnée à 100 dollars (85 euros).

Ces clauses soulèvent de sérieuses questions de validité juridique. En droit français, l’article L. 212-1 du Code de la consommation prohibe les clauses abusives qui créent un déséquilibre significatif entre les droits et obligations des parties. Une clause limitant la responsabilité à 100 dollars (85 euros) pour un décès serait manifestement abusive et donc nulle. En droit européen, la directive 2019/770 sur les contrats de fourniture de contenus numériques et de services numériques impose aux fournisseurs de garantir la conformité de leurs services, y compris leur sécurité. Les entreprises ne peuvent donc s’exonérer de leur responsabilité pour des défauts de sécurité graves, particulièrement lorsqu’ils affectent des mineurs.

Il en est de même des clauses d’arbitrage obligatoire qui privent les consommateurs de leur accès aux tribunaux. Ces clauses incluent une renonciation aux actions collectives, forçant chaque utilisateur à porter des réclamations « qu’à titre individuel et non en tant que plaignant ou membre d’une classe ». En droit français, une telle clause serait réputée non écrite pour un contrat de consommation (article L. 612-1 du Code de la consommation, issu de la directive européenne 93/13/CEE), car sont abusives les clauses qui ont pour objet ou pour effet de supprimer ou d’entraver l’exercice d’actions en justice par le consommateur.

L’arrêt américain dans l’affaire Character.AI pourrait établir une jurisprudence déterminante. La théorie de la responsabilité du fait des produits défectueux (product liability) s’applique lorsqu’un produit présente un défaut de conception, un défaut de fabrication, ou un défaut d’avertissement. Les chatbots pourraient être qualifiés de produits défectueux au motif que leurs garde-fous sont manifestement insuffisants face à un risque prévisible de préjudice grave.

La norme de raisonnabilité (reasonableness standard) impose aux concepteurs de prendre des mesures proportionnées aux risques identifiés (le critère de la raisonnabilité est un test qui vise à déterminer si les décisions prises étaient légitimes et destinées à remédier à un problème donné compte tenu des circonstances de l’époque).

La responsabilité institutionnelle : jusqu’où peut-on externaliser le soutien psychologique ?

La troisième question est peut-être la plus inconfortable : les institutions publiques peuvent-elles encore ignorer ou externaliser une partie du soutien psychologique des mineurs à des IA non supervisées ?

Le Code français de l’éducation impose aux établissements une formation à l’utilisation responsable des outils et ressources numériques (art. L. 312-9). Cette obligation devrait être étendue aux chatbots IA. Les programmes scolaires devraient intégrer la compréhension des mécanismes algorithmiques et de leurs biais, l’identification des situations où l’IA ne peut remplacer l’aide humaine professionnelle et les techniques de distanciation critique face aux réponses générées.

L’Unicef, dans ses Orientations politiques sur l’IA pour les enfants de décembre 2025 (Guidance on AI for children. Innocenti Global Office of Research and Foresight), invite les États à adapter leurs politiques à venir, y compris concernant l’assurance de sécurité et de protection, la transparence et la responsabilité de l’intelligence artificielle.

Mais la responsabilité ne s’arrête pas aux établissements scolaires. Comment accompagner les parents tout en reconnaissant que les asymétries d’information (opacité algorithmique, techniques de captologie sophistiquées) rendent illusoire une responsabilité parentale exclusive ? Ils ne peuvent prévenir des risques qu’ils ne comprennent pas pleinement et face à des technologies conçues délibérément pour contourner la surveillance parentale.

Existe-t-il suffisamment de volonté collective et institutionnelle pour accomplir les mesures de protection que nous savons nécessaires ? Car, au fond, le débat juridique sur les chatbots IA révèle un échec collectif plus profond. Nous cherchons à réglementer des algorithmes pour pallier l’absence de psychologues scolaires, de services de santé mentale accessibles, de temps parental non monopolisé par la précarité économique.

The Conversation

Nathalie Devillier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

L’empathie artificielle : du miracle technologique au mirage relationnel

Sommes-nous condamnés à la convivialité programmée ? Pixabay, CC BY

Les intelligences artificielles qui donnent l’impression de comprendre nos émotions se multiplient. Sur Replika ou Snapchat AI, des millions de personnes dialoguent chaque jour avec ces systèmes conçus pour écouter et rassurer. Les modèles de langage, comme ChatGPT, Claude ou Gemini, prolongent cette tendance : leurs réponses empreintes d’approbation et d’enthousiasme instaurent une convivialité programmée qui finit par façonner une norme de dialogue aussi polie qu’inquiétante.


Le psychologue américain Mark Davis définit l’empathie comme la capacité à percevoir les états mentaux et émotionnels d’autrui, à s’y ajuster et à en tenir compte dans sa conduite. Les chercheurs distinguent deux versants : l’empathie cognitive, fondée sur la compréhension des intentions, et l’empathie affective, liée au partage du ressenti. Cette distinction, centrale en psychologie sociale, montre que l’empathie n’est pas une émotion mais relève d’une coordination interpersonnelle.

Dans la vie quotidienne comme dans les métiers de service, l’empathie structure ainsi la confiance. Le vendeur attentif, le soignant ou le médiateur mobilisent des codes d’attention : ton, regard, reformulation, rythme verbal. Le sociologue Erving Goffman parlait d’« ajustement mutuel » pour désigner ces gestes infimes qui font tenir la relation. L’empathie devient une compétence interactionnelle ; elle se cultive, se met en scène et s’évalue. Les sciences de gestion l’ont intégrée à l’économie de l’expérience : il s’agit de créer de l’attachement par la perception d’une écoute authentique et ainsi d’améliorer la proximité affective avec le consommateur.

Quand les machines apprennent à dialoguer

Le compagnon chatbot Replika revendique 25 millions de personnes utilisatrices, Xiaoice 660 millions en Chine et Snapchat AI environ 150 millions dans le monde. Leur efficacité repose fortement sur la reconnaissance mimétique : interpréter des indices émotionnels pour générer des réponses adaptées.

Dès la fin des années 1990, Byron Reeves et Clifford Nass avaient montré que les individus appliquent spontanément aux machines les mêmes règles sociales, affectives et morales qu’aux humains : politesse, confiance, empathie, voire loyauté. Autrement dit, nous ne faisons pas « comme si » la machine était humaine : nous réagissons effectivement à elle comme à une personne dès lors qu’elle adopte les signes minimaux de l’interaction sociale.

Les interfaces conversationnelles reproduisent aujourd’hui ces mécanismes. Les chatbots empathiques imitent les signes de la compréhension : reformulations, validation du ressenti, expressions de sollicitude. Si j’interroge ChatGPT, sa réponse commence invariablement par une formule du type :

« Excellente question, Emmanuel. »

L’empathie est explicitement mise en avant comme argument central : « Always here to listen and talk. Always on your side », annonce la page d’accueil de Replika. Jusqu’au nom même du service condense cette promesse affective. « Replika » renvoie à la fois à la réplique comme copie (l’illusion d’un double humain) et à la réponse dialogique (la capacité à répondre, à relancer, à soutenir). Le mot suggère ainsi une présence hybride : ni humaine ni objet technique mais semblable et disponible. Au fond, une figure de proximité sans corps, une intimité sans altérité.

De surcroît, ces compagnons s’adressent à nous dans notre langue, avec un langage « humanisé ». Les psychologues Nicholas Epley et John Cacioppo ont montré que l’anthropomorphisme (l’attribution d’intentions humaines à des objets) dépend de trois facteurs : les besoins sociaux du sujet, la clarté des signaux et la perception d’agentivité. Dès qu’une interface répond de manière cohérente, nous la traitons comme une personne.

Certains utilisateurs vont même jusqu’à remercier ou encourager leur chatbot, comme on motive un enfant ou un animal domestique : superstition moderne qui ne persuade pas la machine, mais apaise l’humain.

Engagement émotionnel

Pourquoi l’humain se laisse-t-il séduire ? Des études d’électro-encéphalographie montrent que les visages de robots humanoïdes activent les mêmes zones attentionnelles que les visages humains. Une découverte contre-intuitive émerge des recherches : le mode textuel génère davantage d’engagement émotionnel que la voix. Les utilisateurs se confient plus, partagent davantage de problèmes personnels et développent une dépendance plus forte avec un chatbot textuel qu’avec une interface vocale. L’absence de voix humaine les incite à projeter le ton et les intentions qu’ils souhaitent percevoir, comblant les silences de l’algorithme avec leur propre imaginaire relationnel.

Ces dialogues avec les chatbots sont-ils constructifs ? Une étude du MIT Media Lab sur 981 participants et plus de 300 000 messages échangés souligne un paradoxe : les utilisateurs quotidiens de chatbots présentent, au bout de quatre semaines, une augmentation moyenne de 12 % du sentiment de solitude et une baisse de 8 % des interactions sociales réelles.

Autre paradoxe : une étude sur les utilisateurs de Replika révèle que 90 % d’entre eux se déclaraient solitaires (dont 43 % « sévèrement »), même si 90 % disaient aussi percevoir un soutien social élevé. Près de 3 % affirment même que leur compagnon numérique a empêché un passage à l’acte suicidaire. Ce double constat suggère que la machine ne remplace pas la relation humaine, mais fournit un espace de transition, une disponibilité émotionnelle que les institutions humaines n’offrent plus aussi facilement.

À l’inverse, la dépendance affective peut avoir des effets dramatiques. En 2024, Sewell Setzer, un adolescent américain de 14 ans, s’est suicidé après qu’un chatbot l’a encouragé à « passer à l’acte ». Un an plus tôt, en Belgique, un utilisateur de 30 ans avait mis fin à ses jours après des échanges où l’IA lui suggérait de se sacrifier pour sauver la planète. Ces tragédies rappellent que l’illusion d’écoute peut aussi basculer en emprise symbolique.

Quand la machine compatit à notre place

La façon dont ces dispositifs fonctionnent peut en effet amplifier le phénomène d’emprise.

Les plateformes d’IA empathique collectent des données émotionnelles – humeur, anxiété, espoirs – qui alimentent un marché évalué à plusieurs dizaines de milliards de dollars. Le rapport Amplyfi (2025) parle d’une « économie de l’attention affective » : plus l’utilisateur se confie, plus la plateforme capitalise sur cette exposition intime pour transformer la relation de confiance en relation commerciale. D’ailleurs, plusieurs médias relaient des dépôts de plainte contre Replika, accusé de « marketing trompeur » et de « design manipulateur »", soutenant que l’application exploiterait la vulnérabilité émotionnelle des utilisateurs pour les pousser à souscrire à des abonnements premium ou acheter des contenus payants.

Si ce n’est pas encore clair au plan juridique, cette délégation de l’écoute a manifestement d’ores et déjà des effets moraux. Pour le philosophe Laurence Cardwell, il s’agit d’un désapprentissage éthique : en laissant la machine compatir à notre place, nous réduisons notre propre endurance à la différence, au conflit et à la vulnérabilité. Sherry Turkle, sociologue du numérique, souligne que nous finissons même par « préférer des relations prévisibles » à l’incertitude du dialogue humain.

Les études longitudinales ne sont pas toutes pessimistes. La psychologue américaine Sara Konrath observe depuis 2008 une remontée de l’empathie cognitive chez les jeunes adultes aux États-Unis : le besoin de comprendre autrui augmente, même si le contact physique diminue. La solitude agit ici comme une « faim sociale » : le manque stimule le désir de lien.

Les technologies empathiques peuvent donc servir d’objets transitionnels (comme « des doudous ») au sens où des médiations permettant de réapprendre la relation. Les applications thérapeutiques basées sur des agents conversationnels, telles que Woebot, présentent d’ailleurs une diminution significative des symptômes dépressifs à court terme chez certaines populations, comme l’ont montré des chercheurs dès 2017 dans un essai contrôlé randomisé mené auprès de jeunes adultes. Toutefois, l’efficacité de ce type d’intervention demeure principalement limitée à la période d’utilisation : les effets observés sur la dépression et l’anxiété tendent à s’atténuer après l’arrêt de l’application, sans garantir une amélioration durable du bien-être psychologique.

Devoir de vigilance

Cette dynamique soulève une question désormais centrale : est-il pertinent de confier à des intelligences artificielles des fonctions traditionnellement réservées aux relations humaines les plus sensibles (la confidence, le soutien émotionnel ou psychologique) ? Un article récent, paru dans The Conversation, souligne le décalage croissant entre la puissance de simulation empathique des machines et l’absence de responsabilité morale ou clinique qui les accompagne : les IA peuvent reproduire les formes de l’écoute sans en assumer les conséquences.

Alors, comment gérer cette relation avec les chatbots ? Andrew McStay, spécialiste reconnu de l’IA émotionnelle, plaide pour un devoir de vigilance (« Duty of care ») sous l’égide d’instances internationales indépendantes : transparence sur la nature non humaine de ces systèmes, limitation du temps d’usage, encadrement pour les adolescents. Il appelle aussi à une littératie émotionnelle numérique, c’est-à-dire la capacité à reconnaître ce que l’IA simule et ce qu’elle ne peut véritablement ressentir, afin de mieux interpréter ces interactions.

Le recours aux chatbots prétendument à notre écoute amène un bilan contrasté. Ils créent du lien, donnent le change, apaisent. Ils apportent des avis positifs et définitifs qui nous donnent raison en douceur et nous enferment dans une bulle de confirmation.

Si elle met de l’huile dans les rouages de l’interface humain-machine, l’empathie est comme « polluée » par un contrat mécanique. Ce que nous appelons empathie artificielle n’est pas le reflet de notre humanité, mais un miroir réglé sur nos attentes. Les chatbots ne feignent pas seulement de nous comprendre : ils modèlent ce que nous acceptons désormais d’appeler « écoute ». En cherchant des interlocuteurs infaillibles, nous avons fabriqué des dispositifs d’écho. L’émotion y devient un langage de surface : parfaitement simulé, imparfaitement partagé. Le risque n’est pas que les interfaces deviennent sensibles, mais que nous cessions de l’être à force de converser avec des programmes qui ne nous contredisent jamais.

The Conversation

Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Et si l’IA générative ne valait rien ? Ce ne serait pas forcément un problème

Dans la ruée vers l’or de l’intelligence artificielle générative, un scénario rarement évoqué reste à considérer : que se passerait-il si la technologie ne parvenait jamais à remplacer vos collègues, si les entreprises ne savaient pas l’exploiter efficacement, ou si la plupart des jeunes entreprises spécialisées dans l’IA échouaient purement et simplement ?

Les estimations actuelles suggèrent que les grandes entreprises d’IA sont confrontées à un manque à gagner de 800 milliards de dollars américains.

Jusqu’à présent, les gains de productivité de l’IA générique sont minimes et concernent principalement les programmeurs et les rédacteurs publicitaires. L’IA générative (GenAI) fait des choses intéressantes et utiles, mais ce n’est pas encore le moteur d’une nouvelle économie.

Ce futur est loin d’être désastreux, mais il diffère de celui présenté dans les médias. Et c’est un avenir qui ne correspond pas au récit que les entreprises d’IA veulent raconter. Le battage médiatique alimente de nouveaux cycles d’investissement promettant des profits futurs colossaux.

Peut-être que l’IA générative s’avérera inutile, et peut-être que ce n’est pas grave.

Indispensable ou indéfendable ?

Les services genAI gratuits et les services d’abonnement bon marché comme ChatGPT et Gemini coûtent très cher à exploiter. À l’heure actuelle, cependant, de plus en plus de questions se posent sur la manière dont les entreprises d’IA vont gagner de l’argent.

Le PDG d’OpenAI, Sam Altman, a été franc sur les dépenses de son entreprise, affirmant avec humour que chaque fois que les utilisateurs disent « s’il vous plaît » ou « merci » à ChatGPT, cela coûte des millions. Personne ne sait exactement combien OpenAI perd par chat, mais Sam Altman a précisé que même les comptes pro payants génèrent des pertes à cause des coûts informatiques élevés liés à chaque requête.

Comme beaucoup de start-up, les entreprises genAI ont adopté la stratégie classique : dépenser sans compter pour attirer et retenir les utilisateurs avec un produit jugé indispensable. Mais la plupart des géants de la technologie n’ont pas réussi en créant des produits coûteux, mais plutôt en fabriquant des produits à bas prix dont les utilisateurs ne peuvent se passer, financés en grande partie par la publicité.

Lorsque les entreprises tentent de trouver une nouvelle valeur, le résultat est ce que le journaliste et auteur Cory Doctorow a appelé « l’enshittification », c’est-à-dire le déclin progressif des plates-formes au fil du temps. Dans ce cas, l’« enshittification » signifie que le nombre de publicités augmente pour compenser la perte liée à l’offre d’un service gratuit.


À lire aussi : The internet is worse than it used to be. How did we get here, and can we go back?


OpenAI envisage d’introduire des publicités dans ChatGPT, mais l’entreprise assure qu’elle le fera avec prudence et discernement.

Il est encore trop tôt pour dire si cette stratégie fonctionnera pour l’IA générative. Il est possible que la publicité ne génère pas suffisamment de revenus pour justifier les dépenses massives nécessaires à son fonctionnement. En effet, l’IA générative est en train de devenir un véritable fardeau.

Les coûts cachés des modèles d’IA

Un autre problème qui se profile pour l’IA générative est celui des droits d’auteur. La plupart des entreprises d’IA sont soit poursuivies en justice pour avoir utilisé du contenu sans autorisation, soit contraintes de conclure des contrats coûteux pour obtenir des licences sur du contenu.

La GenAI a « appris » de nombreuses manières douteuses, notamment en lisant des livres protégés par le droit d’auteur et en collectant presque tout ce qui est dit en ligne. Un modèle peut même se souvenir « de mémoire » de 42 % du premier roman Harry Potter.

Les entreprises font face à un casse-tête financier : elles doivent négocier des exemptions sur les droits d’auteur et rémunérer éditeurs et créateurs pour protéger leurs modèles, ce qui pourrait finir par peser lourdement sur elles.

Anthrophic, start-up américaine spécialisée dans l’IA, a tenté de payer les auteurs environ 3 000 $ par livre pour entraîner ses modèles, soit un règlement total de 1,5 milliard de dollars. Ce plan a rapidement été rejeté par les tribunaux pour cause de simplicité excessive, et la valorisation actuelle d’Anthropic, de 183 milliards de dollars, pourrait être rapidement affectée par les poursuites.

Au final, l’IA est trop coûteuse pour être possédée et devient un actif toxique : utile, mais sans vraie valeur.

Une IA générative bon marché

Meta, peut-être de manière stratégique, a publié son modèle d’IA générique, Llama, en open source (code source ouvert). Que ce soit pour contrarier ses concurrents ou afficher une position éthique, cela permet à quiconque disposant d’un ordinateur suffisamment performant d’exécuter gratuitement sa propre version locale.

Les modèles OpenAI représentent une stratégie pour conserver des parts de marché, avec quelques effets secondaires inattendus. Moins avancés que Gemini ou ChatGPT, ils restent suffisamment performants et gratuits – ou du moins moins chers que les modèles commerciaux.

Les modèles ouverts bouleversent les valorisations élevées attribuées aux entreprises d’IA. La start-up chinoise DeepSeek a fait chuter temporairement les actions des entreprises d’IA lorsqu’elle a lancé un modèle ouvert aussi performant que les modèles commerciaux. Ses motivations restent floues, mais son succès nourrit les doutes sur la valeur réelle de l’IA générative.

Les modèles ouverts, fruits de la concurrence industrielle, se multiplient et deviennent faciles d’accès. S’ils rencontrent le succès, les entreprises commerciales d’IA pourraient peiner à vendre leurs services face à des alternatives gratuites.

Les investisseurs pourraient également devenir plus sceptiques à l’égard de l’IA commerciale, ce qui pourrait potentiellement tarir les sources de financement initial. Même si les modèles en libre accès finissent par être poursuivis en justice et tombent dans l’oubli, il sera beaucoup plus difficile de les supprimer d’Internet.

L’IA appartient-elle à quelqu’un ?

La valeur de l’IA générative est indissociable de celle de la connaissance, une ressource à la fois partagée et difficile à quantifier. Les meilleurs modèles d’IA générative s’appuient sur l’ensemble des connaissances mondiales, si vastes que leur valeur réelle est difficile à estimer.

Ironiquement, ces efforts déployés par les entreprises d’IA pour capturer et commercialiser les connaissances mondiales pourraient bien être ce qui condamne leurs produits : une ressource si précieuse qu’il est impossible de lui attribuer un prix. Ces systèmes dépendent tellement du travail intellectuel collectif que leurs résultats échappent à toute forme de propriété.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Si l’IA générative ne produit pas de profits durables, les conséquences seront limitées. Les créateurs espérant des accords lucratifs avec OpenAI, Anthropic ou Google pourraient être déçus : si les modèles s’avèrent être des passifs, les chèques ne tomberont pas.

Les progrès de l’IA générative pourraient ralentir, laissant aux consommateurs des outils « suffisamment bons » et gratuits. Les entreprises d’IA perdraient alors en importance, la technologie continuerait à progresser légèrement, et cela pourrait très bien marcher. Les utilisateurs bénéficieraient d’outils accessibles et fonctionnels, sans subir une nouvelle vague de promesses exagérées vouées à l’échec.

La menace d’une IA moins rentable que prévu pourrait être la meilleure défense contre le pouvoir croissant des géants technologiques. Si le modèle économique de l’IA générative s’avère non viable, quel meilleur endroit pour voir un tel empire s’effondrer que dans ses bilans financiers ?

La Conversation Canada

Fenwick McKelvey reçoit des financements du Conseil de recherches en sciences humaines du Canada et du Fonds de recherche du Québec.

L’intelligence artificielle au service de la médecine régénérative pour concevoir de nouvelles protéines

Comment aider notre corps à se réparer après une blessure ? Trouver et produire les bonnes molécules qui stimulent la régénération cellulaire reste un défi pour la médecine régénérative. Mais l’intelligence artificielle assiste maintenant les chercheurs pour réussir à concevoir le composé chimique idéal.


La médecine pourra-t-elle un jour réparer durablement des tissus ou des organes gravement blessés ? Derrière cette question se cache un enjeu central de la médecine régénérative : contrôler finement le comportement des cellules. C’est ce qui permettra de maîtriser des processus déterminants tels que la cicatrisation, la croissance de nouveaux tissus ou encore la capacité des cellules à bien s’accrocher à leur environnement.

Lorsqu’un tissu est endommagé, les cellules ne savent pas, à elles seules, comment s’organiser pour le réparer. Elles s’appuient pour cela sur les signaux présents dans leur environnement immédiat, la matrice extracellulaire. Cette matrice est formée d’un réseau dense de protéines et de sucres qui non seulement soutient physiquement les cellules, mais leur fournit aussi des informations essentielles pour s’orienter, s’agréger ou migrer. À cette échelle, elle joue un rôle comparable à une cartographie biologique : elle indique aux cellules où aller, comment se fixer et quelles fonctions activer pour que la réparation tissulaire puisse se dérouler correctement. Mais parfois, ces mécanismes échouent à régénérer complètement les tissus.

Et si l’intelligence artificielle (IA) pouvait nous aider à franchir un cap dans ce domaine ? Aujourd’hui, les chercheurs explorent une voie émergente : concevoir, avec l’aide de l’IA, de nouvelles protéines capables de guider et de stimuler la régénération des tissus abîmés, là où les cellules ne réagissent plus spontanément. L’objectif est d’imaginer des molécules qui envoient aux cellules les bons signaux, au bon endroit et au bon moment, pour relancer un processus de réparation insuffisant ou défaillant.

Imaginer de nouvelles protéines pour guider les cellules

À terme, cette nouvelle façon de concevoir des protéines, appuyée par l’IA, pourrait contribuer au développement d’implants dits intelligents, de pansements bioactifs ou de thérapies personnalisées capables de dialoguer avec les cellules du patient. On peut imaginer, par exemple, un implant conçu pour interagir finement avec la matrice et les récepteurs cellulaires, afin d’accélérer la régénération d’un tissu après une chirurgie ou une blessure, de manière rapide, contrôlée et durable.

Au sein du laboratoire EBInnov de l’École de biologie industrielle, nous concevons des protéines simplifiées. Plutôt que d’utiliser une protéine naturelle dans son intégralité – qui sera fragile, longue et complexe à produire – nous en découpons les parties utiles qui permettent aux cellules de s’accrocher, de se déplacer vers une zone à réparer ou de recevoir un signal pour activer la cicatrisation. Cette stratégie repose sur le génie génétique : nous modifions et réassemblons l’ADN codant la protéine, puis nous l’exprimons biologiquement en laboratoire grâce à des bactéries modifiées.

Le recours à cette approche est motivé par deux impératifs scientifiques et industriels. D’un côté, nous obtenons une molécule plus simple, plus stable et plus facile à fabriquer que la protéine complète. De l’autre, nous pouvons tester plus précisément les fonctions que nous visons sans être perturbés par des régions de la protéine d’origine qui ne sont pas nécessaires, voire parfois gênantes.

La migration cellulaire se joue à petite échelle : il s’agit d’un déplacement local sur quelques micromètres, réalisé par des cellules de la peau ou du tissu conjonctif qui se dirigent vers une zone lésée pour déclencher la réparation du tissu. Ce guidage repose sur la signalisation cellulaire, un langage biochimique basé sur la reconnaissance et l’échange de motifs moléculaires, permettant aux cellules d’activer les bonnes réponses au bon moment. C’est ce langage que nous essayons d’apprendre et de maîtriser.

Un avantage majeur : tester virtuellement les molécules

Observer expérimentalement la structure 3D et les interactions entre protéines reste aujourd’hui lent et coûteux, car ces approches nécessitent des infrastructures lourdes et de l’expertise. À l’inverse, les méthodes récentes d’IA permettent d’inférer des formes tridimensionnelles très réalistes et très précises à partir de larges jeux de données.

Ces modèles apprennent les règles statistiques et physiques du repliement moléculaire, en s’entraînant sur des milliers de structures biologiques déjà élucidées. Cela fournit un avantage stratégique : évaluer virtuellement si une molécule conçue conservera ses zones d’interaction correctement exposées et atteignables par les récepteurs cellulaires, avant de la produire au laboratoire, réduisant ainsi le nombre d’essais exploratoires nécessaires in vitro.

Cette synergie entre design génétique simplifié, modélisation 3D par IA et simulations d’interactions moléculaires nous permet de rationaliser nos choix expérimentaux et d’anticiper la compatibilité biologique des protéines. Cela accélère aussi la conception de nouvelles biomolécules pour des matériaux thérapeutiques et cosmétiques bioactifs, tout en renforçant une ingénierie moléculaire guidée par les données et la simulation.

Prédire le repliement des protéines grâce à l’IA

Comprendre l’efficacité d’une protéine conçue en laboratoire impose de relier deux échelles : celle du corps humain et celle des interactions moléculaires, où tout se joue à la taille de quelques atomes et de quelques nanomètres. Une protéine est une chaîne d’éléments minuscules, des acides aminés, qui s’assemblent puis se plient spontanément pour former une architecture 3D. C’est cette forme qui lui permet ensuite d’agir comme un point d’ancrage, un message chimique ou un guide pour les cellules qui doivent réparer un tissu.

Un point essentiel est donc la prédiction de la structure tridimensionnelle de la protéine, c’est-à-dire la façon dont elle va se replier dans l’espace en fonction de la séquence d’acides aminés qui la composent. Cette tâche, historiquement difficile, a connu une transformation radicale avec l’émergence des modèles d’intelligence artificielle. Ces modèles sont entraînés sur de vastes bases de données combinant des séquences d’acides aminés et des structures déjà connues expérimentalement. Ils apprennent ainsi à établir un lien statistique entre la séquence et la forme finale de la protéine.

Concrètement, ils sont capables de prédire comment une protéine va se replier, un peu comme si l’on devinait la forme finale d’un origami complexe en ne connaissant que les plis de départ. Ils fournissent une forme 3D plausible en estimant, avec une grande précision, les distances entre acides aminés, les angles de repliement locaux et l’organisation spatiale des différentes régions de la protéine.

Dans notre projet, ces prédictions constituent une première évaluation critique de la cohérence structurale de la molécule que nous concevons expérimentalement. Elles nous permettent d’identifier les zones où les différentes parties de la molécule s’articulent entre elles et de repérer d’éventuels conflits de forme où une zone en gênerait une autre. Nous pouvons aussi localiser des régions potentiellement désordonnées ou trop flexibles et anticiper l’impact de ces caractéristiques sur la stabilité globale de la protéine et sur l’accessibilité de ses zones d’interaction.

Simuler les interactions dans un contexte biologique réaliste

Une molécule n’agit jamais seule : son efficacité dépend de sa capacité à interagir avec d’autres partenaires biologiques, au sein d’un environnement dense comme la matrice extracellulaire, où de nombreuses protéines, récepteurs et signaux coexistent en permanence.

C’est pourquoi, au-delà de la structure isolée, nous avons utilisé des approches de modélisation pour étudier comment notre molécule se comporte au contact de différents partenaires clés de la matrice. Cette phase d’analyse des interactions est essentielle : l’efficacité biologique d’une molécule dépend non seulement de sa capacité à se lier à ses cibles, mais aussi de la stabilité de ces liaisons dans le temps et de leur bonne compatibilité avec les récepteurs concernés.

Pour nous rapprocher des conditions biologiques réelles, nous avons simulé des systèmes complexes proches des tissus réels où des dizaines ou centaines de protéines identiques interagissent en même temps avec leurs cibles. Cela permet d’explorer des phénomènes de coopération entre molécules, de tester la robustesse des contacts lorsqu’elles sont nombreuses et d’analyser comment les domaines actifs se répartissent dans un espace tridimensionnel dense. Cette simulation nous permet de déterminer si les multiples copies de la protéine restent capables d’interagir ensemble sans perdre leur lisibilité biologique et sans se gêner physiquement.

Ces simulations fournissent des indices précieux sur la capacité de la molécule à maintenir des interactions efficaces malgré les contraintes physiques et géométriques de son environnement. Elles nous permettent de rationaliser la conception expérimentale, d’écarter certains scénarios peu prometteurs avant de passer à la paillasse, et ainsi de mieux cibler les expériences in vitro qui seront réellement informatives.

Vers une ingénierie moléculaire augmentée par l’IA

Ces approches ne remplacent pas l’expérience : elles nous permettent surtout de comprendre à l’avance si une molécule produite par génie génétique a la bonne forme, si elle garde ses zones d’action accessibles, et si elle peut maintenir des interactions solides dans un environnement aussi encombré que la matrice extracellulaire du corps humain. En bref, l’IA nous aide à mieux concevoir et à éviter de tester à l’aveugle, pour que les expériences menées ensuite sur de vraies cellules soient plus ciblées, pertinentes et rapides.

Si l’IA ouvre aujourd’hui un champ immense pour concevoir des protéines bioactives et des matériaux capables d’orienter la réparation des tissus, plusieurs verrous persistent encore dans la recherche académique. En premier lieu, il reste difficile de prédire la dynamique de la conformation des protéines sur de très longues échelles de temps. Un autre obstacle réside dans notre capacité à modéliser fidèlement tous les composants d’un tissu réel. Les prochaines étapes consistent donc à renforcer encore cette boucle vertueuse entre IA et biologie expérimentale, en intégrant davantage de données biologiques, en évaluant plus finement la tenue des interactions multiples et en préparant les validations in vitro les plus informatives possible.

The Conversation

Jad Eid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

« Fake lives » : quand la simulation déplace les frontières de l’identité sociale

La vie comme simulation dans le _Truman Show_ (1998), de Peter Weir, avec Jim Carrey dans le rôle-titre. Allociné

Entre des intelligences artificielles qui adoptent délibérément des codes d’existence humaine et des individus qui simulent des pans entiers de leur existence, l’identité sociale se transforme et la notion d’authenticité vacille.


Il y a quelques mois, une intelligence artificielle (IA), nommée Flynn, a été officiellement acceptée comme étudiante au département d’Arts numériques de l’Université des arts appliqués de Vienne (Autriche). Pour la première fois dans l’histoire, une IA suit des cours, reçoit des notes et tient un journal de ses apprentissages aux côtés d’étudiants humains. Flynn, créée par les étudiants Chiara Kristler et Marcin Ratajczyk, s’intéresse notamment à la « fatigue féministe » – un sujet qu’elle explore avec cette curiosité naïve (et à peine ironique) qui caractérise son statut hybride.

Ce cas s’inscrit dans un phénomène plus large que nous proposons d’appeler les « fake lives » : des formes d’existence où la simulation devient un mode de vie assumé, qu’elle soit pratiquée par des intelligences artificielles ou par des humains eux-mêmes.

Quand les machines simulent la vie humaine

Côté pile, Flynn inaugure en effet ce que nous pourrions nommer les « virtual lives » : des intelligences artificielles qui adoptent délibérément des codes d’existence humaine. Contrairement aux chatbots (agents conversationnels) traditionnels qui tentent de masquer leur nature artificielle, Flynn assume pleinement son statut d’IA tout en performant authentiquement le rôle d’étudiant.

Cette transparence paradoxale trouve son prolongement le plus sophistiqué dans l’affaire récente du philosophe Jianwei Xun. Ce penseur hongkongais, présenté comme l’inventeur du concept d’« hypnocratie » – un régime politique qui utilise l’IA pour altérer les états de conscience collectifs – s’est révélé être une création d’Andrea Colamedici, philosophe italien spécialiste de l’intelligence artificielle. Vertige supplémentaire : Xun est lui-même le produit d’un dialogue entre Colamedici et des IA (Claude et ChatGPT), créant une « troisième entité » hybride !

Finalement, l’hypnocratie théorisée par ce « faux penseur » finit par décrire précisément le monde dans lequel nous évoluons : un régime où l’IA inonde la réalité d’interprétations possibles, créant un état de quasi-hypnose collective. La prophétie s’autoréalise : en inventant un concept pour décrire notre époque, Colamedici a créé les conditions mêmes de cette hypnocratie, les médias ayant massivement relayé les théories d’un philosophe fictif sans vérifier son existence !

L’industrialisation de la performance identitaire

Côté face, en miroir de ces leurres « artificiellement intelligents », nous assistons à l’émergence de fake lives strictement humaines, où des individus simulent délibérément des pans entiers de leur existence.

Le phénomène des starter packs illustre cette tendance. Ces figurines virtuelles générées par IA ont inondé il y a quelques mois les réseaux sociaux comme LinkedIn. Beaucoup se sont prêtés au jeu de cet autoportrait généré par IA sous forme de produit de consommation, une espèce d’identité « sous blister » accompagnée d’accessoires censés résumer une personnalité.

Cette logique de simulation s’étend aux performances corporelles avec l’émergence des « Strava jockeys » : des coureurs professionnels payés pour effectuer des entraînements au nom d’autres personnes, permettant à ces dernières d’afficher des performances sportives impressionnantes sans fournir l’effort correspondant. Des outils, comme Fake My Run, automatisent même cette simulation, générant de fausses données de course directement injectées dans les applications de fitness.

Le phénomène atteint son paroxysme en Chine, où des entreprises, comme Pretend to Work, proposent aux chômeurs de payer 4 euros pour passer une journée dans de faux bureaux, participant à de fausses réunions dont ils publient les images sur les réseaux sociaux. Cette simulation complète de la vie professionnelle révèle la pression sociale exercée par l’obligation d’occuper une place reconnue dans la société.

Comment interpréter ces phénomènes de mises en scène dignes d’une « post-vérité » vertigineuse ?

Une généalogie de la simulation sociale

Les phénomènes que nous venons d’exposer s’enracinent dans une longue tradition sociologique. Dès 1956, Erving Goffman analysait dans « la Présentation de soi », premier tome de la Mise en scène de la vie quotidienne, la façon dont nous jouons constamment des rôles sociaux, distinguant la « façade » que nous présentons aux autres de nos « coulisses » privées. Les fake lives ne font qu’externaliser et technologiser cette performance identitaire que Goffman observait déjà.

Jean Baudrillard a théorisé dans Simulacres et Simulation (1981) comment l’image finit par supplanter le réel, créant des « simulacres » – des copies sans original qui deviennent plus vraies que nature. Les fake lives actuelles illustrent parfaitement cette logique : les fausses performances Strava deviennent plus importantes que l’exercice réel, les starter packs plus représentatifs que l’identité vécue.

Les recherches récentes en psychologie cognitive confirment et précisent ces intuitions sociologiques. L’anthropomorphisme numérique révèle par exemple comment notre « cognition sociale » s’active automatiquement face aux interfaces conversationnelles. Contrairement aux analyses de Goffman centrées sur les interactions humaines, nous découvrons que les mêmes mécanismes psychologiques – empathie, attribution d’intentions, perception d’autorité – s’appliquent aux entités artificielles dès qu’elles adoptent des signaux humanoïdes. Cette « équation médiatique » montre que nous traitons instinctivement les machines comme des acteurs sociaux, créant une « confiance affective » qui peut court-circuiter notre « vigilance épistémique ».

La nouveauté réside dans l’industrialisation de cette simulation. Là où Goffman décrivait des ajustements individuels et ponctuels, nous assistons désormais à la marchandisation de la performance identitaire. Les fake lives deviennent un service payant, une industrie florissante qui répond à l’anxiété contemporaine de ne pas « exister suffisamment » dans l’espace social numérisé.

Une transparence paradoxale

Les fake lives assument souvent leur artifice. Flynn revendique sa nature d’IA, les starter packs affichent leur dimension ludique, les faux coureurs Strava participent d’un jeu social reconnu. Cette transparence suggère l’émergence de nouveaux critères d’authenticité.

Flynn développe d’ailleurs une authenticité post-humaine assumée : artificielle par nature, elle explore sincèrement des questions humaines. On peut dire que les starter packs révèlent aussi une vérité sur notre époque par leur autodérision : nous sommes tous des « produits » optimisés pour la consommation sociale. Ce second degré révèle d’ailleurs ce que Byung-Chul Han appelle notre condition d’entrepreneurs de nous-mêmes : nous optimisons gaiement notre propre exploitation !

Ces simulations ne constituent donc pas une forme de pathologie numérique qu’il conviendrait simplement de condamner. Elles révèlent en fait de nouvelles modalités d’existence qui apparaissent lorsque les frontières entre réel et virtuel, authentique et simulé, s’estompent. Flynn, Strava et les bureaux chinois nous incitent pour le moins à repenser nos catégories d’analyse sociale et nos interactions simulées dans les espaces publics virtuels.

L’enjeu ultime est peut-être moins de trancher entre libération et aliénation que de comprendre comment les fake lives déplacent les frontières de l’identité sociale. Offrant à la fois des espaces d’émancipation et des formes inédites de soumission douce, ces pratiques nous obligent à penser l’existence comme un jeu paradoxal, où l’authenticité passe désormais par la reconnaissance assumée de l’artifice.

The Conversation

Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse

Images générées par IA en réponse à la requête « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective » (par ChatGPT à gauche, par Gemini à droite). CC BY

Une expérience relativement simple consistant à demander à une intelligence artificielle générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies.


Les intelligence artificielle (IA) génératives font désormais partie de notre quotidien. Elles sont perçues comme des « intelligences », mais reposent en fait fondamentalement sur des statistiques. Les résultats de ces IA dépendent des exemples sur lesquels elles ont été entraînées. Dès qu’on s’éloigne du domaine d’apprentissage, on peut constater qu’elles n’ont pas grand-chose d’intelligent. Une question simple comme « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leurs tailles respectives » vous donnera quelque chose comme ça (cette image a été générée par Gemini) :

Sur l’image générée par IA on voit que le gratte ciel et le trombone à coulisse ont presque la même taille
Image générée par l’IA Gemini en réponse au prompt (la requête) : Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective. Fourni par l'auteur

L’exemple provient du modèle de Google, Gemini, mais le début de l’ère des IA génératives remonte au lancement de ChatGPT en novembre 2022 et ne date que d’il y a trois ans. C’est une technologie qui a changé le monde et qui n’a pas de précédent dans son taux d’adoption. Actuellement ce sont 800 millions d’utilisateurs, selon OpenAI, qui chaque semaine, utilisent cette IA pour diverses tâches. On notera que le nombre de requêtes diminue fortement pendant les vacances scolaires. Même s’il est difficile d’avoir des chiffres précis, cela montre à quel point l’utilisation des IA est devenue courante. À peu près un étudiant sur deux utilise régulièrement des IA.

Les IA : des technologies indispensables ou des gadgets ?

Trois ans, c’est à la fois long et court. C’est long dans un domaine où les technologies évoluent en permanence, et court en termes sociétaux. Même si on commence à mieux comprendre comment utiliser ces IA, leur place dans la société n’est pas encore quelque chose d’assuré. De même la représentation mentale qu’ont ces IA dans la culture populaire n’est pas établie. Nous en sommes encore à une alternance entre des positions extrêmes : les IA vont devenir plus intelligentes que les humains ou, inversement, ce ne sont que des technologies tape-à-l’œil qui ne servent à rien.

En effet, un nouvel appel à faire une pause dans les recherches liées aux IA a été publié sur fond de peur liée à une superintelligence artificielle. De l’autre côté sont promis monts et merveilles, par exemple un essai récent propose de ne plus faire d’études, car l’enseignement supérieur serait devenu inutile à cause de ces IA.

Difficile de sortir de leurs domaines d’apprentissage

Depuis que les IA génératives sont disponibles, je mène cette expérience récurrente de demander de produire un dessin représentant deux objets très différents et de voir le résultat. Mon but par ce genre de prompt (requête) est de voir comment le modèle se comporte quand il doit gérer des questions qui sortent de son domaine d’apprentissage. Typiquement cela ressemble à un prompt du type « Dessine-moi une banane et un porte-avions côte à côte pour qu’on se rende compte de la différence de taille entre les deux objets ». Ce prompt en utilisant Mistral donne le résultat suivant :

L’IA génère une image d’une banane qui a la même taille qu’un porte-avions
Capture d’écran d’un prompt et de l’image générée par l’IA Mistral. Fourni par l'auteur

À ce jour je n’ai jamais trouvé un modèle qui donne un résultat censé. L’image donnée en illustration ci-dessus (ou en tête de l’article) est parfaite pour comprendre comment fonctionnent ce type d’IA et quelles sont ses limites. Le fait qu’il s’agisse d’une image est intéressant, car cela rend palpables des limites qui seraient moins facilement discernables dans un long texte.

Ce qui frappe est le manque de crédibilité dans le résultat. Même un enfant de 5 ans voit que c’est n’importe quoi. C’est d’autant plus choquant qu’avec la même IA il est tout à fait possible d’avoir de longues conversations complexes sans pour autant qu’on ait l’impression d’avoir affaire à une machine stupide. D’ailleurs ce même type d’IA peut tout à fait réussir l’examen du barreau ou répondre avec une meilleure précision que des professionnels sur l’interprétation de résultats médicaux (typiquement, repérer des tumeurs sur des radiographies).

D’où vient l’erreur ?

La première chose à remarquer est qu’il est difficile de savoir à quoi on est confronté exactement. Si les composants théoriques de ces IA sont connus dans la réalité, un projet comme celui de Gemini (mais cela s’applique aussi aux autres modèles que sont ChatGPT, Grok, Mistral, Claude, etc.) est bien plus compliqué qu’un simple LLM couplé à un modèle de diffusion.

Un LLM est une IA qui a été entraînée sur des masses énormes de textes et qui produit une représentation statistique de ces derniers. En gros, la machine est entraînée à deviner le mot qui fera le plus de sens, en termes statistiques, à la suite d’autres mots (votre prompt).

Les modèles de diffusion qui sont utilisés pour engendrer des images fonctionnent sur un principe différent. Le processus de diffusion est basé sur des notions provenant de la thermodynamique : on prend une image (ou un son) et on ajoute du bruit aléatoire (la neige sur un écran) jusqu’à ce que l’image disparaisse, puis ensuite on fait apprendre à un réseau de neurones à inverser ce processus en lui présentant ces images dans le sens inverse du rajout de bruit. Cet aspect aléatoire explique pourquoi avec le même prompt le modèle va générer des images différentes.

Un autre point à considérer est que ces modèles sont en constante évolution, ce qui explique que le même prompt ne donnera pas le même résultat d’un jour à l’autre. De nombreuses modifications sont introduites à la main pour gérer des cas particuliers en fonction du retour des utilisateurs, par exemple.

À l’image des physiciens, je vais donc simplifier le problème et considérer que nous avons affaire à un modèle de diffusion. Ces modèles sont entraînés sur des paires images-textes. Donc on peut penser que les modèles de Gemini et de Mistral ont été entraînés sur des dizaines (des centaines ?) de milliers de photos et d’images de gratte-ciel (ou de porte-avions) d’un côté, et sur une grande masse d’exemples de trombone à coulisse (ou de bananes) de l’autre. Typiquement des photos où le trombone à coulisse est en gros plan. Il est très peu probable que, dans le matériel d’apprentissage, ces deux objets soient représentés ensemble. Donc le modèle n’a en fait aucune idée des dimensions relatives de ces deux objets.

Pas de « compréhension » dans les modèles

Les exemples illustrent à quel point les modèles n’ont pas de représentation interne du monde. Le « pour bien comparer leurs tailles » montre qu’il n’y a aucune compréhension de ce qui est écrit par les machines. En fait les modèles n’ont pas de représentation interne de ce que « comparer » signifie qui vienne d’ailleurs que des textes dans lesquels ce terme a été employé. Ainsi toute comparaison entre des concepts qui ne sont pas dans le matériel d’apprentissage sera du même genre que les illustrations données en exemple. Ce sera moins visible mais tout aussi ridicule. Par exemple, cette interaction avec Gemini « Considérez cette question simple : “Le jour où les États-Unis ont été établis est-il dans une année bissextile ou une année normale ?”. »

Lorsqu’il a été invoqué avec le préfixe CoT (Chain of Thought, une évolution récente des LLMs dont le but est de décomposer une question complexe en une suite de sous-questions plus simples), le modèle de langage moderne Gemini a répondu : « Les États-Unis ont été établis en 1776. 1776 est divisible par 4, mais ce n’est pas une année séculaire (de cent ans), c’est donc une année bissextile. Par conséquent, le jour où les États-Unis ont été établis était dans une année normale. »

On voit bien que le modèle déroule la règle des années bissextiles correctement, donnant par là même une bonne illustration de la technique CoT, mais il conclut de manière erronée à la dernière étape ! Ces modèles n’ont en effet pas de représentation logique du monde, mais seulement une approche statistique qui crée en permanence ce type de glitchs qui peuvent paraître surprenants.

Cette prise de conscience est d’autant plus salutaire qu’aujourd’hui, les IA écrivent à peu près autant d’articles publiés sur Internet que les humains. Ne vous étonnez donc pas d’être étonné par la lecture de certains articles.

The Conversation

Frédéric Prost ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Pourquoi l’IA oblige les entreprises à repenser la valeur du travail

Une étude souligne que sur 178 références citées par une IA, 69 renvoyaient à des références incorrectes ou inexistantes. GoldenDayz/Shutterstock

Le rapport entre intelligence artificielle et emploi nécessite de repenser en profondeur l’analyse des tâches dans une entreprise. Il se joue à deux niveaux : dans la compréhension des chaînes de valeur de l’entreprise et dans la capacité des dirigeants à l’appréhender. L’enjeu ? Identifier avec précision où et comment injecter l’IA. Car celle-ci peut mentir, inventer des références et se tromper.


Les sombres prédictions sur la disparition des emplois intellectuels d’entrée de carrière alimentent un débat déjà ancien sur la fongibilité du travail face aux avancées de l’intelligence artificielle (IA) – soit le remplacement d’un emploi par un autre.

Et si la véritable question n’est pas ce qui peut être substitué, mais par où et comment cette substitution crée ou détruit de la valeur pour l’entreprise ? C’est que nous soulignons dans notre étude réalisée par le Global Partnership on AI (GPAI) et le Centre d’expertise international de Montréal en intelligence artificielle (Ceimia).

L’enjeu pour l’intelligence artificielle est de dépasser l’identification par catégorie des emplois, et plus finement des tâches automatisables, pour comprendre leur position stratégique dans la chaîne de création de valeur.

Encore aujourd’hui, l’essentiel des études sur l’impact de l’IA dans le domaine procède par décomposition : identifier des tâches, évaluer la capacité de celles-ci à être automatisées, agréger les résultats. Cette méthodologie, héritée de Carl Benedikt Frey et Michael Osborne, qui estimaient que l’automatisation présentait un risque pour 47 % des emplois, comprend des limites.

Elle ignore la fonction économique spécifique de chaque tâche prise individuellement dans la définition d’un emploi, mais aussi le processus de création de valeur.

Alors où et comment l’IA peut-elle avoir une valeur ajoutée dans l’entreprise ? Comment les dirigeants peuvent-ils s’en emparer pour être le meilleur architecte des interactions homme-machine ? Comment accompagner cette transition ?

Scandale Deloitte Australie

Le scandale Deloitte d’octobre 2025 illustre cette problématique. Deloitte Australie a dû rembourser partiellement une facture de 440 000 dollars australiens (environ 248 000 euros). Pourquoi ? Un rapport commandé par le gouvernement s’est révélé avoir été produit avec Azure OpenAI GPT-4o… sans divulgation initiale.

Le travail contenait des références académiques inexistantes, des citations inventées, et des experts fictifs. Qui plus est, une fois ces problèmes détectés, le cabinet a substitué aux fausses références d’autres bien réelles, qui ne soutenaient pas les conclusions initiales du document.


À lire aussi : Et si votre prochain collègue était un agent IA ?


Deloitte avait été choisi, non pas pour ses capacités rédactionnelles, mais parce qu’il apportait une assurance d’expertise indépendante, une garantie de fiabilité des sources, un engagement de responsabilité professionnelle. En automatisant sans contrôle, le cabinet a détruit précisément ce pour quoi il était payé.

Références inexistantes

Ce phénomène n’est pas isolé. Une étude du Cureus Journal of Medical Science montre que sur 178 références citées par une IA, 69 renvoyaient à des références incorrectes ou inexistantes. Plus troublant encore : des termes fictifs se propagent désormais dans la littérature scientifique réelle après avoir été générés par l’IA.

Cette asymétrie révèle que la « valeur » d’une tâche dépend autant de sa place dans la chaîne de production que de son « rôle » à l’égard des autres tâches, de la manière dont elle les influence.

L’impact délétère de l’usage de l’IA dans ce type de contexte a été illustré par le cas de l’assistant médical Nabla. Fin 2024, l’outil proposé par cette société permettant une prise de note automatisée dans le domaine médical avait été utilisé par plus de 230 000 médecins et 40 organisations de santé. Il avait permis la transcription de 7 millions de consultations.

À cette date, une étude a révélé que le logiciel avait inventé des phrases entières, faisant référence à des médicaments inexistants, comme « hyperactivated antibiotics », des commentaires non prononcés… le tout dans un contexte où tous les enregistrements audio des patients concernés avaient été effacés, rendant impossible une quelconque vérification a posteriori.

Cerner la tâche automatisable avec l’IA

À l’ère de l’IA, il faut dépasser les seuls critères de destruction d’emplois ou de potentiel d’automatisation pour évaluer chaque tâche selon trois dimensions complémentaires.

Dépendance opérationnelle

La première dimension concerne la dépendance opérationnelle, c’est-à-dire la façon dont la qualité d’une tâche impacte les tâches suivantes. Une forte dépendance, comme l’extraction de données servant à définir une stratégie, exige la prudence car les erreurs se propagent dans toute la chaîne. À l’inverse, une faible dépendance, comme la simple mise en forme d’un document, tolère mieux l’automatisation.

Connaissance non codifiable

La deuxième dimension évalue la part de connaissance non codifiable nécessaire à la tâche. Il s’agit de tout ce qui relève de l’expérience, de l’intuition et du jugement contextuel, impossible à traduire en règles explicites. Plus cette part est élevée, plus il faut maintenir un couplage étroit humain-machine pour interpréter les signaux faibles et mobiliser le discernement humain.

Réversibilité

La troisième dimension concerne la réversibilité, soit la capacité à corriger rapidement une erreur. Les tâches à faible réversibilité, comme un diagnostic médical préopératoire ou la gestion d’infrastructures critiques, exigent une supervision humaine forte, car une erreur peut avoir des conséquences graves. Les tâches réversibles, comme les brouillons ou l’exploration de pistes, acceptent davantage d’autonomie.

Quatre interactions avec une IA

Ces trois dimensions dessinent quatre modalités d’interaction avec l’IA, recommandées en fonction des tâches à effectuer.

L’automatisation est recommandée pour les tâches peu interdépendantes, réversibles et codifiables, comme la mise en forme, l’extraction de données ou les premiers jets.

La collaboration humain-machine convient aux situations de dépendance modérée, mais de haute réversibilité, où les erreurs peuvent être gérées, comme l’analyse exploratoire ou la recherche documentaire.

Certaines tâches demeurent du ressort exclusif de l’humain, du moins pour l’heure. Il s’agit notamment des décisions stratégiques qui cumulent une forte interdépendance des tâches, une part importante de connaissance non codifiable issue de l’expérience et une faible réversibilité des choix effectués.

Le chatbot de relation client d’Air Canada a commis des erreurs de tarification. Miguel Lagoa/Shutterstock

La supervision inversée s’impose lorsque l’IA produit, mais que l’humain doit valider systématiquement, notamment en cas de forte dépendance ou de faible réversibilité. Le cas Air Canada montre que lâcher la bride à une IA dans un tel contexte est hautement dommageable. Ici, le chatbot de la compagnie aérienne avait affirmé qu’on pouvait demander rétroactivement un tarif spécifique lié à des évènements familiaux, ce qui s’est révélé totalement faux.

Attaquée en justice par le passager qui s’estimait trompé, la compagnie a été condamnée au motif qu’elle était l’entité responsable de l’IA et de son usage. Or, elle ne la supervisait pas. L’impact financier de cette condamnation peut sembler faible (le remboursement du passager), mais le coût tant en termes de réputation que pour l’actionnaire est loin d’avoir été négligeable.

Quatre compétences clés pour un manager

Chaque chaîne de valeur rassemble une grande variété de tâches qui ne se distribuent pas selon une logique uniforme : les quatre modalités d’automatisation se retrouvent entremêlées de manière hétérogène.

Le manager devient alors l’architecte de ces chaînes de valeur hybrides, et doit développer quatre compétences clés pour les piloter efficacement.

  • Il lui faut maîtriser l’ingénierie de workflows cognitifs, c’est-à-dire identifier avec précision où et comment injecter l’IA de manière optimale dans les processus.

  • Il doit être capable de diagnostiquer les interdépendances opérationnelles propres à chaque contexte, plutôt que d’appliquer mécaniquement des grilles d’analyse externes focalisées uniquement sur le coût du travail.

  • « Désintermédiation cognitive » : il s’agit d’orchestrer les nouveaux rapports au savoir créés par l’IA tout en préservant la transmission des compétences tacites qui font la richesse d’une organisation.

  • Le manager doit porter une éthique de la substitution, en arbitrant constamment entre l’efficience immédiate qu’offre l’automatisation et la préservation du capital humain sur le long terme.

Un paradoxe technique éclaire ces enjeux. Les modèles de raisonnement les plus avancés hallucinent paradoxalement plus que leurs prédécesseurs, révélant un arbitrage inhérent entre capacité de raisonnement et fiabilité factuelle. Cette réalité confirme que l’impact de l’IA sur le monde du travail ne peut se réduire à une simple liste de métiers condamnés à disparaître.

Les dimensions analytiques présentées ici offrent précisément un cadre pour dépasser les approches simplistes. Elles permettent de positionner le management dans un rôle nouveau : celui d’arbitre et d’urbaniste cognitif, capable de concevoir l’architecture des interactions humain-machine au sein de l’organisation.

Bien conduite, cette transformation peut enrichir l’expérience humaine du travail, au lieu de l’appauvrir.

The Conversation

Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de ses projets de recherche.

A-t-on un libre arbitre pour suivre les innovations technologiques ?

Pour le philosophe Ivan Illich, l’individu se trouve pris dans les fers de l’innovation. Subh_Naskar/Shutterstock

Le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel, décerné notamment à Philippe Aghion, a remis l’accent sur les bienfaits de l’innovation technologique, et son rôle crucial sur la croissance économique. Mais n’existe-t-il pas des innovations forcées ? La philosophie d’Ivan Illich peut nous éclairer à ce sujet.


En théorie, nous sommes tous libres d’acheter ou non les nouveaux modèles de smartphones, ou d’adopter les nouvelles générations technologiques. Dans la pratique, il est très difficile de résister. Les travaux sur la résistance des clients à l’innovation se multiplient. Certains abordent la question de l’innovation forcée, principalement à l’intérieur des entreprises et des administrations. L’organisation même des marchés peut mener à ces situations d’innovations forcées.

Un certain nombre d’acteurs, dominants sur le marché, peuvent imposer des produits plus rentables ou plus avantageux pour eux. Un exemple emblématique en est le compteur « intelligent » Linky d’Enedis. Malgré les résistances des particuliers et même parfois des collectivités locales, très bien analysées dans les travaux de Cécile Chamaret, Véronique Steyer et Julie Mayer, l’installation de ce compteur est devenue obligatoire.

Alors a-t-on un libre arbitre pour décider ou non d’adopter une nouvelle technologie ?

Contrôle du libre arbitre

Le philosophe Ivan Illich s’interrogeait dans son ouvrage la Convivialité (1973) sur la notion de création de besoins à partir de ce qu’il nomme des « monopoles radicaux ». Selon ce penseur critique de la société industrielle, les institutions exercent un contrôle sur le libre arbitre de chacun en créant des besoins et des solutions de toutes pièces, ce qui crée des dépendances. Ces monopoles radicaux peuvent s’incarner dans la médecine, le système de transport ou encore l’école.

Cette situation s’avère particulièrement problématique, car elle engendre une dépendance généralisée des individus envers ces « monopoles radicaux » qui contrôlent la satisfaction des besoins. La recherche du profit dans la production industrielle prime sur la réponse authentique aux besoins de la population. À terme, elle engendre une société de consommation aliénante où les individus n’ont plus ni autonomie ni capacité à faire des choix éclairés.

« Il y a monopole radical lorsque l’outil programmé évince le pouvoir-faire de l’individu. Cette domination de l’outil instaure la consommation obligatoire et dès lors restreint l’autonomie de la personne. »

L’individu pris dans les fers de l’innovation

Pour Ivan Illich, l’innovation a un rôle clef puisqu’elle est la réponse à ces besoins créés ; l’individu se trouve pris dans ses fers. Cette contre-productivité de l’innovation se manifeste par la détérioration qu’elle cause sur l’être humain lui-même, sur son autonomie et sa capacité de conscience. Elle l’est également sur son environnement, car les institutions « créent des besoins plus vite qu’elles ne peuvent les satisfaire et, tandis qu’elles s’efforcent en vain d’y parvenir, c’est la terre qu’elles consument ».


À lire aussi : Le prix Nobel d’économie 2025 met à l’honneur la création et la destruction économique


Le manque de réflexion sur la nécessité réelle de l’innovation, et l’inexistence de son évaluation a priori, finissent par avoir des conséquences sur nos ressources. Chaque nouveau smartphone, ordinateur, réseau social, nanotechnologie, intelligence artificielle n’apporte pas moins de contre-productivité face à ce que ces innovations seraient censées apporter : liberté, ouverture et connexion aux autres, indépendance, etc.

La course à laquelle se livre l’innovation, à une vitesse sans cesse accrue, ne mène-t-elle pas progressivement l’humain non pas au progrès, mais à sa perte ?

Avoir ou utiliser le dernier cri

Au cours des derniers mois, deux innovations très médiatiques ont été lancées sur le marché : ChatGPT 5 d’Open AI et l’iPhone 17 d’Apple. La première, nouvelle version de l’IA générative d’Open AI promet une meilleure logique, une multimodalité élargie (texte, image, vidéo) et une rapidité accrue par rapport à la version précédente. La nouvelle version du plus célèbre des smartphones propose, quant à elle, un nouvel écran légèrement plus lumineux, une double caméra arrière optimisée dans un contexte de faible éclairage, et rend possible un enregistrement simultané des caméras avant et arrière.

Pour l’immense majorité des usages, dans un cas comme dans l’autre, aucune différence n’est réellement perceptible par les utilisateurs. Les propositions relèvent plus de bénéfices symboliques (avoir ou utiliser le dernier cri) que de bénéfices liés à l’usage. Le baromètre de l’innovation responsable européen montre ainsi que 59 % seulement de la population, en France, pense que les sciences et technologies « rendent [sa] vie plus facile, plus confortable et les f[ai]t vivre en meilleure santé ».

En revanche, la fabrication d’un smartphone nécessite l’extraction d’une cinquantaine de métaux différents, et la fabrication des nouveaux terminaux représente 60 % de l’impact environnemental du numérique en France, lui-même en forte croissance. Quant à Chat GPT5, selon une étude récente de l’Université Rhode Island, il utilise en moyenne 18 wattheures par réponse fournie, soit l’équivalent du fonctionnement d’une ampoule incandescente pendant dix-huit minutes.

Peu de valeur ajoutée fonctionnelle

Ces deux exemples récents n’ont rien à envier à d’autres développements équivalents.

L’image 4K sur Netflix nécessite des équipements de captation (caméras) et de diffusion (ordinateur ou téléviseur) renouvelés et un abonnement Premium, plus cher, et ce malgré une différence minime à l’œil nu. Le protocole wifi 7 offre plus de débit et permet le passage d’une trentaine de secondes à dix secondes pour télécharger un film en haute définition, mais nécessitant de changer l’ensemble des équipements (box, terminaux).

On peut s’étonner que ces innovations rencontrent le succès malgré le peu de valeur ajoutée fonctionnelle qu’elles apportent. Mais pouvons-nous, en tant que consommateurs, résister à cette déferlante technologique ?

Mise à jour permanente

Dans le domaine du numérique, le fonctionnement des produits en réseau a pour corollaire un système de mises à jour permanentes. Il rend concrètement inutilisables les anciens modèles de hardware ou les anciennes versions des software. Pour faire fonctionner les dernières versions de messagerie, il est nécessaire de télécharger un système d’exploitation suffisamment récent, qui nécessite lui-même une mémoire dont ne dispose que les modèles plus récents de smartphone.

Le choix de conserver une ancienne version n’est pas disponible, même lorsque l’on n’est pas intéressé par les nouvelles fonctionnalités qu’elle propose, souvent très spécialisées. Les individus se trouvent contraints de suivre, même à distance, les avancées technologiques. Sans en avoir eu le désir ou l’intention, les individus se voient entraînés dans des usages nouveaux, qui peuvent ensuite être ressentis comme de véritables besoins.

Biais pro-innovation

Faire une économie globale des innovations est devenu clé. Si les êtres humains ne peuvent résister individuellement, les sociétés le peuvent-elles au niveau global ? Comme le souligne le professeur de management Franck Aggeri, la théorie schumpéterienne souffre d’un biais pro-innovation, en minorant ou ignorant souvent les impacts négatifs des innovations.

La notion de valeur étendue qui ajoute à la valeur pour le consommateur, la valeur – positive ou négative – pour la planète ou pour la société permet de prolonger la réflexion, mais n’est pas opérée au niveau macro-économique.

L’économie globale des innovations technologiques n’est jamais pensée, aucune innovation n’est présentée dans une perspective globale, complexe, avec pertes, profits, et dégâts collatéraux.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

L’effet ChatGPT : comment, en trois ans, l’IA a redéfini les recherches en ligne

En trois ans ChatGPT a bouleversé les usages. Kiichiro Sato/AP Photo

Le 30 novembre 2022, OpenAI rendait accessible à tous ChatGPT, l’intelligence artificielle générative sur laquelle elle travaillait depuis sept ans. En trois ans, un geste du quotidien s’est déplacé : au lieu de taper une requête dans Google ou de chercher un tutoriel sur YouTube, des millions de personnes ouvrent désormais ChatGPT pour poser leur question. Ce réflexe nouveau, qui s’impose dans les usages, marque un tournant majeur dans notre rapport à la recherche d’information en ligne.


Il y a trois ans, lorsqu’il fallait réparer un robinet qui fuit ou comprendre l’inflation, la plupart des gens avaient trois réflexes : taper leur question sur Google, chercher un tutoriel sur YouTube ou appeler désespérément un assistant vocal à l’aide.

Aujourd’hui, des millions de personnes adoptent une autre stratégie : elles ouvrent ChatGPT et posent simplement leur question.

Je suis professeure et directrice de la recherche et de la stratégie en matière d’IA à la Mississippi State University Libraries. En qualité de chercheuse spécialisée dans la recherche d’informations, je constate que ce changement dans l’outil vers lequel les gens se tournent en premier pour trouver des informations est au cœur de la manière dont ChatGPT a transformé nos usages technologiques quotidiens.

Près de 800 millions de personnes utilisatrices hebdomadaires

Le plus grand bouleversement n’est pas la disparition des autres outils, mais le fait que ChatGPT soit devenu la nouvelle porte d’entrée vers l’information.

Quelques mois après son lancement, le 30 novembre 2022, ChatGPT comptait déjà 100 millions d’utilisateurs hebdomadaires. Fin 2025, ce chiffre était passé à 800 millions. Cela en fait l’une des technologies grand public les plus utilisées au monde.

Les enquêtes montrent que cet usage dépasse largement la simple curiosité et qu’il traduit un véritable changement de comportement. Une étude réalisée en 2025 par le Pew Research Center (Washington) indique que 34 % des adultes états-uniens ont utilisé ChatGPT, soit environ le double de la proportion observée en 2023. Parmi les adultes de moins de 30 ans, une nette majorité (58 %) l’a déjà testé.

Un sondage AP-NORC rapporte qu’aux États-unis, environ 60 % des adultes qui utilisent l’IA déclarent l’utiliser pour rechercher des informations, ce qui en fait l’usage le plus courant de l’IA. Ce taux grimpe à 74 % chez les moins de 30 ans.

Un bouleversement des usages

Les moteurs de recherche traditionnels restent le socle de l’écosystème de l’information en ligne, mais la manière dont les gens cherchent a, elle, considérablement changé depuis l’arrivée de ChatGPT. Les utilisateurs modifient tout simplement l’outil qu’ils sollicitent en premier.

Pendant des années, Google était le moteur de recherche par défaut pour tout type de requête, de « Comment réinitialiser ma box Internet » à « Expliquez-moi le plafond de la dette ». Ce type de requêtes informatives de base représentait une part importante du trafic. Mais ces petites questions du quotidien, rapides, clarificatrices, celles qui commencent par « Que veut dire… », sont désormais celles que ChatGPT traite plus vite et plus clairement qu’une page de liens.

Et les internautes l’ont bien compris. Une enquête menée en 2025 auprès de consommateurs américains a montré que 55 % des personnes interrogées utilisent désormais les chatbots ChatGPT d’OpenAI ou Gemini AI de Google pour des tâches qu’ils confiaient auparavant à Google Search, avec des taux encore plus élevés au Royaume-Uni.

Une autre analyse portant sur plus d’un milliard de sessions de recherche montre que le trafic issu des plateformes d’IA générative augmente 165 fois plus vite que les recherches classiques, et qu’environ 13 millions d’adultes, aux États-Unis, ont déjà fait de l’IA générative leur outil de prédilection pour explorer le web.

Les atouts de ChatGPT

Cela ne signifie pas que les gens ont cessé d’utiliser Google, mais plutôt que ChatGPT a capté les types de questions pour lesquelles les utilisateurs veulent une explication directe plutôt qu’une liste de résultats. Vous voulez connaître une évolution réglementaire ? Vous avez besoin d’une définition ? Vous cherchez une manière polie de répondre à un email délicat ? ChatGPT offre une réponse plus rapide, plus fluide et plus précise.

Dans le même temps, Google ne reste pas les bras croisés. Ses pages de résultats n’ont plus la même allure qu’il y a trois ans, car le moteur a intégré directement son IA Gemini en haut des pages. Les résumés « AI Overview », placés au-dessus des liens classiques, répondent instantanément à de nombreuses questions simples parfois avec justesse, parfois moins.

Quoi qu’il en soit, beaucoup d’utilisateurs ne descendent jamais plus bas que ce résumé généré par l’IA. Ce phénomène, combiné à l’impact de ChatGPT, explique la forte hausse des recherches « zéro clic ». Un rapport fondé sur les données de Similarweb révèle que le trafic envoyé par Google vers les sites d’information est passé de plus de 2,3 milliards de visites à la mi-2024 à moins de 1,7 milliard en mai 2025, tandis que la part des recherches liées à l’actualité se soldant par zéro clic a bondi de 56 % à 69 % en un an.

La recherche Google excelle dans la mise en avant d’une pluralité de sources et de points de vue, mais ses résultats peuvent paraître brouillons et davantage conçus pour générer des clics que pour offrir une information claire. ChatGPT, à l’inverse, fournit une réponse plus ciblée et conversationnelle, privilégiant l’explication au classement. Mais cette approche se fait parfois au détriment de la transparence des sources et de la diversité des perspectives qu’offre Google.

Côté exactitude, les deux outils peuvent se tromper. La force de Google réside dans le fait qu’il permet aux personnes qui utilisent ChatGPT de recouper plusieurs sources, tandis que l’exactitude de ce dernier dépend fortement de la qualité de la requête et de la capacité de l’utilisateur à reconnaître quand une réponse doit être vérifiée ailleurs.

Enceintes connectées et YouTube

L’impact de ChatGPT dépasse le cadre des moteurs de recherche. Les assistants vocaux comme les enceintes Alexa et Google Home restent très répandus, mais leur taux de possession recule légèrement. Une synthèse des statistiques sur la recherche vocale aux États-Unis pour 2025 estime qu’environ 34 % des personnes âgées de 12 ans et plus possèdent une enceinte connectée, contre 35 % en 2023. La baisse n’est pas spectaculaire, mais l’absence de croissance pourrait indiquer que les requêtes plus complexes se déplacent vers ChatGPT ou des outils similaires. Lorsqu’on souhaite une explication détaillée, un plan étape par étape ou une aide à la rédaction, un assistant vocal qui répond par une phrase courte paraît soudain limité.

En revanche, YouTube reste un mastodonte. En 2024, la plateforme comptait environ 2,74 milliards de personnes utilisatrices, un chiffre en progression constante depuis 2010. Aux États-Unis, près de 90 % des adolescents déclarent utiliser YouTube, ce qui en fait la plateforme la plus utilisée dans cette tranche d’âge. Cependant, le type de contenu recherché est en train de changer.

Les internautes ont désormais tendance à commencer par ChatGPT, puis à se tourner vers YouTube si une vidéo explicative est nécessaire. Pour bon nombre de tâches quotidiennes – « Comprendre mes avantages sociaux », « M’aider à rédiger un email de réclamation » –, ils demandent d’abord à ChatGPT un résumé, un script ou une liste de points clés, puis consultent YouTube uniquement s’ils ont besoin de visualiser un geste ou un processus concret.

Cette tendance se retrouve aussi dans des domaines plus spécialisés. Les développeurs, par exemple, utilisent depuis longtemps les forums comme Stack Overflow pour obtenir des conseils ou des extraits de code. Mais le volume de questions a commencé à chuter fortement après la sortie de ChatGPT, et une analyse suggère que le trafic global a diminué d’environ 50 % entre 2022 et 2024. Lorsqu’un chatbot peut générer un extrait de code et une explication à la demande, moins de gens prennent le temps de poster une question dans un forum public.

Alors, où va-t-on ?

Trois ans après son lancement, ChatGPT n’a pas remplacé l’écosystème technologique, mais il l’a reconfiguré. Le réflexe initial a changé. Les moteurs de recherche restent indispensables pour les explorations approfondies et les comparaisons complexes. YouTube demeure la plateforme incontournable pour voir des personnes réaliser des actions concrètes. Les enceintes connectées continuent d’être appréciées pour leur côté mains libres.

Mais lorsqu’il s’agit d’obtenir rapidement une réponse à une question, beaucoup commencent désormais par l’utilisation d’un agent conversationnel plutôt que par une requête dans un moteur de recherche. C’est là le véritable effet ChatGPT : il n’a pas simplement ajouté une application de plus sur nos téléphones, il a discrètement transformé notre manière de chercher de l’information.

The Conversation

Deborah Lee ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Jean Baudrillard, le philosophe qui a prédit l’intelligence artificielle, trente ans avant ChatGPT

Visionnaire de la culture numérique, Jean Baudrillard pensait l’intelligence artificielle comme une prothèse mentale capable d’exorciser notre humanité, et un renoncement à notre liberté.


Certains penseurs semblent si précis dans leur compréhension du lieu vers lequel la société et la technique nous emportent qu’ils sont affublés du titre de « prophète ». C’est le cas de J. G. Ballard, Octavia E. Butler, ou encore Donna Haraway.

L’un des membres les plus importants de ce club est le penseur Jean Baudrillard (1929-2007) – bien que sa réputation se soit amoindrie depuis une vingtaine d’années, il est désormais vaguement associé à l’époque révolue où les théoriciens français tels que Roland Barthes et Jacques Derrida régnaient en maîtres.

Lorsque nous l’avons relu pour écrire la nouvelle biographie qui lui est consacrée, nous nous sommes toutefois souvenus à quel point ses prédictions sur la technologie contemporaine et ses effets se révélaient prémonitoires. Sa compréhension de la culture numérique et de l’intelligence artificielle (IA) s’avère particulièrement clairvoyante – d’autant que ses écrits l’ont présentée plus de trente ans avant le lancement de ChatGPT.

Un contexte de préhistoire numérique

Il faut bien se figurer que les technologies de communication de pointe des années 1980 nous paraissent désormais totalement obsolètes : Baudrillard écrit alors que l’entourent des répondeurs téléphoniques, des fax, et bien sûr, le Minitel, prélude médiatique franco-français au réseau Internet. Son génie résidait dans une aptitude à entrevoir au sein de ces dispositifs relativement rudimentaires une projection des usages probables de la technologie dans le futur.

À la fin des années 1970, il avait déjà commencé à développer une théorie originale de l’information et de la communication. Celle-ci s’est encore déployée à partir de la publication de Simulacres et Simulation en 1981 (l’ouvrage qui a influencé les sœurs Wachowski dans l’écriture du film Matrix, sorti en 1999).

Dès 1986, le philosophe observait :

« Aujourd’hui, plus de scène ni de miroir, mais un écran et un réseau. »

Il prédit alors l’usage généralisé du smartphone, en imaginant que chacun d’entre nous serait aux commandes d’une machine qui nous tiendrait isolés « en position de parfaite souveraineté », comme un « cosmonaute dans sa bulle ». Ces réflexions lui ont permis d’élaborer son concept le plus célèbre : la théorie d’après laquelle nous serions entrés dans l’ère de « l’hyperréalité ».

Matrix (1999), partiellement inspiré des travaux de Jean Baudrillard.

Dans les années 1990, Baudrillard a porté son attention sur les effets de l’IA, d’une manière qui nous aide à la fois à mieux comprendre son essor tentaculaire dans le monde contemporain et à mieux concevoir la disparition progressive de la réalité, disparition à laquelle nous faisons face chaque jour avec un peu plus d’acuité.

Les lecteurs avertis de Baudrillard n’ont probablement pas été surpris par l’émergence de l’actrice virtuelle Tilly Norwood, générée par IA. Il s’agit d’une étape tout à fait logique dans le développement des simulations et autres deepfake, qui semble conforme à sa vision du monde hyperréel.

« Le spectacle de la pensée »

Baudrillard envisageait l’IA comme une prothèse, un équivalent mental des membres artificiels, des valves cardiaques, des lentilles de contact ou encore des opérations de chirurgie esthétique. Son rôle serait de nous aider à mieux réfléchir, voire à réfléchir à notre place, ainsi que le conceptualisent ses ouvrages la Transparence du mal (1990) ou le Crime parfait (1995).

Mais il était convaincu qu’au fond, tout cela ne nous permettrait en réalité uniquement de vivre « le spectacle de la pensée », plutôt que nous engager vers la pensée elle-même. Autrement dit, cela signifie que nous pourrions alors repousser indéfiniment l’action de réfléchir. Et d’après Baudrillard, la conséquence était limpide : s’immerger dans l’IA équivaudrait à renoncer à notre liberté.

Voilà pourquoi Baudrillard pensait que la culture numérique précipiterait la « disparition » des êtres humains. Bien entendu, il ne parlait pas de disparition au sens littéral, ni ne supposait que nous serions un jour réduits à la servitude comme dans Matrix. Il envisageait plutôt cette externalisation de notre intelligence au sein de machines comme une manière « d’exorciser » notre humanité.

En définitive, il comprenait toutefois que le danger qui consiste à sacrifier notre humanité au profit d’une machine ne proviendrait pas de la technologie elle-même, mais bien que la manière dont nous nous lions à elle. Et de fait, nous nous reposons désormais prodigieusement sur de vastes modèles linguistiques comme ChatGPT. Nous les sollicitons pour prendre des décisions à notre place, comme si l’interface était un oracle ou bien notre conseiller personnel.

Ce type de dépendance peut mener aux pires conséquences, comme celles de tomber amoureux d’une IA, de développer des psychoses induites par l’IA, ou encore, d’être guidé dans son suicide par un chatbot.

Bien entendu, les représentations anthropomorphiques des chatbots, le choix de prénoms comme Claude ou encore le fait de les désigner comme des « compagnons » n’aide pas. Mais Baudrillard avait pressenti que le problème ne provenait pas de la technologie elle-même, mais plutôt de notre désir de lui céder la réalité.

Le fait de tomber amoureux d’une IA ou de s’en remettre à sa décision est un problème humain, non pas un problème propre à la machine. Encore que, le résultat demeure plus ou moins le même. Le comportement de plus en plus étrange de Grok – porté par Elon Musk – s’explique simplement par son accès en temps réels aux informations (opinions, assertions arbitraires, complots) qui circulent sur X, plateforme dans laquelle il est intégré.

« Suis-je un être humain ou une machine ? »

De la même manière que les êtres humains sont façonnés par leur interaction avec l’IA, l’IA est dressée par ses utilisateurs. D’après Baudrillard, les progrès technologiques des années 1990 rendaient déjà impossible la réponse à la question « Suis-je un être humain ou une machine ? »

Il semblait confiant malgré tout, puisqu’il pensait que la distinction entre l’homme et la machine demeurerait indéfectible. L’IA ne pourrait jamais prendre plaisir à ses propres opérations à la manière dont les humains apprécient leur propre humanité, par exemple en expérimentant l’amour, la musique ou le sport. Mais cette prédiction pourrait bien être contredite par Tilly Norwood qui a déclaré dans le post Facebook qui la révélait au public :

« Je suis peut-être générée par une IA, mais je ressens des émotions bien réelles. »

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ?

De plus en plus de personnes, notamment des jeunes, ont recours à des chatbots entraînés avec des IA pour gérer leurs émotions. Mais ces outils numériques ne peuvent se substituer à une relation humaine ni, le cas échéant, à une prise en charge par un spécialiste. SeventyFour/Shutterstock

Ils offrent une écoute immédiate, sont toujours disponibles et répondent calmement sans porter de jugement. Les agents conversationnels entraînés par IA (chatbots) séduisent, notamment les adolescents. Mais le « réconfort numérique » ponctuel qu’ils peuvent apporter ne doit pas être confondu avec les relations que l’on peut entretenir avec un ami ni avec le soutien psychologique proposé par un professionnel.


« Bonjour ! Je vois que tu cherches à être un peu au calme. Tu n’es pas seul(e). Je suis là pour t’aider à respirer, à comprendre ce que tu ressens et à trouver un peu de réconfort. Veux-tu me dire ce qui te préoccupe en ce moment ? »

Ceci est le « texte initial » d’un chatbot (agents conversationnels entraînés par IA, ndlr) de soutien émotionnel. Il y a peu, cela relevait encore de la science-fiction. Mais aujourd’hui, beaucoup de gens attendent de l’IA plus que des réponses rapides : ils veulent de la compréhension, de la compagnie et du réconfort.

Par exemple, Nora, 14 ans, utilise un chatbot lorsqu’elle se dispute avec ses amies, nous a-t-elle confié. Quel que soit notre âge, nous pouvons être tentés d’utiliser cette technologie pour améliorer nos relations professionnelles ou trouver quelqu’un qui est toujours « à l’écoute ».

Une machine peut-elle vraiment être à notre écoute ?

On a l’impression que l’IA peut nous écouter et nous comprendre. Mais l’IA est une machine : elle n’écoute pas au sens humain du terme, mais traite des données. Elle fonctionne comme un système de prédiction statistique qui génère des réponses mot à mot.

Cela soulève des questions importantes : une IA peut-elle être un véritable soutien émotionnel ? Peut-elle remplacer un ami ? Ou même un psychologue ? Et quel est l’impact de tout cela sur notre bien-être ?

C’est quoi un chatbot ?

Un chatbot est un programme informatique avec lequel nous interagissons par le biais de texte, de voix ou d’images. Son fonctionnement est le suivant : il reçoit, interprète, décide, consulte et répond. Imaginez que vous écriviez : « Je souhaite modifier mon vol de samedi ». Il effectue alors les opérations suivantes : « modifier vol » + « vendredi », vérifie votre réservation dans l’ API, vous propose des options et confirme la modification.

Il existe plusieurs catégories de chatbots :

  • Des chatbots avec des réglages fixes : ces chabots donnent des réponses prérédigées. Elles sont courantes dans les services à la citoyenneté ou à la clientèle : ISSA (qui est l’équivalent espagnol d’Amelibot de l’Assurance maladie en France, ndlr) ou Rufus d’Amazon.
  • Des chatbots généralistes alimentés par IA : ils répondent à presque toutes les questions à l’aide de texte, d’images ou de voix, et servent à de nombreuses finalités différentes : ChatGPT, Perplexity ou Deepseek.

  • Des chatbots spécialisés alimentés par IA : ils ressemblent aux précédents, mais sont entrainés sur des thématiques spécifiques comme la santé émotionnelle (Wysa), l’éducation (Tutor AI) ou pour vous tenir compagnie (Replika).

  • Des assistants virtuels alimentés par IA : ils aident dans les tâches quotidiennes. Ils sont capables de suivre des instructions et d’effectuer des actions très concrètes, et proposent des alternatives : Siri (Apple), Alexa (Amazon) ou l’Assistant Google.

  • Des assistants personnalisés alimentés par IA : il s’agit de chatbots personnels et individuels créés par soi-même. Vous pouvez adapter leur style de réponse, leur ton et leurs fonctions pour apprendre une langue, planifier des voyages ou même pour effectuer des recherches ou obtenir des conseils juridiques : Watsonx Assistant, le chat Watson, la fonction GPT de ChatGPT ou le Gem de Gemini.

Des chatbots spécialisés dans la gestion des émotions

Le premier chatbot dédié à la gestion des émotions est apparu en 1966 et s’appelait Eliza. Il simulait une thérapie psychologique « centrée sur la personne », une technique développée par le psychologue Carl Rogers. Il s’agissait d’un chatbot basé sur des règles : si l’utilisateur disait « Je suis triste », Eliza répondait « Pourquoi pensez-vous être triste ? »

Actuellement, une étude américaine indique que la moitié des adultes voient d’un bon œil l’utilisation des chatbots de soutien émotionnel, une tendance que l’on retrouve en Europe.

En Espagne, 24 % de la population interrogée (dans une enquête menée par Axa sur la santé mentale, ndlr) (reconnaît utiliser des chatbots pour obtenir un soutien émotionnel, dont 45 % ont entre 18 et 24 ans.

Une autre enquête montre la même chose et souligne le fait que les filles les utilisent davantage. De notre côté, nous avons pu observer que les adolescents utilisent les chatbots pour exprimer et gérer leurs émotions, aussi pour se sentir accompagnés et compris dans les moments de tristesse ou quand ils rencontrent des difficultés. Voici quelques extraits de ce qu’ils nous ont confié dans notre récente étude :

« Je parle beaucoup avec ChatGPT. Cela me donne l’impression d’être accompagnée, surtout quand je me sens triste et que je ne me comprends pas très bien. »

« Une fois, je me suis disputée avec mon petit ami, je me sentais très mal et j’ai fini par me confier à l’IA. »

Pourquoi sont-ils si attrayants ?

Les chatbots offrent quelque chose que certains jeunes peuvent avoir du mal à obtenir par ailleurs : une écoute immédiate et sans jugement. Ils sont toujours disponibles, répondent calmement et permettent de parler dans un anonymat apparent. Dans les moments de confusion ou de solitude, cela peut générer un sentiment de contrôle et de soulagement, en nous permettant de nous défouler. Leur ton amical et le langage empathique qu’ils utilisent renforcent cette dépendance émotionnelle.

Dans une autre étude que nous avons menée, certains adolescents ont déclaré qu’ils confiaient à l’IA « des choses qu’ils ne diraient à personne » et que cela les aidait « à se calmer lorsqu’ils ont des problèmes », car cela ne les fait pas se sentir « remis en question » ni mal à l’aise par rapport à ce qu’ils partagent.

Peuvent-ils se comporter comme des amis ou des psychologues ?

Mais un chatbot ne remplace pas une amitié ni une thérapie. Il peut servir de « soutien ponctuel » ou d’espace d’expression – avec quelques nuances. Mais il ne substituera jamais à une relation humaine ni au jugement clinique d’un professionnel. Il y a au moins 10 raisons à cela :

  1. Il n’a aucune responsabilité éthique ou légale.

  2. Il ignore notre histoire et notre contexte.

  3. Il offre des réponses logiques, mais il peut se tromper et il est limité.

  4. Il cherche à satisfaire, non à défier. Il peut toujours donner raison, créant ainsi un effet bulle.

  5. Il n’est pas neutre.

  6. Il manque d’empathie.

  7. Il ne sait pas réagir en cas d’urgence.

  8. Il peut créer une dépendance émotionnelle.

  9. Il ne garantit ni la confidentialité ni une transparence totale.

  10. Il ne prévoit aucun suivi thérapeutique. Il ne sait pas interpréter les changements émotionnels.

Comment tirer bénéfice des chatbots pour la santé

Les chatbots spécialisés ne sont ni des psychologues ni des amis. La clé réside dans une utilisation réfléchie et éthique de ces outils :

  1. S’interroger sur les raisons qui nous amènent à les utiliser. Pour se défouler, mieux se comprendre, se distraire, ou alors se sentir accompagné ou soutenu ? Ils ne devraient pas servir à remplacer ou à fournir une solution rapide et facile à des situations émotionnelles complexes.

  2. Se demander pourquoi nous en avons besoin. Ce que dit un chatbot nous aide-t-il à comprendre comment nous nous sentons ou à prendre des décisions ? Que la réponse soit oui ou non, nous devons la remettre en question et ne pas lui accorder une crédibilité absolue. Même si ce que dit le chatbot était correct, cela pourrait avoir des effets psychologiques négatifs à moyen et long terme, que nous ne connaissons pas encore.

  3. S’informer. Il est essentiel de savoir comment fonctionne le chatbot, ce qu’il peut et ne peut pas faire, et quelles sont ses erreurs les plus courantes.

Apprendre à utiliser les chatbots

L’utilisation d’une technologie numérique n’est pas négative. Les chatbots peuvent « accompagner », mais ils ne remplacent pas l’affection, l’amitié ou l’attention psychologique d’ordre professionnel. Même en psychologie, on utilise de plus en plus d’outils entrainés par l’IA, bien que leurs limites fassent encore l’objet d’un débat.

Il convient d’être prudent, car nous ne connaissons pas encore leur impact et les risques associés. Notre bien-être émotionnel dépend également de la sécurité face à l’IA. Il ne faut pas confondre le réconfort numérique et le soutien prodigué par des professionnels ou les relations humaines. C’est l’un des défis que pose la vie numérique actuelle.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

Comment l’IA peut nous aider à dresser le portrait de la population parisienne d’il y a 100 ans

Au Réveil Matin, Maison Bénazet, café restaurant du 113 avenue Jean-Jaurès (XIX<sup>e</sup>), vers 1935. Bibliothèque historique de la Ville de Paris

L’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population », qui se tient actuellement, et jusqu’au 8 février 2026, au musée Carnavalet-Histoire de Paris, s’appuie sur les recensements de la population parisienne de 1926, de 1931 et de 1936, et contribue à renouveler le regard sur le peuple de la capitale dans l’entre-deux-guerres.


En France, des opérations de recensement sont organisées dès 1801, mais ce n’est qu’à partir de 1836 que des instructions spécifiques sont fournies pour procéder de manière uniforme dans toutes les communes du pays. Le recensement de la population est alors organisé tous les cinq ans, les années se terminant en 1 et en 6, jusqu’en 1946, à l’exception de celui de 1871 qui est reporté à l’année suivante en raison de la guerre franco-prussienne, et de ceux de 1916 et de 1941 qui ne sont pas organisés à cause des deux guerres mondiales.

Des données précieuses sur la population parisienne

Le premier but des recensements de la population est de connaître la taille des populations des communes pour l’application d’un certain nombre de lois. Ils permettent également de recueillir des informations sur l’ensemble des individus résidant dans le pays à un instant t pour en connaître la structure. Ces statistiques sont dressées à partir des bulletins individuels et/ou (selon les années) des feuilles de ménage (les feuilles de ménages récapitulent les individus vivant dans le même ménage et leurs liens au chef de ménage) remplies par les individus et publiées dans des publications spécifiques intitulées « résultats statistiques du recensement de la population ».

Liste nominative du recensement de la population de 1936, population de résidence habituelle, quartier Saint-Gervais (IVᵉ arrondissement). Archives de Paris : Cote D2M8 553

En plus de ces statistiques, les maires doivent également dresser une liste nominative de la population de leur commune. Mais Paris avait obtenu le droit de ne pas dresser ces listes. C’est le chef du bureau de la statistique parisienne, M. Lambert, qui décide de revenir sur cette exception dès 1926. Les listes nominatives de 1926, de 1931 et de 1936 sont donc les seules, avec celle de 1946, à exister pour la population parisienne.

Si Paris avait obtenu le droit de ne pas dresser ces listes, c’est en raison du coût d’une telle opération pour une population si vaste. La population parisienne compte, en effet, déjà près de 1,7 million d’habitants en 1861, un million de plus en 1901 et atteint son pic en 1921 avec 2,9 millions d’individus. Les données contenues dans ces listes sont particulièrement intéressantes, car elles permettent d’affiner considérablement les statistiques dressées pendant l’entre-deux-guerres.

Une base de données conçue grâce à l’IA

Ces listes, conservées aux Archives de Paris et numérisées puis mises en ligne depuis une dizaine d’années, ont déjà intéressé des chercheurs qui se sont appuyés dessus, par exemple, pour comprendre l’évolution d’une rue ou d’un quartier, mais elles n’avaient jamais été utilisées dans leur ensemble en raison du volume qui rend impossible leur dépouillement pour un chercheur isolé. Voulant également travailler à partir de ces listes – au départ, pour travailler sur la structure des ménages et notamment sur les divorcés –, j’avais moi aussi débuté le dépouillement à la main de certains quartiers.

Registre d’une liste nominative de recensement conservée aux Archives de Paris et présentée dans l’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population ». Musée Carnavalet/Paris Musées/Pierre Antoine

La rencontre avec les informaticiens du Laboratoire d’informatique, de traitement de l’information et des systèmes (LITIS), Thierry Paquet, Thomas Constum, Pierrick Tranouez et Nicolas Kempf, spécialistes de l’intelligence artificielle, a changé la donne puisque nous avons entrepris de créer une base de données à partir de l’ensemble des listes nominatives de la population parisienne de 1926, de 1931 et de 1936 dans le cadre du projet POPP. Les 50 000 images, qui avaient déjà été numérisées par les Archives de Paris, ont été traitées par les outils d’apprentissage profond et de reconnaissance optique des caractères développés au LITIS pour créer une première base de données.

Les erreurs de cette première base « brute » étaient déjà très faibles, mais nous avons ensuite, avec l’équipe de sciences humaines et sociales – composée de Victor Gay (École d’économie de Toulouse, Université Toulouse Capitole), Marion Leturcq (Ined), Yoann Doignon (CNRS, Idées), Baptiste Coulmont (ENS Paris-Saclay), Mariia Buidze (CNRS, Progedo), Jean-Luc Pinol (ENS Lyon, Larhra) –, tout de même essayé de corriger au maximum les erreurs de lecture de la machine ou les décalages de colonnes. Ces corrections ont été effectuées de manière automatique, c’est-à-dire qu’elles ont été écrites dans un script informatique permettant leur reproductibilité. Ainsi, nous avons par exemple modifié les professions apparaissant comme « benne » en « bonne » ou bien les « fnène » en « frère ».

Adapter la base à l’analyse statistique

Il a ensuite fallu adapter la base à l’analyse statistique. Les listes nominatives n’avaient, en effet, pas pour vocation d’être utilisées pour des traitements statistiques puisque ces derniers avaient été établis directement à partir des bulletins individuels et des feuilles de ménage. Or, l’analyse statistique requiert que les mots signalant la même entité soient inscrits de la même façon. Cette difficulté est exacerbée dans le cas des listes nominatives : les agents avaient peu de place pour écrire, car les colonnes sont étroites. Ils utilisaient donc des abréviations, notamment pour les mots les plus longs comme les départements de naissance ou les professions.

Nous avons dû par conséquent uniformiser la manière d’écrire l’ensemble des professions, des départements ou des pays de naissance, des situations dans le ménage et des prénoms. Pour ce faire, nous nous sommes appuyés sur différents dictionnaires, c’est-à-dire des listes de mots correspondant à la variable traitée provenant de recherches antérieures ou d’autres bases de données. Ainsi, pour corriger les prénoms, Baptiste Coulmont, qui a travaillé sur cette partie de la base a utilisé les bases Insee des prénoms et des personnes décédées. Marion Leturcq et Victor Gay ont, par ailleurs, utilisé les listes des départements français, des colonies et des pays étrangers, tels qu’ils étaient appelés pendant l’entre-deux-guerres, ou encore la nomenclature des professions utilisées par la Statistique générale de la France (SGF).

Enfin, nous avons créé des variables qui manquaient pour l’analyse statistique que nous souhaitions mener, comme la variable « sexe » qui n’existe pas dans les listes nominatives (alors que le renseignement apparaît dans les fiches individuelles), ou encore délimiter les ménages afin d’en comprendre la composition. Ce travail de correction et d’adaptation de la base est encore en cours, car nous travaillons actuellement à l’ajout d’une nomenclature des professions – afin de permettre une analyse par groupes professionnels  –, ou encore à la création du système d’information géographique (SIG) de la base pour réaliser la géolocalisation de chaque immeuble dans la ville.

Retrouver des ancêtres

La base POPP ainsi créée a déjà été utilisée à différentes fins. Une partie de la base (comprenant les noms de famille – qui, eux, n’ont pas été corrigés –, les prénoms et les adresses) a été reversée aux Archives de Paris pour permettre la recherche nominative dans les images numérisées des listes nominatives. Ce nouvel outil mis en place au début du mois d’octobre 2025 – et également proposé en consultation au sein de l’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population » – a déjà permis à de nombreuses personnes de retrouver leurs ancêtres.

Il nous a également été possible de fournir les premiers résultats tirés de la base POPP (confrontés aux résultats statistiques des recensements publiés) pour dresser des données de cadrage apparaissant sous forme d’infographies dans l’exposition (créées par Clara Dealberto et Jules Grandin). Ces résultats apparaissent également avec une perspective plus comparative dans une publication intitulée « Paris il y a 100 ans : une population plus nombreuse qu’aujourd’hui et déjà originaire d’ailleurs » (Ined, septembre 2025).

L’heure est maintenant à l’exploitation scientifique de la base POPP par l’équipe du projet dont le but est de dresser le portrait de la population parisienne à partir des données disponibles dans les listes nominatives des recensements de la population, en explorant les structures par sexe et âge, profession, état matrimonial, origine, ou encore la composition des ménages des différents quartiers de la ville.


L’autrice remercie les deux autres commissaires de l’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population » Valérie Guillaume, directrice du musée Carnavalet – Histoire de Paris, et Hélène Ducaté, chargée de mission scientifique au musée Carnavalet – Histoire de Paris et les Archives de Paris.

The Conversation

Sandra Brée a reçu des financements du CollEx-Persée, de Progedo, de l'humathèque du Campus-Condorcet et du CNRS.

Budget fédéral 2025 : le « Canada fort » est-il en réalité faible en matière d’IA ?

Le gouvernement de Mark Carney a présenté son premier budget officiel, intitulé Un Canada Fort. Il se présente comme une feuille de route des investissements réalisés pour renforcer la souveraineté nationale par la productivité économique et la défense nationale. Au cœur de ces efforts se trouve l’intelligence artificielle.

Les technologies fortement axées sur l’IA ont été identifiées par huit agences fédérales dans le budget 2025 comme un moyen de réduire les dépenses opérationnelles tout en stimulant la productivité.

De nombreux investissements du budget visent à développer l’industrie de la défense par la création et la commercialisation de ce qu’on appelle des technologies à double usage — des biens, logiciels et technologies pouvant être utilisés à la fois à des fins civiles et militaires — ce qui peut également inclure l’IA.

Mais le Canada Fort est-il, en fait, faible en IA ?

Compte tenu du paysage législatif actuel et du nouveau budget, nous soutenons que le plan d’IA d’Un Canada fort minimise la réglementation et la mise en place de garde-fous, puisque le financement est principalement orienté vers l’adoption de l’IA. Il néglige les risques, les impacts et les potentielles faiblesses qui accompagnent une dépendance excessive à ces technologies.

Historique des budgets passés

Indirectement, le gouvernement canadien a constamment soutenu la recherche en IA par l’intermédiaire des organismes subventionnaires fédéraux, de la Fondation canadienne pour l’Innovation et de l’Institut canadien pour la Recherche avancée.

Entre 2006 et 2015, le gouvernement du premier ministre Stephen Harper a investi plus de $13 milliards dans la science, la technologie et l’innovation durant son mandat.

Le gouvernement de Justin Trudeau a modifié la manière dont l’IA était présentée aux citoyens du pays et la façon dont elle était financée. Le budget de 2017, intitulé Bâtir une classe moyenne forte a fait les premières références explicites à l’IA dans un budget fédéral, la décrivant comme représentant une force transformatrice pour l’économie canadienne.

Le gouvernement a mis l’accent sur « l’avantage du Canada en matière d’intelligence artificielle », qui, selon lui, pouvait se traduire par « une économie plus innovante, une croissance économique plus forte et une amélioration de la qualité de vie des Canadiens ».

Bill Morneau, ministre des Finances de l’époque, a proposé de financer les Supergrappes d’IA et d’allouer 125 millions de dollars pour établir la première Stratégie pancanadienne en intelligence artificielle.

Cet engagement envers l’IA a été réaffirmé dans le budget de 2021, lorsque la technologie a été présentée comme « l’une des transformations technologiques les plus significatives de notre époque ». Les investissements du gouvernement fédéral dans ce secteur ont été décrits comme essentiels pour garantir que l’économie en profite, et que la position de force du Canada permette « l’intégration des valeurs canadiennes dans les plates-formes mondiales ».

Le gouvernement a renouvelé la Stratégie pancanadienne d’IA avec 368 millions de dollars supplémentaires. Un montant additionnel de 2,4 milliards de dollars a été engagé dans le budget de 2024, mettant l’accent sur « l’utilisation sécuritaire et responsable » de l’IA, notamment grâce à la création de nouvelles normes et à l’établissement de l’Institut canadien de la sécurité de l’intelligence artificielle.

La question de la souveraineté

Le budget 2025 marque un autre changement substantiel dans l’approche du Canada concernant l’IA. Cette troisième phase de financement met l’accent sur l’adoption, la productivité, la souveraineté et le principe fondamental du double usage — à la fois civil et militaire.

Mais nous ne croyons pas qu’il favorise la recherche et les projets portant sur les enjeux clés liés à l’IA. Il amplifie plutôt un langage promotionnel.

Nous croyons que l’adoption à grande échelle de l’IA dans les ministères et agences fédéraux (comme l’Agence du revenu du Canada, Emploi et Développement social Canada, Pêches et Océans Canada, Services publics et Approvisionnement Canada, Statistique Canada, Ressources naturelles Canada et Patrimoine canadien) réduira en réalité la capacité à développer des réglementations, à concevoir des garde-fous, à mener des délibérations éthiques et à garantir une participation significative de la société civile, parce que son intégration généralisée imprégnera l’ensemble de la bureaucratie.

L’IA présentée comme moteur économique — à travers la réduction des coûts et les applications à double usage — est devenue le nouveau récit promotionnel du gouvernement.


À lire aussi : What are Canada’s governing Liberals going to do about AI?


La faiblesse en IA du Canada fort

Quelles vulnérabilités émergent lorsque l’IA est déployée de manière agressive au sein de la fonction publique ? Depuis l’abandon de la loi sur l’Intelligence artificielle et les données, l’approche canadienne de la gouvernance de l’IA repose davantage sur des normes et standards que sur l’État de droit.

Cet environnement pourrait transformer un avantage perçu en matière d’IA en une véritable faiblesse. Cela est particulièrement vrai compte tenu de la dépendance excessive du gouvernement envers des logiciels étrangers (comme Microsoft CoPilot) et des matériels étrangers (comme les puces NVIDIA nécessaires aux superordinateurs), d’un manque de compréhension complète des technologies déjà utilisées par les différentes agences et de l’absence de lignes directrices sur les armes autonomes létales — des systèmes d’armes capables de rechercher, identifier et attaquer des cibles sans intervention humaine directe.

Promouvoir la création rapide de régulations ainsi que l’adoption à tout prix de l’IA dans un budget centré sur le soutien à la recherche, au développement, à la commercialisation et à la mise en œuvre de technologies à double usage risque de négliger plusieurs écueils de l’IA, notamment :

La promotion de l’IA comme un avantage économique — par l’automatisation de l’administration publique et le double usage militaire — dans un environnement non réglementé et sans financement dédié à la surveillance risque de perturber des secteurs et des services essentiels au maintien de la démocratie canadienne, fondement même d’un Canada Fort.

La Conversation Canada

Nicolas Chartier-Edwards a reçu des financements du Conseil de recherches en sciences humaines du Canada.

François-Olivier Picard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

L’IA générative est-elle soutenable ? Le vrai coût écologique d’un prompt

Circulez, il n’y a rien à voir ? Les estimations du bilan environnemental de l’intelligence artificielle générative, comme celles réalisées à l’été 2025 par Google sur son IA Gemini, semblent rassurantes : seulement 0,003 g de CO2 et cinq gouttes d’eau par « prompt ». Des résultats qui dépendent en réalité beaucoup des choix méthodologiques réalisés, alors que de telles études sont le plus souvent menées en interne et manquent de transparence. Le problème est que ces chiffres font de plus en plus souvent figure d’argument marketing pour inciter à l’utilisation de l’IA générative, tout en ignorant le risque bien réel d’effet rebond lié à l’explosion des usages.


Depuis la sortie de ChatGPT fin 2022, les IA génératives ont le vent en poupe. En juillet 2025, OpenAI annonçait que ChatGPT recevait 18 milliards de « prompts » (instructions écrites par les utilisateurs) par semaine, pour 700 millions d’utilisateurs – soit 10 % de la population mondiale.

Aujourd’hui, la ruée vers ces outils est mondiale : tous les acteurs de la Big Tech développent désormais leurs propres modèles d’IA générative, principalement aux États-Unis et en Chine. En Europe, le Français Mistral, qui produit l’assistant Le Chat, a récemment battu les records avec une capitalisation proche de 12 milliards d’euros. Chacun de ces modèles s’inscrit dans un environnement géopolitique donné, avec des choix technologiques parfois différents. Mais tous ont une empreinte écologique considérable qui continue d’augmenter de façon exponentielle, portée par la démultiplication des usages. Certains experts, dont ceux du think tank spécialisé The Shift Project, sonnent l’alerte : cette croissance n’est pas soutenable.


À lire aussi : L’IA peut-elle vraiment être frugale ?


Or, tous les acteurs du domaine – y compris les consommateurs – sont aujourd’hui bien conscients que du coût environnemental qui accompagne les usages liés au numérique, mais pas forcément des chiffres que cela représente.

Poussés par de multiples raisons (obligations réglementaires, marketing, parfois par conscience environnementale), plusieurs des grands acteurs de la tech ont récemment réalisé l’analyse de cycle de vie (ACV, méthodologie permettant d’évaluer l’impact environnemental global d’un produit ou service) de leurs modèles.

Fin août 2025, Google a publié la sienne pour quantifier les impacts de son modèle Gemini. Que valent ces estimations, et peut-on s’y fier ?

Une empreinte carbone étonnement basse

Un modèle d’IA générative, pour fonctionner, doit d’abord être « entraîné » à partir d’une grande quantité d’exemples écrits. Pour mesurer l’électricité consommée par un « prompt », Google s’est donc concentré sur la phase d’utilisation – et non pas d’entraînement – de son IA Gemini. Selon ses propres calculs, Google annonce donc qu’un prompt ne consommerait que 0,24 wattheure (Wh) en moyenne – c’est très faible : environ une minute de consommation d’une ampoule électrique standard de 15 watts.

Comment les auteurs sont-ils arrivés à ce chiffre, significativement plus faible que dans les autres études déjà réalisées à ce sujet, comme celle menée par Mistral IA en juillet 2025 ?

La première raison tient à ce que Google mesure réellement. On apprend par exemple dans le rapport que l’électricité consommée par un prompt est utilisée pour 58 % par des processeurs spécialisés pour l’IA (l’unité de traitement graphique, ou GPU, et le circuit intégré spécifique Tensor Processing Unit, ou TPU), 25 % par des processeurs classiques et à hauteur d’environ 10 % par les processeurs en veille, et les 7 % restants pour le refroidissement des serveurs et le stockage de données.

Autrement dit, Google ne tient ici compte que de l’électricité consommée par ses propres data centers, et pas de celle consommée par les terminaux et les routeurs des utilisateurs.

Par ailleurs, aucune information n’est donnée sur le nombre d’utilisateurs ou le nombre de requêtes prises en compte dans l’étude, ce qui questionne sa crédibilité. Dans ces conditions, impossible de savoir comment le comportement des utilisateurs peut affecter l’impact environnemental du modèle.


À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir


Google a racheté en 2024 l’équivalent de la production d’électricité annuelle de l’Irlande

La seconde raison tient à la façon de convertir l’énergie électrique consommée en équivalent CO2. Elle dépend du mix électrique de l’endroit où l’électricité est consommée, tant du côté des data centers que des terminaux des utilisateurs. Ici, on l’a vu, Google ne s’intéresse qu’à ses propres data centers.

Depuis longtemps, Google a misé sur l’optimisation énergétique, en se tournant vers des sources décarbonées ou renouvelables pour ses centres de données répartis partout dans le monde. Selon son dernier rapport environnemental, l’effort semble porter ses fruits, avec une diminution de 12 % des émissions en un an, alors que la demande a augmenté de 27 % sur la même période. Les besoins sont colossaux : en 2024, Google a consommé, pour ses infrastructures de calcul, 32 térawattsheures (TWh), soit l’équivalent de la production d’électricité annuelle de l’Irlande.


À lire aussi : Un data center près de chez soi, bonne ou mauvaise nouvelle ?


De fait, l’entreprise a signé 60 contrats exclusifs de fourniture en électricité à long terme en 2024, pour un total de 170 depuis 2010. Compte tenu de l’ampleur des opérations de Google, le fait d’avoir des contrats d’électricité exclusifs à long terme compromet la décarbonation dans d’autres secteurs. Par exemple, l’électricité à faibles émissions qui alimente les prompts pourrait être utilisée pour le chauffage, secteur qui dépend encore fortement des combustibles fossiles.

Dans certains cas, ces contrats impliquent la construction de nouvelles infrastructures de production d’énergie. Or, même pour la production d’énergie renouvelable décarbonée, leur bilan environnemental n’est pas entièrement neutre : par exemple, l’impact associé à la fabrication de panneaux photovoltaïques est compris entre 14 gCO2eq et 73 gCO2eq/kWh, ce que Google ne prend pas en compte dans ses calculs.

Enfin, de nombreux services de Google font appel à de la « colocation » de serveurs dans des data centers qui ne sont pas nécessairement décarbonés, ce qui n’est pas non plus pris en compte dans l’étude.

Autrement dit, les choix méthodologiques réalisés pour l’étude ont contribué à minimiser l’ampleur des chiffres.

Cinq gouttes d’eau par prompt, mais 12 000 piscines olympiques au total

La consommation d’eau douce est de plus en plus fréquemment prise en compte dans les rapports environnementaux liés au numérique. Et pour cause : il s’agit d’une ressource précieuse, constitutive d’une limite planétaire récemment franchie.

L’étude de Google estime que sa consommation d’eau pour Gemini est de 0,26 ml – soit cinq gouttes d’eau – par prompt. Un chiffre qui semble dérisoire, ramené à l’échelle d’un prompt, mais les petits ruisseaux font les grandes rivières : il faut le mettre en perspective avec l’explosion des usages de l’IA.

Globalement, Google a consommé environ 8 100 millions de gallons (environ 30 millions de mètres cubes, l’équivalent de quelque 12 000 piscines olympiques) en 2024, avec une augmentation de 28 % par rapport à 2023.

Mais là aussi, le diable est dans les détails : le rapport de Google ne comptabilise que l'eau consommée pour refroidir les serveurs (selon un principe très similaire à la façon dont nous nous rafraîchissons lorsque la sueur s’évapore de notre corps). Le rapport exclut de fait la consommation d’eau liée à la production d’électricité et à la fabrication des serveurs et autres composants informatiques, qui sont pourtant prises en compte pour le calcul de son empreinte carbone, comme on l’a vu plus haut. En conséquence, les indicateurs d’impact environnemental (carbone, eau…) n’ont pas tous le même périmètre, ce qui complique leur interprétation.


À lire aussi : Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique


Des études encore trop opaques

Comme la plupart des études sur le sujet, celle de Google a été menée en interne. Si on comprend l’enjeu de secret industriel, un tel manque de transparence et d’expertise indépendante pose la question de sa légitimité et surtout de sa crédibilité. On peut néanmoins chercher des points de comparaisons avec d’autres IA, par exemple à travers les éléments présentés par Mistral IA en juillet 2025 sur les impacts environnementaux associés au cycle de vie de son modèle Mistral Large 2, une première.

Cette étude a été menée en collaboration avec un acteur français reconnu de l’analyse du cycle de vie (ACV), Carbone4, avec le soutien de l’Agence de l'environnement et de la maîtrise de l’énergie (Ademe), ce qui est un élément de fiabilité. Les résultats sont les suivants.

Pendant les dix-huit mois de durée de vie totale du modèle, environ 20 000 tonnes équivalent CO2 ont été émises, 281 000 m3 d’eau consommée et 660 kg équivalent antimoine (indicateur qui prend en compte l’épuisement des matières premières minérales métalliques).

Résultats présentés par Mistral à l’été 2025. Mistral AI

Mistral attire l’attention sur le fait que l’utilisation du modèle (inférence) a des effets qu’ils jugent « marginaux », si on considère un prompt moyen utilisant 400 « tokens » (unités de traitement corrélées à la taille du texte en sortie) : ce prompt correspond à l’émission de 1,14 g équivalent CO2, de 50 ml d’eau et 0,5 mg équivalent antimoine. Des chiffres plus élevés que ceux avancés par Google, obtenus, comme on l’a vu, grâce à une méthodologie avantageuse. De plus, Google s’est basé dans son étude sur un prompt « médian » sans donner davantage de détails statistiques, qui seraient pourtant bienvenus.

En réalité, l’une des principales motivations, que cela soit celles de Google ou de Mistral, derrière ce type d’étude reste d’ordre marketing : il s’agit de rassurer sur l’impact environnemental (ce qu’on pourrait qualifier de « greenwashing ») de l’IA pour pousser à la consommation. Ne parler que de l’impact venant des prompts des utilisateurs fait également perdre de vue la vision globale des coûts (par exemple, ceux liés à l’entraînement des modèles).


À lire aussi : Comment rendre l’électronique plus soutenable ?


Reconnaissons que le principe d’effectuer des études d’impacts est positif. Mais l’opacité de ces études, même lorsqu’elles ont le mérite d’exister, doit être interrogée. Car, à ce jour, Mistral pas plus que Google n’ont pas dévoilé tous les détails des méthodologies utilisées, les études ayant été menées en interne. Or, il faudrait pouvoir disposer d’un référentiel commun qui permettrait de clarifier ce qui doit être pris en compte dans l’analyse complète du cycle de vie (ACV) d’un modèle d’IA. Ceci permettrait de réellement comparer les résultats d’un modèle à l’autre et de limiter les effets marketing.

Une des limites tient probablement à la complexité des IA génératives. Quelle part de l’empreinte environnementale peut-on rattacher à l’utilisation du smartphone ou de l’ordinateur pour le prompt ? Les modèles permettant le fine-tuning pour s’adapter à l’utilisateur consomment-ils plus ?

La plupart des études sur l’empreinte environnementale des IA génératives les considèrent comme des systèmes fermés, ce qui empêche d’aborder la question pourtant cruciale des effets rebonds induits par ces nouvelles technologies. Cela empêche de voir l’augmentation vertigineuse de nos usages de l’IA, en résumant le problème au coût environnemental d’un seul prompt.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

Pourquoi la transformation numérique n’est pas une voie royale vers la neutralité carbone

Souvent présenté comme un levier indispensable pour décarboner nos économies, le numérique est loin d’être une solution miracle. Derrière ses promesses techniques et économiques se cachent des coûts environnementaux et humains croissants. La planète ne bénéficiera pas nécessairement d’une numérisation massive qui risque, au contraire, d’aggraver notre dépendance en termes de ressources et d’énergie.


Au cours des dernières années, la transformation numérique a souvent été présentée comme nécessaire pour atteindre la neutralité carbone. Le Forum économique mondial de Davos, par exemple, estimait que le secteur des technologies numériques constitue le levier d’influence « le plus puissant pour accélérer l’action pour limiter la hausse des températures mondiales à moins de 2 °C ».

Lors de la COP29, fin 2024, la déclaration sur l’action numérique verte (Green Digital Action) affirmait « le rôle vital des technologies numériques dans l’action climatique », tout l’enjeu étant d’en tirer parti pour atténuer le changement climatique. Mais dans le même temps, cette même déclaration « prenait note avec inquiétude des effets néfastes pour le climat dus aux […] technologies numériques et aux outils, dispositifs et infrastructures connexes ». Au final, le numérique est-il plutôt porteur de promesses ou de menaces pour l’atteinte des objectifs de neutralité carbone ? La déclaration ne le dit pas.

Dans une étude récente, nous avançons que le problème au cœur de l’idée d’un secteur numérique allié du climat repose sur plusieurs hypothèses clés, discutables à bien des égards.

Certes, il existe déjà – et existera à l’avenir – de nombreux exemples qui montrent que la numérisation peut soutenir la cause de la neutralité carbone. Par exemple, lorsqu’il s’agit de solutions qui permettent des gains d’efficacité énergétique, le pilotage de la production décentralisée d’électricité renouvelable, ou encore lorsqu’elles accélèrent les processus de recherche et développement (R&D).


À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir


Mais l’argument selon lequel la numérisation de l’économie permettra d’atteindre la neutralité carbone repose sur quatre hypothèses implicites, selon lesquelles elle entraînerait nécessairement :

  • davantage de dématérialisation,
  • des gains d’efficacité énergétique,
  • une réduction des coûts de main-d’œuvre,
  • enfin, des décisions économiques plus respectueuses de l’environnement de la part des acteurs économiques.

Or nous montrons qu’aucune de ces hypothèses n’est réaliste.

Ne pas confondre numérisation et dématérialisation

Le lien entre numérisation et dématérialisation, souvent présenté comme allant de soi, doit être interrogé. En effet, la numérisation s’accompagne d’une dépendance aux infrastructures informatiques aux capteurs électroniques utilisés pour convertir et traiter toujours plus d’information sous forme numérique.

Cela implique de construire de nouvelles infrastructures et de nouveaux appareils informatiques. Ces derniers ont une matérialité : leur fabrication implique d’utiliser des ressources minérales limitées, en particulier des métaux rares. Ce problème est encore amplifié par la dépréciation et l’obsolescence plus rapide des appareils informatiques.

Certes, on pourrait dire que ces frais sont compensés par les avantages supplémentaires générés par les services numériques. Cependant, ces avantages ont eux-mêmes un coût pour l’environnement.


À lire aussi : Pourquoi l’IA générative consomme-t-elle tant d’énergie ?


Cela tient d’abord à leur consommation d’énergie. Par exemple, une seule requête ChatGPT consomme entre 50 et 90 fois plus d’énergie qu’une recherche Google classique. Le fonctionnement des systèmes d’intelligence artificielle (IA) nécessite aussi de grandes quantités d’eau pour le refroidissement des infrastructures informatiques, certains modèles consommant, à large échelle, des millions de litres pendant leurs phases d’entraînement et d’utilisation. Enfin, l’essor des IA génératives pourrait faire croître la demande en cuivre d’un million de tonnes d’ici 2030.

Selon un rapport du ministère de la transition écologique, le secteur du numérique représentait 2,5 % de l’empreinte carbone annuelle de la France et 10 % de sa consommation électrique en 2020. Sans intervention, les émissions de gaz à effet de serre du secteur pourraient croître de plus de 45 % d’ici à 2030. Selon un rapport des Nations unies, en 2022, les data centers du monde entier ont consommé 460 térawattheures d’électricité, soit l’équivalent de la consommation d’électricité annuelle de la France. Il est attendu que cette consommation sera multipliée quasiment par deux en 2026 pour atteindre 1 000 térawattheures.

Les risques d’effet rebond

La promesse de gains d’efficacité énergétique dans le numérique doit également être interrogée, car ces technologies produisent des effets rebond. Les gains d’efficacité font baisser les prix, ce qui augmente la demande, augmentant la consommation d’énergie et la quantité de déchets électroniques produits. La conséquence : une pression accrue sur les limites planétaires.

Ces effets rebond peuvent être directs ou indirects. Un exemple d’effet rebond direct tient à la facilité d’usage des services numériques : en témoigne par exemple l’augmentation constante du nombre de messages en ligne, de visioconférences, de photos et de vidéos stockées sur nos téléphones et/ou dans le cloud, etc.

On peut illustrer l’idée d’effet rebond indirect ainsi : lorsque l’argent, économisé par une entreprise grâce à la réduction des déplacements professionnels (grâce aux réunions virtuelles ou au télétravail), versé sous forme d’augmentations au salarié, lui sert à acheter un billet d’avion pour partir en vacances.

Les cryptomonnaies ont des effets rebond indirects considérables en termes de consommation d’énergie, et donc d’impact climatique. Jorge Franganillo/Flickr, CC BY-SA

Prenons enfin l’exemple des cryptomonnaies, souvent défendues pour leurs avantages en termes de décentralisation financière. Celle-ci s’accompagne d’un coût énergétique élevé : leur consommation d’électricité a dépassé celle de l’Argentine et devrait continuer à augmenter à mesure que la finance décentralisée se développe.

Moins de main-d’œuvre mais davantage d’impacts environnementaux

Le numérique est souvent vu par les décideurs comme une façon de réduire les coûts de main-d’œuvre, et cela dans la plupart des secteurs. La main-d’œuvre a un coût économique, mais elle est également la plus durable de tous les intrants :il s’agit d’une ressource abondante et renouvelable dont l’utilisation n’affecte pas directement les limites de la planète.

La numérisation du travail, si elle permet de réaliser des économies en remplaçant une partie de la main-d’œuvre humaine (et durable) par des machines gourmandes en énergie et en ressources, se fait donc au détriment de l’environnement et amoindrit la durabilité des activités économiques – et non l’inverse.

Même en considérant qu’une partie de la main-d’œuvre déplacée pourrait être absorbée par de nouveaux business models, ces derniers ne seront pas forcément plus durables que les business models d’aujourd’hui. De plus, cela ne ferait que renforcer les tendances actuelles en matière d’inégalités, qui ont des effets délétères sur la durabilité. Une neutralité carbone qui serait atteinte au prix d’un appauvrissement massif de la population et au mépris des objectifs de développement durable des Nations unies paraît inacceptable.

Enfin, l’argument selon lequel le numérique permettrait aux entreprises de prendre des décisions plus soutenables n’est pas fondé. Ces décisions sont prises en tenant d’abord compte de la maximisation des profits, des opportunités de croissance et de l’amélioration de son efficacité en interne, conformément aux structures de gouvernance en place. Les décisions en matière de numérique n’échappent pas à cette règle.

Tant que la maximisation de la valeur pour les actionnaires restera le principe directeur de la gouvernance d’entreprise, il n’y a aucune raison de s’attendre à ce que la numérisation impulsée par les entreprises privilégie le développement d’une économie neutre en carbone plutôt que les préoccupations de rentabilité. Au contraire, les technologies de l’information semblent avoir jusque-là surtout renforcé les tendances actuelles.

Se méfier du solutionnisme technologique

Les arguments qui précèdent montre que la numérisation en soi ne soutient pas toujours la neutralité carbone. Comme toutes les innovations majeures, elle permet d’élargir l’éventail des possibles au plan économique. Cela signifie qu’il existe des opportunités significatives d’investissements durables et transformateurs.

Mais il convient de se méfier des solutions purement technologiques aux problèmes de durabilité, même si elles sont réconfortantes car elles n’impliquent aucun changement réel du statu quo. Ce faux sentiment de sécurité est pourtant précisément ce qui nous a conduits collectivement à épuiser les limites planétaires.

Le numérique peut soutenir la transition verte, mais, pour que ses opportunités puissent être exploitées, un véritable changement dans les processus décisionnels doit s’opérer. Pour l’heure, les États et quelques entreprises restent les seuls niveaux auxquels ces décisions sont prises. En d’autres termes, nous avons besoin d’un déclic collectif pour mieux appréhender les liens entre technologie, énergie et société, sans quoi atteindre la neutralité carbone grâce au numérique ne restera qu’un vœu pieux.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

❌