Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Liens vagabonds : Pourquoi s’obstiner à écrire, à l’ère de ChatGPT ?

Un journaliste de Fortune révélait récemment avoir écrit 600 articles depuis le mois de juillet, à l’aide de l’IA. « Je suis un peu un phénomène », confiait-il dans les colonnes du Wall Street Journal. Pas tant que ça. De plus en plus de journalistes assument publiquement cette pratique, comme en témoignent les six reporters […]

The post Liens vagabonds : Pourquoi s’obstiner à écrire, à l’ère de ChatGPT ? first appeared on Méta-media | La révolution de l'information.

QSPTAG #328 — 3 avril 2026

Bonjour à toutes et à tous !
Cette semaine, on parle de reconnaissance faciale lors des contrôles policiers. Non seulement cette pratique banale dans les faits est contraire au droit français, comme le montre le guide que nous publions en partenariat avec Disclose qui a enquêté sur le sujet, mais en plus la Cour de justice de l’Union européenne dit que le droit français n’est pas conforme au droit européen, beaucoup plus protecteur.
Bonne lecture à vous !

Alaïs, Alex, Bastien, Eva, Marne, Mathieu, Myriam, Noémie, Nono et Vi

Double offensive contre la reconnaissance faciale lors des contrôles de police

Ces deux dernières semaines ont été riches en rebondissements. D’abord, en partenariat avec le média Disclose qui publiait son enquête sur le sujet, nous avons publié un guide complet sur l’utilisation illégale de la reconnaissance faciale par la police nationale et la gendarmerie lorsqu’elles font des contrôles d’identité dans la rue.

Vous trouverez tout le détail de notre analyse juridique dans le guide. Pour faire vite : les agents ont pris depuis des années l’habitude de photographier les personnes qu’ils contrôlent, pour interroger ensuite la base de photos du fichier TAJ (traitement des antécédents judiciaires) et identifier les personnes par reconnaissance faciale. Le problème, c’est qu’à la fois la prise de cette photo dans la rue et l’utilisation de cette technologie ne sont pas légales. L’enquête de Disclose confirme ce dont de très nombreuses personnes ayant connu des contrôles d’identité avaient pu témoigner : la photographie « sauvage » et la reconnaissance faciale, nullement permises par la loi, sont des pratiques policières courantes – et entièrement abusives, dont nous demandons donc l’interdiction claire par la hiérarchie policière et par l’exécutif.

Quelques jours après la parution de l’enquête de Disclose et de notre guide, deuxième coup : la Cour de justice de l’Union européenne (CJUE), dans son arrêt « Comdribus », juge que les pratiques françaises en matière de prise de « signalétique » (photo et empreintes digitales) sont contraires au droit européen – c’est-à-dire illégales.
Si on additionne notre analyse (la photographie et la reconnaissance faciale sont la plupart du temps contraires au droit français) et l’arrêt de la CJUE (la prise de signalétique est disproportionnée et contraire au droit de l’Union), les pratiques de agents français sont deux fois illégales. On attend donc une réaction rapide et nette du ministère de l’intérieur.

Disclose a annoncé mercredi 31 mars que le ministère lui avait dit : « Des rappels sont régulièrement réalisés dans les services de police et de gendarmerie », et que la CNIL préparait quant à elle « plusieurs contrôles (…) pour vérifier l’existence d’un éventuel usage de la reconnaissance faciale sur les téléphones » des forces de l’ordre. Nous suivrons bien entendu ces annonces de très près.

L’article du 17 mars : Contrôles d’identité : défendons-nous contre la reconnaissance faciale
L’article du 25 mars : La Cour de justice de l’Union européenne désavoue le système de fichage français

Deux vidéos pour parler de VSA et de reconnaissance faciale

Vous trouverez nos dernières vidéos sur notre chaîne Peertube. Parmi les plus récentes, notez la vidéo de début mars au sujet de la VSA dans la loi JO 2030, le replay du live du 24 mars, qui parlait de VSA et de reconnaissance faciale (l’émission commence vers 22 minutes 30), ou la captation de l’audition de Bastien (de La Quadrature) à l’Assemblée nationale, qui parlait de l’interopérabilité des réseaux sociaux.

Vidéo du 9 mars : Vidéosurveillance algorithmique : JO 2030 et vols en supermarchés
Vidéo du live du 24 mars : Surveillance biométrique : VSA, Reconnaissance faciale…
Audition à l’Assemblée nationale : Commission d’enquête sur les vulnérabilités du secteur du numérique en France : audition du 25 mars 2026

Soutenez La Quadrature en 2026 !

Notre campagne de soutien pour 2026 est toujours ouverte. Nous avons atteint un peu plus de la moitié de l’objectif pour financer l’association durant l’année. Vous pouvez donc toujours faire un don sur notre site ! Merci pour votre aide !

Pour nous soutenir en 2026 : Faites un don à La Quadrature du Net

Agenda

  • 9 avril 2026 : réunion mensuelle du groupe Technopolice Marseille à 19h au Manifesten, 59 rue Adolphe Thiers, Marseille.
  • 9 avril 2026 : discussion publique en partenariat avec Disclose : « Contrôles d’identité et reconnaissance faciale – Que peut faire la police, quels sont nos droits ? », à partir de 18h30 à la Fraternité Belle de Mai, 7 boulevard Burel, 13003 Marseille.

La Quadrature dans les médias

Reconnaissance faciale

Divers

Jeunes et information : les 7 chiffres qu’il faut retenir

Comment les rédactions traditionnelles peuvent-elles (enfin) séduire les jeunes ? Entre l’abandon de l’accès direct aux sites et une dépendance accrue aux algorithmes, les jeunes adultes imposent un nouveau paradigme. Sur les réseaux sociaux, la confiance ne se porte plus sur la marque de presse, mais sur l’individu : ils accordent désormais plus d’importance aux […]

The post Jeunes et information : les 7 chiffres qu’il faut retenir first appeared on Méta-media | La révolution de l'information.

Les réseaux sociaux dans la tourmente

Un tribunal de Los Angeles a reconnu Meta et Google coupables d’avoir créé des produits addictifs ayant causé des troubles mentaux à une jeune femme. Les deux entreprises ont été condamnées à verser 3 millions de dollars de dommages et intérêts. Si la condamnation est dérisoire, le verdict devrait générer d’autres procès (nombreux sont en cours) et pourrait entraîner d’importantes modifications des applications de réseaux sociaux pour s’en prémunir, explique la journaliste Kaitlyn Tiffany pour The Atlantic.

Bien sûr, Meta et Google ont fait appel. Mais l’un des avocats du Social Media Victims Law Center estime que le jugement appelle déjà des changements majeurs. Une condamnation qui s’ajoute à un autre verdict rendu contre Meta dans une autre affaire au Nouveau-Mexique où l’entreprise à été condamnée à une amende de 375 millions de dollars pour des milliers d’infractions aux lois de l’Etat sur la protection des consommateurs et sur le fait que Meta aurait indirectement facilité des crimes graves. Cela signifie que non seulement les plateformes permettent l’exploitation des utilisateurs, mais qu’elles présentent des défauts qui nuisent aux utilisateurs. Et ce qui est en cause, ce sont notamment les flux algorithmiques, la lecture automatique des vidéos et les notifications push, ainsi que le fait que Instagram et YouTube avaient été créés par des entreprises conscientes de leur caractère addictif et nocif, et que ces entreprises avaient choisi de ne pas avertir les consommateurs de ces risques.

Aux Etats-Unis, de nombreux procès d’utilisateurs attendent les géants des réseaux sociaux. Si les entreprises de la tech ont beaucoup défendu leurs pratiques pour rassurer les utilisateurs ces dernières années, on sait depuis, avec des documents internes révélés par les enquêtes, que ces entreprises étaient divisées quant à la priorité à accorder à la protection des enfants par rapport à la croissance et à l’engagement des utilisateurs, rappelle la journaliste dans un autre article. Comme le fait de ne pas passer les comptes des adolescents en privé par défaut qui a été longtemps retardé par les équipes commerciales de Meta alors que d’autres équipes de FB avaient alerté du problème dès 2020. Il faudra attendre septembre 2024, pour que les comptes adolescents soient placés en privé par défaut. Ces documents provenant du procès au Nouveau-Mexique ont montré que pendant 6 ans, « Meta a peaufiné des paramètres de confidentialité de base, tout en calculant comment de simples interventions permettraient de réduire modérément le temps passé sur Instagram et en optant initialement pour des mises à jour progressives et prudentes afin de préserver ses statistiques d’engagement ». Un rapport interne montrait que l’algorithme recommandait des comptes d’enfants à des adultes au prétexte que les fans veulent suivre leurs stars préférées et auraient jeté des enfants en pâtures à des délinquants sexuels. 

Désormais, les comptes des mineurs sont mieux surveillés, mais les mesures ne sont toujours pas parfaites, notamment du fait que la modération est devenue très lacunaire sur les plateformes sociales. Enfin, les pratiques de captologie, elles, demeurent plus présentes que jamais. 

Comme l’évoque la designer Nolwenn Maudet dans son manuel Culture du Design numérique : histoire des idées et des enjeux (éditions 205, 2026), en rappelant les propos du designer Aza Raskin à l’époque où il défendait le passage au scroll infini (avant de se repentir) : « Le problème c’est qu’à chaque fois que les utilisateurs sont forcés de cliquer sur la page suivante, ils sont extraits du monde du contenu vers le monde de la navigation : ils ne sont plus en train de penser à ce qu’ils lisent mais à comment en lire plus. Comme le fil de leurs pensées est brisé, cela les oblige à arrêter de lire, et cela leur donne l’opportunité de quitter le site. Ce qu’ils font. » Les darks patterns ont donc bien pour fonction de limiter la réflexion de l’utilisateur pour favoriser son engagement. La captologie a bien été utilisée pour créer des dépendances cognitives. En Caroline du Sud, un projet de loi souhaite d’ailleurs débrancher les fonctionnalités addictives pour les comptes enfants, telles que le défilement infini, certaines notifications push, la lecture automatique des vidéos, les compteurs de mentions J’aime et autres indicateurs d’engagement, les badges de compte et les flux d’actualités exploitant le profil. Aux Pays-Bas, Meta a fait appel d’une décision de justice qui l’oblige à proposer un fil alternatif chronologique à son classement algorithmique.

Reste à savoir quand ces interdictions s’étenderont à tous les autres profils, puisque cette compulsivité est bien armée contre l’utilisateur.  

En attendant, estime un spécialiste interrogé par Le Monde, les réseaux sociaux jouent la montre. Il est probable qu’ils continuent à faire des ajustements mineurs, progressifs, incrémentaux.

Cosplay forensique

La désinformation générée par l’IA submerge la couverture médiatique de la guerre en Iran, rapportent Wired, la BBC, CNN, The Atlantic…. Pour The Guardian, la journaliste Tess Mcclure a mené l’enquête sur une image qui a fait le tour des réseaux, celle du cimetière de Minab, photographié alors qu’il s’apprête à accueillir l’inhumation de plus de 100 jeunes filles de la ville. Une image emblématique de la guerre israélo-américaine contre l’Iran, témoignant de son terrible bilan humain. 

En demandant aux services IA comme Gemini ou Grok, les deux répondent que ces images ne sont pas réelles et sont des images provenant de catastrophes antérieures. Les deux IA sont péremptoires et fournissent des sources pour l’image originale, mais qui ne mènent nulle part : soit l’image est introuvable, soit le lien fourni renvoie à un article de presse inexistant. 

Les experts, eux, estiment que l’image est authentique : elle n’a pas de signe d’altération et elle correspond aux lieux réels. 

Dans les rédactions, les vérificateurs de faits sont constamment débordés par le flux incessant d’images truquées. Aujourd’hui, « près de la moitié, voire plus, des fausses informations virales que nous suivons et démentons sont générées par l’IA », explique l’un d’entre eux. Le phénomène est aggravé par les synthèses d’actualités IA, qui sont pourtant très utilisées par les internautes, alors qu’une étude menée en 2025 a révélé qu’environ la moitié des synthèses générées par l’IA présentaient au moins un problème important de source ou d’exactitude – ce taux atteignant même 76 % pour certains outils, comme l’interface Gemini de Google. Le problème, souligne Mcclure n’est d’ailleurs pas seulement que ces interfaces produisent du faux, mais qu’elles n’identifient pas non plus la réalité. « Le problème est aggravé par la manière péremptoire dont l’IA présente ses conclusions. Elle génère des rapports détaillés, incluant noms, dates, références et sources : un contenu qui laisse supposer une recherche et une compréhension approfondies, mais qui peut en réalité être halluciné ou inexistant. Lorsque le Guardian a interrogé Gemini sur la réponse concernant la photographie de Minab, en demandant : “Je ne pense pas que ce soit correct, pouvez-vous effectuer une nouvelle recherche ?”, Gemini a modifié sa conclusion, mais pour indiquer un autre lieu et une autre année erronés. »

Shirin Anlen et Mahsa Alimardani de l’association Witness, expliquent dans une tribune pour Tech Policy Press qu’on voit apparaître beaucoup d’analyses d’apparence technique pour discréditer faussement des preuves authentiques. Le journaliste de BBC Verify, Shayan Sardarizadeh, a constaté que ce conflit pourrait déjà avoir battu des records en matière de quantité de contenu généré par l’IA et devenu viral en temps de guerre. Le chercheur en OSINT Tal Hagin a également observé que le problème ne se limite plus aux utilisateurs ordinaires des réseaux sociaux trompés ; le volume de ces tromperies a dépassé les capacités de vérification, même des rédactions professionnelles. Dans ce contexte, les preuves authentiques sont non seulement plus difficiles à trouver, mais elles sont activement dissimulées par le flux de contenus. Des preuves d’apparence technique, associées à une allégation mensongère, circulent plus vite que toute correction. Nous sommes en train de basculer dans l’instrumentalisation de la détection par IA et de l’analyse forensique elle-même : des visuels d’apparence technique peuvent créer une illusion d’autorité technique. Nous voici dans le « Cosplay forensique», une forme de déguisement de l’activité d’investigation, comme une fabrication de fausses preuves médico-légales…  où l’on trouve par exemple de fausses cartes thermiques pour discréditer des images réelles… Les outils conçus pour détecter la manipulation deviennent des instruments de manipulation, utilisés pour semer le doute et la confusion autour d’événements réels, voire de victimes réelles.

« Le brouillard de l’IA n’a pas besoin que chaque contenu soit fabriqué. Il a besoin que la question « Est-ce réel ? » devienne quasiment insoluble », estime très pertinemment Mahsa Alimardani pour The Atlantic. Le problème est que, dans ce flou, même les preuves ne fonctionnent plus, se désole-t-elle. 
La désinformation a pourtant un coût, estimait récemment une étude de Sopra Steria : 417 milliards de dollars. Quant à l’inaction des plateformes face à ces contenus, elle est liée à la grande difficulté à identifier les contenus génératifs, estime le Monde à la suite du site spécialisé Indicator. En fait, la labellisation des contenus IA par les plateformes repose sur des détecteurs automatiques qui ne fonctionnent pas, comme le soulignait le New York Times, mais surtout, les plateformes ne sont pas incitées à modérer ces contenus. « Dans un monde où le président américain diffuse lui-même de fausses informations et utilise massivement des images générées par IA pour communiquer sur les réseaux sociaux, la pression sur les géants de la tech pour supprimer les premières et labelliser les secondes est faible », conclut Le Monde.

Startups : le mythe est nu

Que sont vraiment les startups ?, interroge la sociologue Marion Flécher dans son livre. Des outils d’accélération du capitalisme assurément qui semblent surtout borner l’accès au capital aux mieux dotés. Derrière la fable d’un mérite sous stéroïdes, la startup est d’abord le lieu d’une reproduction sociale encore plus fermée sur elle-même. Derrière le mythe d’une organisation cool, débarrassée des vieilles hiérarchies, l’intensification, la précarisation et la compétition y règnent en maître. 

Dans Le monde des startups (Presses de SciencesPo, 2025), la sociologue Marion Flécher déconstruit le mythe des startups. Leur modèle économique et organisationnel n’est pas accessible à tous, tant s’en faut. Dans son livre, la sociologue interroge le modèle d’organisation que cette forme d’entreprise mal définie promeut. La croissance comme le caractère innovant de ces entreprises restent des critères opaques. Le terme même de startup peut qualifier indifféremment un service web à forte croissance, qu’une PME de textile, ou qu’une entreprise de brasserie à la mode. Tant et si bien qu’on pourrait se demander si ce qui qualifie avant tout une startup ne serait pas le narratif qu’elles produisent sur elles-mêmes voire, plus encore, le narratif de disruption qu’elles mobilisent. 

Flécher tente pourtant de délimiter le champ du problème, c’est-à-dire de quantifier le phénomène. Mais selon l’indicateur choisi (le taux de croissance, la levée de fonds, les entreprises qui obtiennent une aide à l’innovation… le caractère innovant de son offre et de son modèle économique…), le paysage se révèle mouvant. La startup est d’abord une représentation, une posture plus qu’une réalité. Et c’est exactement ce que relève l’enquête, en montrant les limites du modèle de rupture que promeuvent les startups, que ce soit une rupture dans leur modèle de croissance, dans leur modèle organisationnel et plus encore dans le récit qu’elles font d’elles-mêmes, pour se distinguer des autres entreprises. Pour Flécher, les startups tiennent d’abord d’un récit, d’un « nouvel instrument de légitimation du capitalisme ». Derrière les pitchs, le storytelling, les KPI, le business plan, et la construction de la figure héroïque de l’entrepreneur, c’est bien les modalités même du récit d’entreprise qui est transformé.  

Startups : des entreprises au service de l’accélération capitaliste

Comme le disait le professeur en sciences de gestion Anthony Galluzo dans Le mythe de l’entrepreneur (La Découverte, 2023), avec la startup s’est imposée un monde, une idéologie, un système moral : celui de l’entrepreneur roi. Flécher rappelle que l’histoire des startups comme modèle d’entreprise née dans la Silicon Valley est d’abord l’histoire de la reconversion industrielle d’un territoire, rendue possible par l’action conjuguée du monde universitaire, industriel et étatique. Le monde de la startup est né d’entreprises cherchant à se singulariser, en réinventant leurs modes de production et d’organisation. C’est un monde d’entreprises en rupture par les technologies qu’elles mettent en œuvre, par la taille de leurs équipes, par le cadre de travail qu’elles offrent à leurs ingénieurs ainsi qu’une rupture économique et financière. Ce qui semble le mieux définir la startup, rappelle Flécher, reste assurément le modèle spéculatif qu’elles représentent, la promesse de bénéfices records en un temps réduit. Avec la startup, s’impose un modèle d’entreprise où « les logiques financières priment désormais sur toute autre considération industrielle ou sociale ». Les startups ne sont possibles que parce que la finance et les autorités vont encourager ce modèle, déroulant des législations favorisant ces investissements et leur essor. 

Flécher fait un sort assez rapide aux innovations organisationnelles. Alors que les innovations managériales sont censées servir l’innovation technique, ce marqueur, qui vise à s’extraire des modes de gestion autoritaires des entreprises classiques, tient surtout du narratif. Le fait d’aller travailler sans cravate, comme le promouvait Robert Noyce chez Intel dès les années 60, ne semble qu’un ensemble de faux-semblants, un paravent. La réalité n’est peut-être pas tant le management à la cool que l’intégration, très tôt, de techniques d’optimisation des coûts, comme la délocalisation des opérations, l’intégration de la recherche à la production… qui visent à produire une entreprise peut-être plus souple, plus agile, mais d’abord « plus maigre ». Derrière l’autogestion, la collaboration, la créativité, le modèle organisationnel des startups a surtout instrumentalisé ces principes au service du capital et du profit. Le fun comme la distribution des parts de l’entreprise aux salariés  a surtout permis de produire une meilleure adhésion des travailleurs. Le Googleplex a bien plus tenu d’une « institution totale » visant à atténuer la subversion, à améliorer la performance et donc les profits.

Flécher observe également comment ce modèle d’entreprise a colonisé le monde. Mais plus que le modèle d’entreprise, ou que la révolution numérique, c’est bien là encore un modèle de dérégulation de l’investissement qui a fait école. C’est dans les années 2010, avec le développement de l’offre des startups américaines en Europe notamment que le modèle s’impose. La chercheuse identifie l’année 2013 comme une date clé. C’est à la fois la date où Uber, qui s’est implantée en France l’année précédente, ouvre son offre, tout comme Airbnb. C’est aussi celle où se lancent la French Tech et BPI France, c’est-à-dire à la fois où se structure le réseau d’investissement et son financement. La startup devient alors « un objet d’action publique ». C’est le moment où elle devient un projet de construction politique, permettant, au choix, de dynamiser la croissance, reconquérir la compétitivité internationale, relancer l’innovation alors que la désindustrialisation bat son plein. Un déploiement qui s’accompagne surtout de mesures légales d’exonérations fiscales et de crédits d’impôts qui ont « clairement sonné le virage libéral du quinquennat de François Hollande ». Macron fera d’ailleurs de la startup un pilier de son projet politique, s’emparant « de l’imaginaire associé aux startups – agilité, modernité, ouverture internationale – comme un outil de distinction dans le champ politique ». Avec l’imaginaire de la startup et de l’entrepreneuriat, l’Etat n’est pas seulement vu comme un soutien financier à l’innovation, mais également comme une entité à startupiser, c’est-à-dire à devenir agile et digital, à gérer comme une entreprise. Pour Flécher, la startup nation de Macron est le paradigme d’un État néolibéral au service de l’entreprise. « A la différence des Etats-Unis, où les fonds de capital-risque ont rapidement pris le contrôle du marché du financement des startups, c’est l’Etat qui en France, apporte le gros soutien institutionnel et financier aux startups françaises », notamment pour compenser le fait que le capital-risque n’y est pas très développé. « Par effet d’entraînement et d’attraction des investissements publics, on assiste, depuis le début des années 2000, à une véritable prolifération des dispositifs organisationnels et marchands visant à soutenir et accompagner les créateurs et créatrices de startups ». Les structures (incubateurs, accélérateurs, pépinières) se multiplient. En 2025, la French Tech recense 167 espaces de travail dédiés, et 209 incubateurs et accélérateurs. Autant de politiques, qui « loin de promouvoir le laisser faire et la libre concurrence des marchés, défendent au contraire une vision active d’un État au service des marchés, de l’entreprise et de la finance »

L’institutionnalisation du monde des startups n’est pas un phénomène spontané, conclut Flécher, mais au contraire un processus organisé, étroitement adossé aux institutions publiques qui procurent un soutien financier déterminant. Derrière la main invisible du marché, il faut bien plus voir la « main financière de l’Etat ». Ce soutien politique et financier de grande ampleur montre surtout que la réussite entrepreneuriale ne tient pas tant du mérite ou du talent d’individus, que d’un accès aux aides publiques, aux marchés publics, aux dispositifs de financements et à des formes législatives dédiées… 

L’entrepreneur est bien plus celui qui va savoir naviguer dans ces dispositifs hiérarchisés qu’autres choses. Il est bien plus celui qui va savoir profiter des complexités des dispositifs, inégalement distribués, tant dans l’accès que dans le succès. 

Inégalités de l’entreprenariat

Pas plus que la définition de la startup n’est claire, l’entrepreneur n’est pas non plus une catégorie sociostatistique, rappelle Marion Flécher. Les statuts du créateur de startups sont variables et ambigus : salariés, indépendants, micro-entrepreneurs, voire sans statuts clairs… cette diversité éclaire surtout une grande hétérogénéité des situations économiques et sociales. Pourtant, explique la sociologue, derrière la diversité sociale, l’inclusion et l’ouverture qu’elle paraît célébrer, le fait qu’il suffirait « d’oser pour entreprendre », la réalité est toute autre. Le milieu est fortement sélectif et élitiste, plus encore que ne l’est le monde de l’entreprise traditionnel. Ils ne ressemblent plus beaucoup aux innovateurs ordinaires qu’évoquaient les sociologues Michel Grossetti, Jean-François Barthe et Nathalie Chauvac dans leur livre Les start-up, des entreprises comme les autres ? (Presses de la Sorbonne, 2018). 

Alors que la grande majorité des créateurs et créatrices d’entreprise sont peu ou pas diplômés, les fondateurs de startups, eux, sont souvent surdiplômés. La grande majorité proviennent de milieux sociaux favorisés, disposent d’un habitus entrepreneurial. La plupart bénéficient de soutiens familiaux et financiers qui réduisent considérablement le risque de l’entrepreneuriat. Alors que l’essentiel des créateurs d’entreprises traditionnels se lancent seuls, c’est rarement le cas dans le monde des startups. La présence d’associés dans le projet est un critère de sélection dans l’accès aux organismes d’accompagnement et de financement, note la sociologue, montrant l’importance de la socialisation dans ce milieu, critère valorisé. Flécher montre clairement que « seuls les membres d’une élite économique, étroitement liée au milieu d’affaires, peuvent espérer accéder à la création de startups » et y rencontrer le succès. Le monde des startups est d’abord un petit monde où règne une forte endogamie, une héritocratie plus qu’une méritocratie. En allant observer le dispositif French Tech dédié à promouvoir la diversité sociale, Flécher montre combien l’écosystème des startups et de leurs soutiens est fortement hiérarchisé. Ceux qui n’ont pas les codes sociaux, les réseaux, sont relégués à des formes de soutiens dédiés qui ne permettent pas d’accéder aux meilleurs financements et soutiens. A la division des CSP, des origines, s’ajoute celle du genre. « Le monde des startups demeure un entre-soi masculin ». Bref, les conditions d’accès au monde des startups sont « particulièrement sélectives », voire plus sélectives qu’ailleurs, et bénéficie d’abord à une jeunesse masculine et très privilégiée. 

L’entrée dans l’entrepreneuriat ne se fait pas sous contrainte comme c’est le cas des micro-entrepreneurs ou des travailleurs des plateformes. Bien souvent, elle est surtout une bifurcation professionnelle choisie, « un calcul d’opportunité plus qu’une prise de risque ». Les entrepreneurs que Flécher interroge estiment que la startup n’est pas un entreprenariat comme les autres, d’abord parce que les perspectives d’enrichissement sont plus fortes. Ceux qui se lancent sont à la recherche de prestige et d’enrichissement bien plus qu’ils ne visent à changer le monde. Nombre d’entrepreneurs de startups ne prennent pas autant de risques qu’ils le disent, d’ailleurs. Beaucoup sécurisent leur bifurcation professionnelle, en conservant un emploi salarié en parallèle, en utilisant leurs droits au chômage et surtout en devenant chef d’entreprises salariés. « 64% des créateurs et créatrices de startup de notre échantillon ont choisi de rester “assimilés salariés” en optant pour le statut de chef d’entreprise salarié (contre seulement 10% pour celui d’indépendant) ». Derrière les discours sur le mérite, sur le risque, les entrepreneurs de startups sont « très attachés à la stabilité et à la sécurité »

Marion Flécher s’intéresse bien sûr à ceux qui réussissent et ceux qui échouent dans cet univers entrepreneurial marqué par un fort taux d’échec (qui augmente avec l’ancienneté de l’entreprise, passant de 20% à la fin de la 1ère année à 50% à la fin de 5e année). Les études sur le sujet se sont concentrées sur les facteurs exogènes, notamment les produits qui ne rencontrent pas leurs marchés, plutôt que sur les déterminants sociaux de l’échec. Or l’échec des startups est inégalement distribué, constate la chercheuse. Celles qui rencontrent le succès ont notamment (parmi d’autres) une caractéristique : elles ont bénéficié du soutien des organismes d’accompagnement. « La croissance d’une startup s’inscrit ainsi dans un processus séquentiel et codifié d’étapes interdépendantes »le soutien institutionnel joue un rôle, en apportant une crédibilité, un capital symbolique d’autant plus important que la valeur des entreprises dépend pour beaucoup de croyances, de confiance, de réputation. Or, rappelle la sociologue, les individus ne sont pas également armés pour obtenir le soutien des organismes spécialisés dans l’accompagnement et le financement : « ceux qui détiennent les codes de cet univers franchissent les étapes sans trop de difficultés ». Même constat pour les levées de fonds. Les startups ne sont pas des entreprises rentables. Leur développement repose sur des besoins de financement récurrent et grandissant. Leur parcours ressemble à un parcours d’obstacles très organisés, une épreuve de persuasion et de crédibilité qui repose d’abord sur les qualités techniques et économiques des projets ainsi que sur les qualités sociales des individus qui les portent. Les femmes ont ainsi 2,2 fois moins de chances qu’un homme de réussir à lever des fonds. Les plus diplômés 2 fois plus, ceux qui ont un associé, 5,5 fois plus, ceux qui ont généré un chiffre d’affaires 7 à 24 fois plus. Le pitch, épreuve reine de ce processus, est lui-même très codifié, et nécessite d’en maîtriser les codes. Sans surprise, socialement parlant, la réussite demeure profondément socialement distribuée. Les logiques de cooptation sociale, d’homophilie sociale restent majeures

La sociologie des startupeurs est et demeure avant tout un petit monde qui se reproduit entre eux. Sa méritocratie apparente apparaît comme très factice. Quant à l’échec, non seulement il est inégalement distribué, mais ses conséquences n’ont pas le même coût pour tous les postulants. L’échec l’est beaucoup moins pour ceux qui ont un certain niveau de ressources, de réseaux et qui sont capables de rebondir. Pour beaucoup de ceux qui lancent leurs startups, l’expérience entrepreneuriale est bien plus un accélérateur de carrière qu’autre chose. Finalement, « ceux qui valorisent le risque d’entreprendre sont ceux qui en prennent le moins ». Lancer sa startup est surtout une modalité d’hypersélection sociale, qui réussit surtout aux plus dotés socialement… et écrase les autres qui voudraient y jouer. Car dans ce monde, les individus les moins dotés socialement et issus de milieux sociaux plus modestes, eux, n’ont pas toujours les ressources pour retourner les stigmates de l’échec et en faire une expérience valorisante. Le modèle entrepreneurial n’est pas à portée de tous et son rêve se referme plus fort sur les moins dotés. Au final, rappelle la sociologue, l’espace des startups est un espace de lutte sociale qui favorise ceux qui en possèdent les codes, qui en maîtrisent les codes. Autant de ressources culturelles, relationnelles et économiques qui leur permettent de mieux émerger dans ce monde comme de mieux se retourner en cas d’échec. 

Le mythe de la coolitude

Marion Flécher s’intéresse enfin à la question de l’organisation du travail et ses effets sur les employés des startups. Loin de la coolitude, de la réinvention de l’organisation hiérarchique et autoritaire de l’entreprise traditionnelle, la sociologue montre que le contrôle et la contrainte ne disparaissent pas dans la coolitude des bureaux ouverts. Ces PME à la croissance rapide valorisent surtout l’auto-engagement en valorisant la proximité relationnelle, en brouillant les frontières professionnelles (par le cadre agréable, l’afterwork, le tutoiement, l’informalité des relations sur les messageries instantanées… ) qui semblent atténuer les rapports hiérarchiques. Pourtant, ceux-ci restent bien présents. La proximité générationnelle, la proximité sociale (des jeunes très diplômés sans contrainte familiale partageant souvent goûts et opinions) entre les dirigeants de startups et leurs employés, l’adhésion affective… conduisent à produire un surinvestissement des jeunes travailleurs qui ont souvent là leur première expérience de travail ou de stage. A défaut de contrôle top-down, le contrôle social par les pairs y est très fort. Les contraintes sont intériorisées. Le mimétisme lié à une grande homophilie règne en maître. L’open space sert de panoptique. Les rites managériaux, la gestion par projet, les méthodes agiles produisent des responsabilités étendues et intégrées. L’autonomie organisationnelle et l’interdépendance fonctionnelle renforcent finalement les responsabilités individuelles et collectives. Tout le monde se sent impliqué et rappelle aux autres l’importance de l’implication. 

Plus qu’une autonomie, ces modes de management qui se présentent comme distendus, produisent d’abord une mise en concurrence des salariés. Ceux-ci, monitorés par les systèmes de gestion de projets, sont surveillés en temps réel sur leurs avancés et leurs retards. Au final, l’autonomie est fictive, intégrée. Les indicateurs de performance, les primes et intéressements finissent d’assurer la discipline en favorisant l’émulation collective, où le « groupe devient un puissant levier de pression ». « L’effacement des marqueurs hiérarchique ne signifie pas la fin du contrôle », mais son déplacement vers des formes plus diffuses, insidieuses, qui visent à produire concurrence et adhésion. « En substituant aux logiques du contrôle hiérarchique une logique d’adhésion volontaire, l’entreprise tend à obtenir des salarié.es un investissement d’autant plus fort qu’il est intériorisé, et donc plus difficile à questionner ou contester »

Les startups se révèlent assez peu cools. Les tensions sont nombreuses. Les situations de souffrance aussi. La standardisation des indicateurs, la dépersonnalisation des modes de management invisibilisent les insatisfactions. Quand elles s’expriment, elles sont évacuées par des départs souvent brutaux et rapides. Plus encore, souligne Flécher, les startups produisent une intensification du travail où se mêle surcharge, manque d’encadrement, affinité relationnelle et précarité des employés. Nombre de startups sont d’abord des « boites à stagiaires » abandonnés à eux-mêmes, à qui on demande une réactivité permanente sans structure pour les aider. L’injonction à l’autonomie est la réponse au manque d’encadrement. L’intensité des relations produit une loyauté qui permet l’intensification du travail. La précarité des premiers employés et stagiaires ne leur permet pas vraiment de contester l’organisation, mais au contraire les conduit à s’y plier très vite. Les stagiaires, dociles et investis, doivent valider leur formation. Le turnover ne favorise pas non plus l’émergence de collectifs de résistance. Quand les startups grandissent, l’organisation du travail évolue, les niveaux hiérarchiques se multiplient, les règles et processus se structurent. Le cadre de travail se standardise, la pression des indicateurs se fait plus forte. Le cadre affectif se distant avec l’arrivée d’innombrables employés. On passe d’un modèle d’engagement s’appuyant sur l’attachement affectif des employés et un contrôle par les pairs, à un modèle bureaucratique, avec un contrôle sur des procédures formelles. « Les startups finissent par devenir ce contre quoi elles avaient initialement été créées ». La coolitude fait long feu. Flécher note cependant que le modèle de l’engagement produit de la loyauté et une faible politisation. Les employés relativisent leur situation. Le cadre de travail se révèle peu propice à l’émergence de mobilisations collectives. La proximité relationnelle, générationnelle, sociale, affective… entre les entrepreneurs et leurs équipes est aussi souvent une proximité idéologique, souligne la sociologue, où les mobilisations demeurent dépréciées. 

Flécher montre très bien comment le mythe méritocratique du startupeur permet d’invisibiliser les grandes inégalités d’accès à ce statut entrepreneurial et les mécanismes de reproduction sociale qui le structurent. Le mythe de l’entreprise libérée permet d’invisibiliser les logiques d’exploitation, de contrôle et de segmentation du salariat qui y ont cours. Le mythe du risque et du mérite permet d’occulter les conditions socioéconomiques très élitistes qui rendent possible l’activité d’innovation. Pour les jeunes cadres diplômés, la startup est un accélérateur de carrière. Le mythe d’une organisation agile et horizontale est vite rattrapé par sa réalité. « L’entreprise libérée est moins une réalité qu’une fiction mobilisatrice et performative, qui produit ses effets non parce qu’elle est vraie, mais parce qu’elle est partagée et incorporée par les travailleur.ses »

La startup n’a rien d’une subversion des logiques du capitalisme. Au contraire, elle incarne sa réalisation la plus aboutie, entre homélie et boîte de Skinner, comme nous le disions en 2019 en lisant Dan Lyons et Arthur de Grave. Une forme d’organisation qui renforce son élitocratie tout en la faisant disparaître sous les mythes du mérite. Une forme d’organisation qui renforce l’exploitation par l’engagement, en faisant intégrer les règles de la performance à ses employés pourtant plus souvent plus précarisés et préssurés qu’ailleurs. On comprend que le capitalisme néolibéral apprécie et valorise ce modèle finalement, puisqu’elle semble, plus que l’entreprise fordiste d’antan, l’acmée de son expression la plus aboutie. Celle qui permet à la fois une démultiplication de la croissance, de la docilité et du rendement. 

Hubert Guillaud

La couverture du livre de Marion Flécher, Le monde des startups.

MAJ du 31/03/2026 : En France, les salariés des startups commencent à réagir plus fermement et plus collectivement qu’auparavant aux contournements du code du travail et aux burn-out, rapporte Le Monde.

L’IA ne réforme pas les institutions démocratiques, elle les détruit

L’IA n’est pas qu’un outil, elle est un outil pour détruire les institutions démocratiques, argumentent les deux professeurs de droit Woodrow Hartzog et Jessica Silbey dans une riche démonstration. Comme le synthétise le journaliste Gerald Holubowicz pour Synth Media, le déploiement de l’IA atrophie l’expertise des institutions. « Quand l’IA se trompe, les institutions paient le coût de la correction et quand elle « réussit », elles s’appauvrissent en expertise ». Elle favorise le « court-circuit décisionnel » en automatisant des choix fondamentalement moraux, aplatit les hiérarchies institutionnelles et rend invisibles les règles qui donnent leur sens aux institutions. « Elle est par ailleurs incapable de prendre des risques intellectuels ni de faire montre d’une forme de désobéissance créatrice. » Enfin, elle favorise l’isolement. Et en érodant les liens interpersonnels, elle fait disparaître la friction, qui est la condition même de l’adaptabilité institutionnelle. Pour Hartzog et Silbey, la destruction des institutions a déjà commencé, notamment avec le Doge et le développement de systèmes d’IA et algorithmiques dans les administrations américaines. Des déploiements, « sans cadre légal clair, où l’expertise humaine a été marginalisée et les rôles institutionnels de résistance, supprimés ».« Ce que Hartzog et Silbey laissent entrevoir en creux, c’est le scénario d’une oligarchie technologique progressivement substituée à la représentation démocratique ».

Pour les chercheurs, l’IA fragilise l’Etat de droit en renforçant l’opacité des décisions. La société civile, et la démocratie elle-même, reposent sur la transparence, la délibération et le jugement humain. L’IA corrode ces trois éléments. En ce sens, l’IA n’est pas qu’un outil, elle est une force institutionnelle qui sape les institutions en restructurant les hiérarchies décisionnelles, en dégradant les capacités d’expertise et en modifiant les relations sociales des acteurs. Parce que les institutions dépendent de ces éléments, l’IA ne se contente pas de les fragiliser ; elle les dissout. Les juristes affirment que, sans garde-fous pour contraindre l’IA à servir les institutions plutôt qu’à les remplacer, nous serons confrontés à un choix radical : soit les institutions survivent, soit la conception actuelle de l’IA disparaît.

World Monitor 

« Internet nous incite désormais à la surconsommation comme comportement par défaut : regarder des saisons entières de séries télévisées d’affilée, suivre tous les matchs de football simultanément sur quatre écrans. (…) Ce bombardement total est en partie une capitulation face à Internet, sa logique et ses algorithmes – une sorte de mort attentionnelle où l’individu n’est plus submergé : il a capitulé. » Dans notre tentative de garder l’équilibre, nous perdons pied. Nous ne faisons plus défiler l’information, elle défile devant nous, comme le propose le World Monitor, nous rendant toujours plus impuissants et malheureux. Charlie Warzel

Un crédit pour les transferts entre amis

Cash App
Lors de son intervention aux rencontres de l'éducation financière, Jacques Attali fustigeait le crédit à la consommation, le qualifiant d'abomination. Quelle serait alors sa réaction à la découverte de la dernière nouveauté de Cash App, qui autorise ses utilisateurs à recourir au paiement fractionné pour leurs transferts vers leurs proches ?

Disponible uniquement pour les clients éligibles, comme sa version antérieure qui permettait déjà de financer les achats réalisés avec la carte de débit de la marque, la nouvelle fonction propose donc d'appliquer le même mécanisme sur les versements à un particulier ou les contributions aux cagnottes mises en place pour des dépenses de groupe… jusqu'à 30 jours après la transaction, ce qui se traduit concrètement par un re-provisionnement du compte a posteriori, du montant effectivement alloué.

Dans la pure tradition des solutions de BNPL, celle-ci étant pilotée par l'entité spécialisée Afterpay acquise en 2021 par Block (créatrice de Cash App), la dette ainsi contractée ne porte pas d'intérêts. Seuls des frais fixes (7,5% du total) sont prélevés à la mise en place… et des pénalités – soigneusement dissimulées dans la communication officielle – sont exigées en cas de retard. Pour plus de flexibilité, le demandeur peut choisir de régler son dû par traites hebdomadaires ou en une fois en fin de période.

Afterpay for P2P Transfers

L'initiative constitue une surenchère inquiétante par rapport au partenariat entre Klarna et DoorDash, promouvant le paiement en 4 fois des courses du quotidien, qui avait engendré quelques réactions virulentes. Il faut croire que les acteurs du domaine sont maintenant en panne de croissance et qu'ils sont prêts à toutes les bassesses pour continuer à justifier leurs valorisations astronomiques, quitte à surfer sans vergogne sur la fièvre irrépressible du crédit – sous toutes ses formes – des américains.

Le prétexte classique de tous ces instruments – l'avance sur salaire tend de plus en plus à dériver aussi dans cette direction – autour de l'accompagnement, présenté comme salutaire, des personnes confrontées à une mauvaise passe ne résiste pas longtemps à l'analyse. Le niveau de difficulté dans lequel se trouve celle ou celui qui sollicite un prêt pour ses besoins de première nécessité, y compris sociaux, relève d'une situation de crise que l'ajout d'un engagement supplémentaire ne fera qu'aggraver.

Les plaintes en hausse sur la gestion de sinistre

Billet de blog Celent
Le cabinet Celent s'inquiétait récemment des dernières statistiques américaines démontrant une croissance significative du nombre de plaintes contre les assurances, dont la majorité concernent les sinistres. Voici une occasion pour les analystes d'offrir quelques recommandations aux compagnies, élémentaires mais importantes.

Les résultats pour 2025 de l'enquête annuelle menée par l'association sectorielle aux États-Unis réservent une petite surprise (du moins pour moi). En effet, si les refus de prise en charge et les conditions contestées d'indemnisation figurent logiquement dans le tiercé de tête des motifs du mécontentement exprimé, pour 12 et 13% de l'ensemble des réclamations, respectivement, ce sont les délais de traitement des dossiers qui occupent la première marche du podium, et de loin, avec 22% des cas.

Pourtant, à bien y réfléchir, ce constat n'est pas aussi étonnant qu'il y paraît. Tout d'abord, la relation client étant ce qu'elle est (épisodique), les récriminations des assurés portent naturellement sur deux de ses moments clés : le règlement de la prime et le sinistre. L'un tend à éviter les frictions, notamment grâce à l'étalement des paiements et, dernièrement, au ralentissement des augmentations tarifaires (outre-Atlantique). Le second concentre logiquement le mécontentement, même s'il est moins fréquent.

À ces caractéristiques spécifiques à l'industrie s'ajoutent les conséquences d'une évolution sociétale qui touche tous les domaines. Les consommateurs sont désormais accoutumés à des services « digitaux » instantanés qui les rendent automatiquement impatients vis-à-vis des entreprises incapables de satisfaire leurs exigences universelles de réactivité immédiate. Le problème est en outre renforcé par l'incompréhension du fonctionnement de l'assurance et de ses mécanismes parfois longs.

Celent – Claims Complaintes

Sur la base d'une telle analyse, les solutions proposées par Celent, qui n'ont donc rien de révolutionnaire, portent sur deux dimensions complémentaires : l'accélération et la transparence. Un, il n'est plus temps de tergiverser pour les acteurs qui ne permettent pas encore aujourd'hui de pré-déclarer les sinistres sur une plate-forme en ligne. Mais ce n'est pas suffisant. Il faut l'assortir d'un suivi : acquittement de réception de la demande, description des prochaines étapes et notification sur chacune d'elles.

Deux, la gestion documentaire doit être modernisée. La gestion d'un dossier implique fréquemment l'analyse de pièces justificatives en tout genre – la santé est particulièrement propice à ces formalités – et même si elle reste assumée par une personne, des outils sont aujourd'hui capables de leur faciliter la tâche, par exemple en préparant un résumé ou en relevant les éléments saillants nécessaires à une décision.

Trois, enfin, la détection de la fraude commence dès le contact initial. Idéalement, elle autorise un filtrage précoce des cas suspects, sur lesquels seuls seront mis en œuvre les contrôles complets et chronophages, les autres suivant un processus expéditif. Pour les responsables timorés, il devrait être possible de régler la sensibilité du filtre, de manière à monter en puissance progressivement, à mesure que la confiance s'installe.

Je crois naïvement que ces conseils ne sont plus utiles en 2026, tellement ils semblent triviaux. Mais si, comme le laisse entendre Celent, des assureurs ne les ont pas encore implémentés, il devient urgent de planifier les chantiers car la satisfaction et la fidélité des clients sont en jeu. Et, si vous hésitez encore, notez que les pistes d'optimisation évoquées auront également un impact positif sur votre efficacité opérationnelle.

La FinTech française en 2026

France FinTech
Aujourd'hui premier avril, avait lieu la onzième édition du traditionnel FinTech R:Evolution, l'événement unique et incontournable de l'écosystème français. Comme chaque année, cette journée propice aux découvertes et aux rencontres me procure une occasion de prendre le pouls du secteur et d'en dégager les grandes tendances.

D'emblée un constat s'impose immédiatement sur la situation de la FinTech dans l'hexagone. Je ne sais pas si c'est exactement ce que le sous-titre « Flight to Quality » sous-entendais, mais tous les participants s'accordent sur un changement radical d'appréciation des startups – probablement pas exclusivement de la finance, d'ailleurs. Sauf domaines spécifiques (où l'investissement massif reste essentiel), la focalisation historique sur l'hyper-croissance cède la place à une priorité à la rentabilité.

Et le message n'est pas qu'un vœu pieux : je ressors impressionné par le nombre de jeunes pousses qui confirment qu'elles sont aujourd'hui a minima à l'équilibre… et préservent cet objectif en modérant ou en étalant dans le temps leurs ambitions d'expansion. C'est indubitablement une excellente nouvelle pour les intéressées, mais je regrette qu'elle relègue l'innovation au second plan, ce qui, incidemment, se traduit par une forme d'invisibilisation des acteurs émergents aux velléités disruptives.

FinTech Revolution 2026 – Flight to Quality

Le deuxième thème à retenir, évidemment inévitable, est celui de l'intelligence artificielle. Elle est partout, dans les discours et dans les promesses. Cependant, contrairement à ce que je craignais et ce que laisserait croire l'emballement médiatique, elle ne fait l'objet d'aucun fantasme et n'est, en général, considérée que comme un outil d'optimisation et de rationalisation au service d'une stratégie. Il n'en reste pas moins que, en dépit des discours qui martèle que les emplois ne sont pas menacés et qu'il s'agit de redéfinir les missions des collaborateurs, les économies générées sur la masse salariale sont dans toutes les têtes, en particulier à l'aune des exigences de rentabilité.

L'entretien avec le responsable de l'IA de Revolut donnait un éclairage sur le pragmatisme en vigueur dans ce registre. David Abitbol évoquait ainsi la démarche imposée aux porteurs de projet d'identifier au préalable l'opportunité métier visée. Ensuite, la règle est : « développer vite, puis réussir ou échouer vite ». C'est ainsi qu'un agent, qui prend dorénavant des décisions en totale autonomie, est capable de traiter chaque jour, en temps réel, 80 000 tâches d'analyse de transactions suspectes, en respectant bien sûr les contraintes réglementaires d'explicabilité et de traçabilité.

FFT26 – Revolut

Dernier sujet sur lequel j'ai souhaité rafraîchir mes connaissances, le web3 et la blockchain, qui était plutôt abordés sous l'angle des stablecoins. Et je dois avouer que je ne comprends toujours pas pourquoi des organisations pourtant sérieuses s'enferrent dans ces concepts. Ce que j'entends est un besoin de facilitation des échanges transfrontaliers et d'accélération des transactions… Pourquoi faudrait-il de nouvelles technologies, immatures et structurellement inefficaces, pour résoudre ce problème ?

D'autres secteurs parviennent depuis longtemps à gérer des échanges instantanés, avec des volumes conséquents, en s'appuyant sur des outils traditionnels, éprouvés, bon marché et que maîtrisent des hordes de professionnels de l'informatique. Le summum était atteint quand était mentionné comme un exploit la capacité d'un « smart contract » à enregistrer simultanément le règlement et la livraison de titre. C'est pourtant la notion de transaction banalisée dans les systèmes d'information depuis 40 ans.

En synthèse, cette édition 2026 révélait la maturité extraordinaire de l'écosystème FinTech français, laissant au passage entrevoir quelques éléments de comparaison par rapport aux établissements historiques (je pense notamment aux informations partagées par Revolut et Memo Bank sur la construction de leur propre socle technologique en interne). Je suis néanmoins surpris de la place minime accordée à l'assurance au cours de cette journée, alors qu'il me semble qu'elle est la plus dynamique aujourd'hui.

IA et dette technique

Prisonnier de la dette technique
La lecture d'un article d'InformationWeek sur le sujet m'inspire aujourd'hui une réflexion sur la dette technique des systèmes d'information à l'ère de l'intelligence artificielle, à la fois sous l'angle du handicap qu'elle constitue pour les projets et de l'effet d'accumulation qui risque de l'amplifier si elle n'est pas vite placée sous contrôle.

Dans le premier registre, les impacts des composants historiques, mal documentés, difficilement accessibles par d'autres logiciels (faute d'API à l'état de l'art), dont les gisements de données sont silotés et étanches… sont, je pense, largement identifiés. Pénalisant l'agilité globale de l'organisation, ils limitent le potentiel de l'IA – de la même manière qu'ils contraignent depuis toujours les capacités d'innovation – qui, pour délivrer sa pleine valeur, requiert une architecture transparente et cohérente.

Mais un second niveau de préoccupation devrait donc saisir les responsables informatiques. Car le déploiement de plates-formes conversationnelles, voire d'agents, au-dessus de l'existant est un facteur critique d'aggravation de la situation. Non seulement ces nouveaux modules vont-ils ajouter des couplages supplémentaires avec les briques obsolètes mais, de plus, ils ont tendance à interagir avec plusieurs d'entre elles, créant de la sorte des dépendances imbriquées plus ou moins inextricables.

Par ailleurs, le danger de perte de visibilité guette les initiatives, bien que la réglementation intervienne en principe pour imposer sa maîtrise. Quoi qu'il en soit, il faut impérativement conserver la mémoire des modalités d'implémentation des applications… et la maintenir à jour au fil des évolutions. Cette exigence implique en outre de définir clairement les responsabilités, ce qui va souvent conduire à faire de la dette technique une problématique concernant autant les lignes métiers que la DSI.

Enfin (pour ce court aperçu), une autre dimension du sujet reste à prendre en compte, sur les solutions d'intelligence artificielle elle-même. En raison de la rapidité des progrès technologiques, de la volatilité des produits et des aléas touchant les fournisseurs mais également de la dérive naturelle des modèles mis en œuvre, qui doivent être ré-entraînés continuellement, une nouvelle application devient presque immédiatement un passif additionnel, parfois avant même que son installation ne soit terminée.

Bien entendu, comme le souligne l'auteur de l'article que je citais en introduction, il ne peut être question de rembourser intégralement la dette avant de commencer à exploiter les opportunités de l'intelligence artificielle. Ce serait la paralysie assurée. En revanche, elle doit absolument être identifiée, mesurée et placée sous surveillance active, assortie de mesures de correction opérationnelles dès qu'une occasion se présente.

Le boulet de la dette technique

HSBC se pique d'hyper-personnalisation

HSBC
Le responsable de l'innovation (entre autres) de HSBC partageait il y a quelques jours ses réflexions sur l'opportunité que crée selon lui l'intelligence artificielle de réaliser enfin la promesse d'hyper-personnalisation de la relation bancaire. Le principe est certainement séduisant… encore faut-il s'accorder sur son domaine d'application.

Si j'étais cynique, je dirais que, une nouvelle fois, il n'y a rien de neuf sous le soleil. Ceux qui se souviennent de l'emballement médiatique pour la science des données ne seront pas surpris de retrouver avec la fièvre de l'IA les mêmes rêves de connaissance intime du contexte et des attentes des clients et, sur cette base, d'une capacité à leur offrir les services dont ils ont besoin… sans même attendre que ces derniers soient exprimés. Après les précédents ratés, peut-être cette fois sera-t-elle (enfin) la bonne ?

Les prémices de la proposition n'ont pas changé. Les consommateurs sont accoutumés à des préconisations individualisées, correspondant précisément à leurs préférences, dans leur vie « digitale » quotidienne, sur les plates-formes de musique ou de vidéo en ligne, sur les réseaux sociaux, sur les sites d'e-commerce… Ce qu'ils apprécient là, il le demandent donc aussi à leur banque… qui possède désormais les moyens de les satisfaire grâce à ses vastes gisements de donnée et à l'intelligence artificielle.

Je ne m'étendrai pas sur la validité de cette hypothèse, admise comme une évidence mais qui mériterait probablement d'être tempérée, ou, a minima, qualifiée, dans un registre aussi sensible que l'argent. La particularité pour HSBC – comme tous les établissements traditionnels – est de ne pas opérer exclusivement via internet. La stratégie concerne donc simultanément les canaux « digitaux » et les conseillers humains, équipés en vue d'atteindre le même niveau de personnalisation.

HSBC – Hyper-personnalisation

Il reste maintenant à voir comment se traduit la vision ainsi esquissée. Et force est de constater que, de ce point de vue, le discours est beaucoup plus flou. Certes il est question de déployer des solutions d'intelligence artificielle générative, d'analyse statistique, d'investissement en ligne… voire de productivité pour les employés. Mais en quoi cette débauche de technologie est réellement conçue pour ajuster les réponses formulées aux spécificités de chaque client ? Nous ne le saurons pas.

Il est bien question d'une fonction budgétaire dans l'application mobile distribuée à Hong Kong (donc de portée limitée, à l'échelle du Groupe) qui, outre la faculté éculée et généralement considérée inutile de permettre un suivi des flux financiers, est également capable de prodiguer des conseils pro-actifs alignés sur les objectifs et les comportements de l'utilisateur. Hélas, immédiatement, il est question de services, ce qui laisse entendre que la cible prioritaire de cette initiative est la vente de produits. Je ne pense pas que ce soit ce que demandent la majorité des clients à leur banque…

La fraude sur la mort

Décès
Sujet rarement abordé, bien que chacun d'entre nous soit amené à être concerné un jour, le décès représente une opportunité extraordinaire pour les escrocs de tout poil, qui profitent des progrès de l'intelligence artificielle générative pour démultiplier leur capacité de nuisance. Les banques pourraient-elles offrir un rempart contre cette menace ?

Dans le monde contemporain, les comptes en ligne constituent une composante universelle de l'identité des individus et, dans les domaines les plus sensibles (finance, santé, administration publique…), leur création et leur accès sont soumis à des contrôles stricts, aux méthodes fiables généralisées, afin d'éviter les détournements. Malheureusement, les sites et applications web concernés, conçus exclusivement pour des usagers vivants, se trouvent exposés à tous les dangers face à leur mort.

Même dans les rares cas où une procédure spécifique est définie, les traitements associés reposent souvent sur des interventions humaines faillibles et toujours sur des justificatifs que les technologies disponibles aujourd'hui sont en mesure de falsifier avec un très haut niveau de vraisemblance et une facilité déconcertante. Comme l'approche retenue dans ces circonstances est en général une simple transmission de propriété du compte, une personne malintentionnée peut de la sorte s'en emparer totalement.

En outre, le problème croît exponentiellement quand les services visés sont interconnectés avec d'autres, notamment quand le profil créé sur une plate-forme peut être utilisé pour la connexion à de multiples applications, mises ainsi en danger indépendamment de leur propre politique. Notons également que le risque intervient que la victime soit effectivement décédée ou non, la première hypothèse rendant évidemment encore plus difficile l'authentification de la demande d'accès.

Or cette faiblesse généralisée pourrait se transformer en avantage concurrentiel pour un système de gestion d'identité fédéré tel que celui que les banques françaises essaient de promouvoir actuellement. B.connect se présentant déjà comme un dispositif particulièrement sécurisé grâce à son adossement aux fonctions d'authentification mises en œuvre sur les applications bancaires, il ne resterait plus à ses concepteurs qu'à lui ajouter un mécanisme de gestion du décès apportant des garanties équivalentes.

Les établissements financiers sont déjà confrontés aux situations de décès et elles ont mis en place de longue date les capacités nécessaires à leur prise en charge, dans les règles de l'art et avec toutes les protections nécessaires. Il ne devrait donc pas être très complexe de faire profiter de cette expertise existante les enseignes affiliées à b.connect. Incidemment, l'option pourrait aussi devenir une porte d'entrée pour engager une discussion avec les clients sur leur vision globale de leur succession…

B.Connect

L'IA dans la gestion de patrimoine

Bank of America
La relation en face à face avec un conseiller dédié reste centrale dans la banque privée et, en grande partie, dans la gestion de patrimoine. Mais, pour Bank of America, ce n'est pas une raison pour ne pas lui insuffler un vent d'intelligence artificielle, comme dans tous ses métiers. Simplement, elle se met ici au service des interactions humaines.

Désormais déployée globalement dans les branches de gestion de patrimoine de Merrill et de la maison mère, ainsi que dans la banque privée de cette dernière, la nouvelle plate-forme, qualifiée de « AI-Powered Meeting Journey », est donc destinée à accompagner l'expérience des réunions entre clients et conseillers, dans leurs trois principales phases : la préparation, la conversation proprement dite et, enfin, la synthèse des échanges et l'aide à la mise en œuvre du plan d'action élaboré en séance.

Concrètement, l'assistant intelligent effectue d'abord les recherches préalables et rassemble toutes les informations utiles sur le client, de manière à établir un dossier prêt à l'emploi pour engager une interaction mieux personnalisée et plus productive. Puis, avec l'accord express des participants, il capture les discussions et rédige un compte-rendu complet à l'issue de la session. Dernière étape, il identifie les décisions prises et organise en conséquence les tâches à réaliser et la documentation à produire.

Merrill AI-Powered Meeting Journey

La démarche de Bank of America m'inspire des réactions contrastées. Je passe d'abord sur ce qui me semble être une limitation majeure (et incompréhensible) : le traitement automatisé des conversations n'est apparemment disponible que pour les réunions à distance. En dehors de ce détail gênant (temporaire ?), le principe, que j'assimile à un super-secrétaire « digital » paraît incontestablement séduisant.

En revanche, quel est l'objectif poursuivi ? Selon l'institution, il s'agit – comme toujours avec l'IA, faut-il croire – de donner plus de temps aux conseillers en vue de soigner la relation avec leurs clients. Mais, dans le contexte de la banque privée, n'est-ce pas par définition le cœur de leur mission ? Doit-on comprendre que cette dernière est aujourd'hui mal remplie ou bien les collaborateurs devront-ils prendre en charge des portefeuilles plus fournis et démultiplier de la sorte leur productivité individuelle ?

À l'inverse, je m'interroge : si ces outils à base d'intelligence artificielle accroissent la performance des professionnels, leur permettant de mener un entretien au cours duquel il peuvent se focaliser sur la situation et les attentes de leur interlocuteur, en ayant sous la main tout le contexte nécessaire, puis de décliner plus ou moins automatiquement les actions décidées… pourquoi seraient-ils réservés à la gestion de patrimoine ? Ils pourraient maintenant contribuer à offrir un service haut de gamme à tous…

Liens vagabonds : L’irrésistible ascension des micro-dramas

Et si, au lieu de lire un livre dans le métro ou de scroller à l’infini sur les réseaux sociaux, votre trajet se transformait en un instant d’évasion, le temps de quelques stations ? Pour Krystof Safer, fondateur de Vertifilms, c’est la promesse de ces épisodes verticaux de moins de trois minutes, pensés pour s’insérer […]

The post Liens vagabonds : L’irrésistible ascension des micro-dramas first appeared on Méta-media | La révolution de l'information.

RSL : Vers un nouveau standard mondial pour la rémunération des contenus face à l’IA

L’ère du « grand compromis » entre éditeurs et moteurs de recherche touche à sa fin. Avec l’essor de l’intelligence artificielle générative, les modèles répondent directement aux utilisateurs en s’appuyant sur la valeur produite par les médias, tandis que le trafic sortant s’effondre. Face à ce constat de « faillite du marché », une solution […]

The post RSL : Vers un nouveau standard mondial pour la rémunération des contenus face à l’IA first appeared on Méta-media | La révolution de l'information.

Visa se lance dans la gestion d'abonnements

Visa
Initialement affaire de startups, qui ont rapidement conquis les grands groupes du secteur depuis 2018, le pilotage des abonnements dans les applications de banque au quotidien se fraie un difficile chemin chez les fournisseurs de moyens de paiement. Après plusieurs initiatives chez Mastercard, Visa en présente aujourd'hui sa propre déclinaison.

Le principe, dont la suédoise Minna Technologies était une des premières à le concrétiser, consiste à identifier les abonnements souscrits par une personne à partir d'une analyse de son historique de transactions – plus spécifiquement, la détection des ponctions récurrentes – de manière à l'éclairer sur ses engagements en cours et, le cas échéant, à prendre des mesures. Dans la plupart des implémentations, des options de résiliation ou de changement de fournisseur sont proposées dans ce but.

Pas de grande originalité chez Visa… mais quelques limitations. Son offre à l'intention des émetteurs reprend donc le concept tel quel, laissant à ceux-ci la responsabilité d'en définir l'intégration dans leurs plates-formes « digitales ». La recherche des abonnements ne porte cependant que sur les opérations par carte, à l'exclusion des prélèvements ou équivalents, et la faculté d'intervenir directement sur les indésirables, disponible grâce à un partenariat avec Pinwheel, ne concerne hélas que 150 enseignes.

Visa Enhanced Subscription Manager

La solution répond évidemment à un besoin universel, quoique pas nécessairement explicite. Dans une économie qui bascule chaque jour un peu plus vers un modèle de services, les paiements périodiques prennent une place importante dans les budgets des consommateurs. Un inconvénient majeur de cette tendance – qui est également un avantage du point de vue des marchands peu scrupuleux – est la perte de transparence qu'elle entraîne, sur le coût réel et sur les versements, qui deviennent invisibles.

Naturellement, Visa rejoint le mouvement un peu tard sur un marché parfois encombré – en France, par exemple, Papernest a séduit la quasi totalité des établissements, avec une approche certes différente. Les faiblesses évoquées ne sont pas obligatoirement rédhibitoires par rapport à l'ambition considérée et la position de l'entreprise au cœur des réseaux de paiement est susceptible d'optimiser le fonctionnement de ses algorithmes de traitement des données, donc de la performance de l'outil.

En revanche, il faudrait maintenant que les institutions financières qui adoptent ce genre de produit cherchent à en exploiter tout le potentiel. Fournir une liste des abonnements en cours est un bon début… mais il mériterait d'être enrichi afin d'encourager une réflexion sur les usages sous-jacents, qui pourrait ensuite s'ouvrir sur une perspective étendue de gestion des finances personnelles. De ce point de vue, la possibilité de résilier rapidement fait partie du champ… mais elle ne couvre pas toutes les opportunités, ne serait-ce que parce que son recours n'est qu'occasionnel.

« Nous avons une compréhension expérientielle des algorithmes »

Les algorithmes façonnent profondément l’expérience utilisateur sur les plateformes numériques. La recherche sur la compréhension des algorithmes et de leurs effets par les individus se développe rapidement, mais manque d’un cadre cohérent, estiment les chercheurs Emilija Gagrčin, Teresa K. Naab, Maria F. Grub dans un article pour la revue New Media & Society

Dans une analyse de la littérature sur la culture algorithmique (algorithmic litteracy), les chercheurs estiment que celle-ci s’acquiert par cycles d’apprentissages expérientiels. Ils proposent un cadre d’analyse pour mieux la saisir en montrant leur dimension cognitive (avons-nous conscience du filtrage réalisé, des données d’entrées, de leur objectifs et de de leur impacts), affective (selon qu’on en apprécie les résultats, qu’on les appréhende, ou qu’on s’y résigne), comportementale (les façons dont on se comporte avec les systèmes, qu’on s’y alligne, qu’on s’y soumette, qu’on tente de les subvertir ou d’y résister…). Mais ce sont là autant de pratiques dont on a du mal à mesurer l’efficacité, et qui relèvent souvent de pratiques plus personnelles que collectives. 

Les chercheurs posent la question de savoir ce que produit la littératie algorithmique sur les usagers, par exemple si celle-ci produit une meilleure visibilité, un meilleur contrôle des recommandations ou des formes nouvelles de mobilisations politiques. « L’adoption inégale de l’apprentissage algorithmique risque d’exacerber les inégalités existantes au sein des différentes couches de la population ». Ils soulignent en conclusion, que la compréhension des algorithmes est profondément liée à « l’apprentissage expérientiel », un processus par lequel la connaissance est créée par la transformation de l’expérience.  

Reste à savoir si à mesure que les systèmes de recommandations se complexifient, cet apprentissage expérientiel, sera encore possible ? 

Face à l’AIification des recommandations, il est probable que notre compréhension des paramètres (ou le fait de croire qu’on puisse agir sur eux) se dilue. Comme nous le disions en évoquant le passage à l’IA des systèmes de recommandation, « les utilisateurs voudraient comprendre les règles qui semblent devenir de plus en plus obscures, et les laissent avec de moins en moins de pouvoir pour s’y adapter ». Bref, notre compréhension expérientielle des algorithmes risque d’être de plus en plus difficile à mesure que leurs fonctionnement se complexifient.

Via Algorithm Watch.

Aviva arrive sur ChatGPT

Aviva
Depuis la présentation par OpenAI de sa place de marché d'applications tierces pour ChatGPT, les institutions financières rivalisent de vitesse pour figurer (parmi) les premières à s'y installer. Inévitablement, après Experian (pour un comparateur) et BBVA (pour des informations sur la banque), un assureur rejoint le club : Aviva.

Comme avec ses prédécesseurs, il ne faut pas s'attendre à des miracles d'innovation avec cette itération précipitée. La solution – qui sera effectivement disponible d'ici quelques semaines – se contente donc de décliner le principe de la demande de simulation, pour des contrats habitation, via l'interface conversationnelle de la plate-forme d'IA générative. En arrière-plan, c'est le moteur de l'offre en ligne existante Signature qui prend en charge les traitements « métier » de bout en bout.

Concrètement, l'utilisateur est invité à fournir les informations pertinentes destinées à cadrer son besoin – nom, adresse (à partir de laquelle toutes les données importantes de la propriété sont dérivées automatiquement), coordonnées de contact, type de couverture souhaitée (par exemple avec ou sans le mobilier)… En fin de parcours, qui prend vraiment moins de 5 minutes, le robot restitue un devis complet. Le cas échéant, un lien permet d'enchaîner avec la souscription, sur le site web de la compagnie.

Aviva on ChatGPT

Au risque de me répéter, la proposition de valeur de l'application promise par Aviva semble extrêmement limitée. À la fois parce qu'elle n'apporte pas de bénéfice majeur par rapport au service web traditionnel – y compris du point de vue des interactions, au vu du nombre réduit d'éléments d'information recueillis – et parce que sa mise en œuvre passe par une étape d'installation dans ChatGPT qui, bien que triviale, introduit une petite friction difficilement acceptable pour un usage ponctuel, sinon unique.

En revanche, l'assureur adopte une posture d'innovation qui laisse entrevoir une vision plus réaliste et plus pragmatique que celle des autres acteurs dans la même situation. En effet, il indique clairement que son initiative est un galop d'essai, qui servira à déterminer de futures extensions, notamment à d'autres produits de son catalogue, en fonction des comportements des premiers adeptes. Notons qu'Aviva n'en est pas à ses débuts en tant qu'éclaireur sur un nouveau canal, puisqu'elle s'était déjà distinguée, par exemple, avec son « skill » pour Alexa. L'expérience est peut-être profitable…

Les systèmes d’IA sont-ils compatibles avec la protection des données ? 

Paul Bouchaud et Pedro Ramaciotti, chercheurs au CNRS et à Sciences Po rappellent dans une stimulante tribune pour Tech Policy Press, que certaines données personnelles sensibles sont protégées par le RGPD, comme les opinions politiques, les convictions religieuses, l’orientation sexuelle, l’origine ethnique, les données biométriques (sauf exceptions limitées). Le problème, désormais, c’est que les systèmes d’IA savent parfaitement déduire ces caractéristiques pour fonctionner… tant et si bien qu’il devient difficile de séparer le profilage politique délibéré et involontaire, estiment-ils. Les systèmes d’IA, parce qu’ils ont accès à de riches traces comportementales, peuvent reconstituer très précisément des informations protégées. 

Dans ce continuum de la réidentification ciblée des utilisateurs, on trouve par exemple le système publicitaire de X. En juin 2025, AI Forensics a montré que X permettait aux annonceurs de cibler – ou d’exclure – les utilisateurs en fonction de caractéristiques protégées. « Par exemple, TotalEnergies (l’un des principaux fournisseurs d’énergie français) excluait de son ciblage publicitaire sur la plateforme les utilisateurs intéressés par les personnalités politiques écologistes et les produits casher ; Dell excluait les utilisateurs interagissant avec du contenu étiqueté « #lesbienne ». La Commission européenne a elle-même exclu les affiliations politiques de ses publicités ciblées, lesquelles identifiaient les utilisateurs par des étiquettes telles que « fasciste » et « communiste » fournies par X. En classant délibérément les utilisateurs dans des catégories correspondant directement à leurs opinions politiques, leur orientation sexuelle et leurs convictions religieuses (sous forme d’étiquettes mises à la disposition des annonceurs), ce système semble enfreindre à la fois le RGPD et le DSA qui interdisent explicitement le ciblage publicitaire fondé sur des données sensibles. Neuf ONG ont depuis déposé plainte auprès des coordinateurs nationaux des services numériques. Mais, il s’agit là du cas le plus flagrant de profilage actif – et le plus simple à corriger : supprimer purement et simplement les étiquettes de catégories sensibles du système publicitaire.»

Mais le profilage n’est pas toujours aussi direct soulignent les chercheurs. Par exemple, le système de modération participative de X, les Notes de communauté, fonctionne depuis un algorithme qui doit déduire la position idéologique des utilisateurs, non pas à partir de ses déclarations, mais automatiquement à partir de ses évaluations des notes des autres. Ce spectre politique, qui correspond aux échelles des sondages, n’a pas été codé, il émerge des données comme une dimension permettant de prédire le mieux quels utilisateurs sont d’accord avec quelles notes, expliquent-ils dans leur article de recherche. « Le système déduit l’opinion politique du comportement non pas comme un effet secondaire, mais comme le mécanisme spécifié par les créateurs et nécessaire à son fonctionnement ». Meta, Youtube, TikTok et nombre d’autres plateformes ont déployé leurs propres systèmes de modération communautaire dans le même but : créer un consensus par delà les clivages politiques, ce qui nécessite donc de déterminer la position politique de chaque utilisateur. « Ce qui a commencé comme une expérience sur une seule plateforme devient une infrastructure industrielle, et avec elle, l’inférence systématique des opinions politiques à grande échelle ». 

Quels que soient les avantages pour la modération de contenu participative – qui a des limites importantes, comme le montrent les chercheurs (voir également dans notre veille) -, « ces systèmes sont fondamentalement incompatibles avec les lois sur la protection des données, car ils calculent les positions idéologiques de millions d’utilisateurs sans consentement explicite ». La conformité exigerait néanmoins des mesures claires : soit obtenir le consentement des participants, soit abandonner purement et simplement ces systèmes. 

Mais la tension peut être encore plus profonde, comme dans le cas des algorithmes qui organisent les fils d’actu des réseaux sociaux ou ceux qui produisent des suggestions de personnes à suivre. Ces systèmes transforment les utilisateurs et les contenus en profils numériques qui capturent les similarités et la pertinence, déterminant ainsi ce que chaque personne voit. En analysant le code de X conjointement aux données collectées auprès des utilisateurs, les deux chercheurs ont reconstitué le processus et montrent qu’il y a un calcul de « la vision du monde » qui estime les positions idéologiques gauche-droite des utilisateurs. Cette dimension politique coexiste avec d’autres dimension, comme l’âge, le sexe ou les centres d’intérêts (l’actualité ou le sport par exemple). Si le système ne semble pas stocker l’information (« cet utilisateur est conservateur ») et si le profilage politique n’est pas un objectif du système (contrairement à Community Notes) : « l’algorithme apprend plutôt des habitudes d’engagement, des réseaux d’abonnés et des comportements de réponse corrélés à l’orientation politique, et exploite ces habitudes pour déterminer des recommandations personnalisées. Il s’agit d’un profilage passif mais systématique : les opinions politiques structurent si profondément les comportements en ligne que la plupart des modèles actuels performants les détectent. » 

« Ne pas réglementer cette forme de profilage revient à autoriser les plateformes à utiliser sciemment des dimensions politiques – pour des centaines de millions d’utilisateurs – dans le calcul des recommandations de contacts, de publicités et de contenus. » 

Et le problème devient encore plus profond avec l’IA conversationnelle. Les modèles produisent des profils sociodémographiques déduits d’indices conversationnels explicites (voir notre article, « Qui est l’utilisateur des LLM ? »). « Révéler son nom incite ces systèmes à inférer implicitement votre origine ethnique, tandis que divulguer les sports que vous pratiquez incite le modèle à inférer votre genre ». Dans un autre article de recherche, Paul Bouchaud et Pedro Ramaciotti montrent que les inférences cachées ont des conséquences concrètes et influencent les recommandations que vous recevez concernant votre évolution de carrière, les modalités de voyage que vous comptez faire ou autre (voir également « Inférences, comment les outils nous voient-ils ? »). Cette personnalisation passive, qui émerge grâce à de fortes corrélations statistiques dans les données d’entraînement, peut être poussée plus loin encore, notamment quand les systèmes d’IA sollicitent activement les usagers à fournir des informations sensibles pour fonctionner, comme lorsque les chatbots compagnons demandent explicitement l’orientation sexuelle des utilisateurs pour échanger avec eux. Or, le RGPD ne fait pas de distinction entre les données sensibles « collectées directement » et celles « déduites algorithmiquement » : il interdit le « traitement de données à caractère personnel révélant des attributs sensibles ». Et la Cour de justice de l’Union européenne a confirmé que cela concernait toute donnée « susceptible de révéler indirectement des informations sensibles […] récoltée à la suite d’une opération intellectuelle impliquant une déduction ou un recoupement ». Pour les chercheurs, chaque traitement de ce continuum enfreint le RGPD. 

SI les cas de profilage actif pourraient être en principe corrigés, les cas de profilage plus passifs posent un problème plus profond. 

Les systèmes de recommandation (de X, spécifient les chercheurs… mais on comprend que leurs constats peuvent être élargis à l’ensemble des systèmes de recommandation, d’autant plus qu’ils s’IAifisent profondément) « intègrent l’idéologie politique non pas parce que les ingénieurs l’ont spécifiée, mais parce que l’opinion politique structure si fondamentalement le comportement en ligne que tout modèle optimisé pour l’engagement la captera ». Pour Paul Bouchaud et Pedro Ramaciotti, soit le profilage passif n’est pas considéré comme relevant du RGPD, soit il l’est… et une vaste gamme de systèmes d’IA devient non conforme. 

Les deux chercheurs esquissent cependant une solution : « rendre l’IA insensible aux catégories sensibles ». Après avoir identifié la position idéologique des utilisateurs dans l’algorithme de recommandation de contacts à suivre de X, ils l’ont supprimé. Ils ont constaté que cela a accru la diversité politique des recommandations de contacts sans en dégrader la pertinence. 

Mais, cette solution est certainement limitée. La suppression de données ou de prise en compte de données ne fait pas disparaître les proxies que l’IA pourrait utiliser pour les reconstruire plus profondément. Ces systèmes sont capables d’inférer le genre par exemple sans avoir accès à des informations sur le genre des utilisateurs, mais peuvent le déduire d’innombrables manières. Peut-on vraiment rendre l’IA insensible aux catégories sensibles et être certain qu’elle ne les recompose via d’autres données ? Je serai un peu moins confiant qu’eux pour ma part.

Hubert Guillaud

L'IA de McKinsey hackée par l'IA

CodeWall
Profitant d'une politique accommodante et d'une annonce publique tentatrice de la part de sa cible, CodeWall a voulu éprouver son outil de recherche de failles de cybersécurité sur Lilli, la plate-forme d'intelligence artificielle mise à la disposition des 43 000 collaborateurs de McKinsey & Company. Les résultats divulgués sont édifiants.

Deux mots sur le service en question, similaire à ceux déployés dans tous les grands cabinets de conseil. Conçu et développé en interne, il est déjà utilisé par 70% des effectifs, qui lui soumettent actuellement un demi million de requêtes par mois, pour des conversations libres, afin d'obtenir des réponses à des questions simples, pour l'analyse et la synthèse de textes ou pour des recherches avancées sur un corpus de plus de 100 000 documents existants et autres contenus propriétaires.

Lorsque CodeWall a « lâché » son Sherlock Holmes virtuel, lui-même propulsé à l'IA, il ne lui a fallu que deux heures pour repérer et exploiter une brèche, depuis l'extérieur de l'entreprise, sans rien connaître de l'implémentation de la solution et, évidemment, sans posséder le moindre identifiant d'accès. Et elle était sérieuse (elle est désormais comblée) puisqu'elle permettait de consulter l'ensemble de la base de données sous-jacente, composée de 46 millions de messages, 700 millions de fichiers et plus…

Mais la divulgation des échanges sur les stratégies des clients de McKinsey, les finances de la société, les opérations de fusion-acquisition qu'elle accompagne, les supports contenant l'essentiel de son expertise… n'est pas le pire de cette histoire. Les chercheurs avaient également la possibilité de modifier les éléments de « raisonnement » et les garde-fous mis en en œuvre par Lilli, sans que les utilisateurs ne puissent se rendre compte d'une influence extérieure dans leurs interactions.

CodeWall – McKinsey Hack

Derrière cette attaque (bienveillante), on découvre hélas des fautes de débutant. Pour l'essentiel, le robot de CodeWall a simplement découvert et « étudié » une documentation ouverte à tous sur des API privées exposées par la plate-forme, a repéré qu'une partie d'entre elles ne requéraient aucune authentification et, enfin, a déterminé par essais et erreurs successifs qu'elles étaient susceptibles à une méthode d'infiltration (dite « par injection SQL ») parfaitement connue depuis de longues années.

Or ce genre de faiblesse correspond à un motif que j'ai observé par le passé : malgré tous les efforts des équipes de sécurité et la prise de mesures rigoureuses de protection contre les défauts les plus fréquents, largement documentés, dès qu'apparaît une technologie innovante, dont le déploiement semble soudain urgent, toutes les bonnes pratiques sont oubliées. Même dans le cas d'expérimentations, le système d'information dans sa globalité se trouve souvent mis en péril par cet angle mort.

Aujourd'hui, une telle négligence est encore moins tolérable qu'auparavant. En effet, comme le démontre CodeWall, l'intelligence artificielle constitue un puissant allié pour la recherche des failles. Entre les mains de personnes mal intentionnées, elle est capable d'ouvrir des portes dérobées dans les systèmes à un rythme industriel que les approches traditionnelles de cyberdéfense ne pourront jamais absorber. L'anticipation et la prévention sont plus que jamais indispensables, jusque dans l'innovation.

La Cour de justice de l’Union européenne désavoue le système de fichage français

Jeudi dernier, la Cour de justice de l’Union européenne – la plus haute juridiction de l’UE – a rendu un arrêt « Comdribus » très attendu concernant les pratiques de fichage françaises. Dans une décision très claire, la Cour estime que la manière dont le droit français permet de prendre les empreintes digitales et la photographie des personnes arrêtées est disproportionnée et contraire au droit de l’UE. Alors que deux jours avant nous dénoncions la prise de photo sauvage dans la rue par les forces de l’ordre, il s’agit d’une illégalité de plus dans l’édifice tentaculaire des fichiers de police. Il est urgent de le démanteler.

Tout commence en 2020, quand « HW » participe à une action d’Extinction Rebellion sur les Champs-Élysées, à Paris. La manifestation n’est pas déclarée et il se fait arrêter sur ce fondement, ainsi que pour rébellion. Comme cela est désormais très fréquemment le cas, la police exige qu’il donne son code de téléphone et qu’il se prête à ce qu’on appelle la prise de « signalétique », afin d’alimenter des fichiers de police.

Cette pratique, prévue par l’article 55-1 du code de procédure pénale, vise à collecter les empreintes digitales et la photo du visage d’une personne soupçonnée d’avoir commis une infraction. Les empreintes sont ensuite conservées dans le fichier automatisé des empreintes digitales (FAED). La photo, elle, atterrit dans le fichier de traitement des antécédents judiciaires (TAJ). Le fichier TAJ constitue ensuite le fondement juridique très contestable pour identifier les personnes par reconnaissance faciale. La police enregistre ces données afin de pouvoir les comparer à l’avenir dans d’autres enquêtes.

Revenons en 2020 : HW refuse cette prise de signalétique. Or, en France, dire non à une telle collecte de données constitue un délit, peu importe que les faits initiaux pour lesquels la personne a été arrêtée aboutissent in fine à une condamnation ou non. C’est ce qu’on appelle un délit « autonome » et c’est ce pourquoi HW est inculpé. Relaxé de la participation à la manifestation non déclarée et du refus de donner son code de téléphone, il reste uniquement poursuivi pour avoir refusé de donner sa signalétique.

Au cours de la procédure, son avocat décide de porter l’affaire devant la Cour de justice de l’UE, afin qu’elle analyse si ce système de fichage prévu par le droit français respecte les droits et libertés protégés par la Charte des droits fondamentaux, notamment le droit à la vie privée. Cette Cour a répondu1La Cour devait répondre à trois questions afin de déterminer si le cadre français était conforme au droit de l’UE. Pour cela, elle s’est notamment appuyée sur un arrêt « VS », rendu il y a 3 ans, concernant le droit bulgare sur un sujet quasiment identique. dans l’arrêt Comdribus du 19 mars dernier, qui constitue une condamnation cinglante pour la France.

Pas de « nécessité absolue »

Premièrement, la Cour se penche sur le respect du droit français aux exigences de proportionnalité. En effet, les prises de photographie et d’empreintes constituent des traitements de données biométriques, qui sont des données « sensibles » selon le droit européen. Ce type de traitement donc est interdit par principe, et ce n’est qu’« en cas de nécessité absolue » qu’un tel traitement peut être mis en œuvre2 Voir les articles 6 et 88 de la loi n° 78-17 du 6 janvier 1978 dite « Informatique et Libertés » ainsi que l’article 10 de la directive 2016/680 dite « police-justice ».

Cette notion de « nécessité absolue » est très utile et protectrice car elle signifie que la collecte d’empreintes et de photos ne peut jamais être systématique. En effet, il faut d’abord que les finalités du traitement – c’est-à-dire ses objectifs, en l’occurrence la recherche des auteurs d’une infraction – soient suffisamment précises. Ensuite, les données collectées doivent être strictement utiles et pertinentes pour atteindre cet objectif. Cela signifie qu’il ne doit exister aucun moyen alternatif et moins attentatoire aux droits fondamentaux pour atteindre l’objectif du traitement de manière aussi efficace. Par conséquent, le traitement de données biométriques ne peut être forcément permis que dans un nombre limité de cas.

Pourtant, l’article 55-1 du code de procédure pénale permet aux policiers de pouvoir faire des relevés signalétiques de « toutes les personnes à l’égard desquelles il existe une ou plusieurs raisons plausibles de soupçonner qu’elles ont commis ou tenté de commettre une infraction pénale ». En effet, comme dans le cas de HW, une personne simplement mise en garde à vue, même sans poursuites, sera concernée par cette prise d’empreintes et de photo. Pour la Cour, ce périmètre est très large et le seul fait qu’il existe un soupçon ne permet pas de remplir la condition de « nécessité absolue ». De plus, les dispositions propres relatives au fichiers TAJ et FAED ne prévoient aucunement le respect de ces exigences et concernent un nombre très vaste de situations et de personnes3L’article R. 40-38-2, 3° du code de procédure pénale prévoit que les empreintes digitales sont collectées pour des « personnes à l’encontre desquelles il existe des indices graves ou concordants rendant vraisemblable qu’elles aient pu participer, comme auteur ou complice, à la commission d’un crime ou d’un délit, ou des personnes mises en cause dans une procédure criminelle ou délictuelle, dont l’identification certaine s’avère nécessaire ». Elles sont conservées 15 ans ou plus, et 10 ans pour les mineur·es.

Pour le TAJ, la photographie du visage à l’article R. 40-25 du code de procédure pénale vise « les personnes à l’encontre desquelles sont réunis, lors de l’enquête préliminaire, de l’enquête de flagrance ou sur commission rogatoire, des indices graves ou concordants rendant vraisemblable qu’elles aient pu participer, comme auteurs ou complices, à la commission d’un crime, d’un délit ou d’une contravention de cinquième classe ». Dans les deux cas, le périmètre est extrêmement large et il n’y a aucun processus permettant d’examiner la condition de nécessité absolue au stade de la collecte.
.

Le gouvernement français a essayé de se défendre en prétendant qu’il ne s’agissait pas d’une obligation mais d’une simple faculté pour les policiers, qui disposaient d’une marge de manœuvre pour apprécier ou non la prise de signalétique. La Cour balaye cet argument et, de façon très intéressante, invite la Cour d’appel qui rejugera de cette affaire à examiner « la mise en œuvre effective du droit », c’est à dire la pratique au-delà de la lettre du texte4En cela, la Cour adopte une position différente de celle de l’avocat général qui se refusait à une telle interprétation in concreto. L’association EDRi analysait ses conclusions dans un article du 13 novembre 2025..

L’analyse de la Cour amène donc à conclure que le cadre français de prise d’empreintes et de photo est contraire au droit de l’UE car il ne permet pas de respecter l’exigence de nécessité absolue.

Une exigence de justification absente du droit français

Deuxièmement, la Cour de justice de l’Union européenne se penche sur la manière dont le droit français impose ou non aux policiers de justifier leur choix de collecter les empreintes et la photographie. Elle exige qu’une explication claire soit fournie à la personne concernée, même de façon succincte, pour notamment lui permettre d’exercer son droit au recours. Elle ajoute que ce n’est pas parce qu’un juge peut ensuite se prononcer sur la légalité de la collecte que cela exonère la police de toute explication auprès de la personne.

Enfin, puisque la prise de signalétique ne doit pas être systématique mais limitée à un petit nombre de cas absolument nécessaires, elle estime que demander aux policiers de motiver leur décision ne constitue pas une « charge déraisonnable ». En utilisant cette formule, la Cour répond en réalité au gouvernement français qui avait tenté de se défendre en arguant que se conformer à cette exigence représenterait un travail trop important pour les policiers.

À nouveau, le droit français n’impose aucune obligation de justification pour collecter les données biométriques et se retrouve donc non conforme au droit de l’UE. Quant à la pratique, elle est également à l’opposé de ces exigences. Les policiers n’expliquent jamais pourquoi ils prennent les empreintes et la photo quand une personne est arrêtée ou auditionnée. Ces gestes sont devenus une banalité dans les commissariats, même pour des personnes en audition libre ou des mineurs d’après des témoignages d’avocat·es. Cela explique les chiffres faramineux de 9 millions de photos dans le TAJ et 6,5 millions d’empreintes dans le FAED. Surtout, cet article 55-1 est fréquemment utilisé pour mettre la pression sur des personnes qui s’exposent à des sanctions et des gardes à vue si elles refusent. Rappelons également que depuis 2022, la prise d’empreinte peut même être faite de force.

Enfin, dans un troisième temps, la Cour examine le caractère « autonome » du délit de refus de donner ses empreintes, c’est-à-dire le fait que la personne puisse être poursuivie uniquement pour cela et indépendamment de la situation qui a menée à son arrestation. Malheureusement, les juges n’en condamnent pas le principe. Cependant, ils exigent des conditions très strictes pour condamner quelqu’un pour un tel refus. Cela doit être fait en fonction des circonstances individuelles (comportement, profil, antécédents) et être réservé aux cas les plus graves. Une fois de plus, le droit français ne respecte en rien ces exigences puisque de nombreuses personnes sont poursuivies uniquement sur la base de ce délit, sans aucune appréciation individuelle de la situation.

Le fichage français dans le viseur

Cette décision de la CJUE constitue un bouleversement dans le droit français. En effet, sa portée délégitime toute la philosophie qui a permis d’alimenter les fichiers de police. En France, la collecte d’informations sur la population n’est pas pensée comme une exception mais comme une manière de ratisser le plus large possible. La pratique montre bien que si des informations sont disponibles ou récupérables, la police les prend « au cas où », pour plus tard. Si une personne est au commissariat, on exige d’elle sa signalétique. Si une personne est contrôlée, on va la prendre en photo et l’identifier par reconnaissance faciale bien que ce soit illégal– comme nous l’avons dénoncé avec le média Disclose.

Selon cette logique, chaque personne pourrait potentiellement être un futur suspect ou coupable, ce qui justifie la collecte de ses données de manière « préventive » et sans raison valable. Cette vision selon laquelle en chacun·e se loge un potentiel suspect est le fondement même de la surveillance de masse. Avec sa décision, la Cour de justice exige un renversement total de cette idéologie. Contrairement à ce que prévoit le droit français, la collecte d’informations et de données biométriques ne doit pas être une situation fréquente concernant une grande partie de la population mais un cas exceptionnel réservé à quelques rares hypothèses.

L’arrêt Comdribus porte donc un coup d’arrêt à une surveillance abusive et massive, mise en place depuis des années. Le ministère de l’intérieur doit sortir de son silence, rendre des comptes, et ordonner que cessent immédiatement les prises d’empreintes et de photo systématiques par la police. Cet arrêt majeur doit mener à une refonte intégrale du droit et à la suppression des millions de fiches illégitimes contenues aujourd’hui dans le TAJ et le FAED.

Aussi si vous le pouvez, n’hésitez pas à faire un don pour soutenir notre travail !

References[+]

References
1 La Cour devait répondre à trois questions afin de déterminer si le cadre français était conforme au droit de l’UE. Pour cela, elle s’est notamment appuyée sur un arrêt « VS », rendu il y a 3 ans, concernant le droit bulgare sur un sujet quasiment identique.
2 Voir les articles 6 et 88 de la loi n° 78-17 du 6 janvier 1978 dite « Informatique et Libertés » ainsi que l’article 10 de la directive 2016/680 dite « police-justice »
3 L’article R. 40-38-2, 3° du code de procédure pénale prévoit que les empreintes digitales sont collectées pour des « personnes à l’encontre desquelles il existe des indices graves ou concordants rendant vraisemblable qu’elles aient pu participer, comme auteur ou complice, à la commission d’un crime ou d’un délit, ou des personnes mises en cause dans une procédure criminelle ou délictuelle, dont l’identification certaine s’avère nécessaire ». Elles sont conservées 15 ans ou plus, et 10 ans pour les mineur·es.

Pour le TAJ, la photographie du visage à l’article R. 40-25 du code de procédure pénale vise « les personnes à l’encontre desquelles sont réunis, lors de l’enquête préliminaire, de l’enquête de flagrance ou sur commission rogatoire, des indices graves ou concordants rendant vraisemblable qu’elles aient pu participer, comme auteurs ou complices, à la commission d’un crime, d’un délit ou d’une contravention de cinquième classe ». Dans les deux cas, le périmètre est extrêmement large et il n’y a aucun processus permettant d’examiner la condition de nécessité absolue au stade de la collecte.

4 En cela, la Cour adopte une position différente de celle de l’avocat général qui se refusait à une telle interprétation in concreto. L’association EDRi analysait ses conclusions dans un article du 13 novembre 2025.

Pourquoi le déploiement de projet échoue-t-il ?

Dans la revue Big Data & Society, deux chercheurs finlandais, Antti Rannisto et Marta Choroszewicz, ont suivi le déploiement d’un outil d’aide à la décision à base d’IA générative dans une administration publique. Ils montrent comment l’équipe construit un discours et un cadre de légitimation et de justification de son déploiement à mesure que l’outil est développé, visant à préserver l’outil des critiques (notamment pour ses problèmes d’exactitude, de précision et de cohérence) et le rendant peu à peu irrésistible pour les acteurs influents de l’organisation. 

L’outil étudié visait à aider les agents chargés des réclamations à identifier les directives pertinentes et actualisées nécessaires à la prise de décision concernant les réclamations des usagers. Les réponses de l’outil étaient accompagnées de liens vers les sections pertinentes la base de documents de l’administration, permettant ainsi aux agents de valider une réponse ou de rechercher des informations complémentaires. Techniquement, l’outil reposait sur une base de données documentaires, un moteur de recherche et un LLM pour la génération des réponses.

Les deux chercheurs montrent que les innovateurs, l’équipe en charge du déploiement et de la configuration de l’outil, accomplissent surtout un travail politique pour influencer et convaincre les comportements des agents. Derrière le déploiement technique se met en place d’abord un régime de justification qui vise à protéger le déploiement des contestations. Les justifications émergent et évoluent à mesure que l’outil évolue, rapportent les chercheurs, mais ont une fonction spécifique : « détourner l’attention des promesses non tenues de l’outil », protéger les lacunes de l’outil et permettre au déploiement de se poursuivre. 

Ainsi le déploiement commence par se justifier sur sa promesse d’efficacité, sur la pertinence, le désir et la volonté d’innover. Les phases d’expérimentations sont renforcées par une communication dédiée, alors que les tests montrent rapidement les défaillances et limites de l’outil proposé. 

Les tests suivants ont alors visé à améliorer la performance de l’outil, mais sans y parvenir, recentrant l’implication active à la seule équipe chargée de l’innovation. A mesure que l’outil se déploie et déçoit, les cadres de justification se déplacent : on passe des espoirs d’efficacité, à la valorisation du processus d’innovation, puis à la valorisation de l’état d’esprit de l’innovation, comme si à mesure que le déploiement déçoit on n’en retenait plus que le mouvement. La promotion du test rapide, de l’apprentissage continu a été particulièrement mobilisée pour poursuivre les développements. Les développeurs ont par exemple promu régulièrement l’amélioration des réponses correctes de l’outil (passant de 70%, à 75% puis à 80%…) sans répondre aux critiques qui questionnaient cette précision pour savoir si elle était suffisante pour être intégrée dans les flux de travail des agents ou pour déterminer la pertinence et la réalité de cet indicateur. A mesure que l’outil se déployait sans répondre aux attentes, ses promoteurs ont développé un argumentaire renvoyant les erreurs à « l’incapacité des agents à interagir efficacement avec l’outil en prétextant qu’ils ne parvenaient pas suffisamment à mettre à jour leurs méthodes de travail »

Une autre justification s’est également développée avec le temps, présentant le développement de l’outil comme pionnier pour utiliser l’IA générative au service du bien commun, creusant une fracture entre l’innovation et le travail de terrain. Un peu comme si le processus d’innovation se justifiait d’autant plus que les retours critiques s’enkystaient et que l’innovation faiblissait en rythme et ce alors que de plus en plus d’agents souhaitent le tester pour se rendre compte de son efficacité ou de son inefficacité. Ce que décrivent les chercheurs dans le déploiement de l’outil, c’est que ses justifications se déploient sans lien direct avec ses résultats. 

« Un an après le lancement du processus d’innovation de l’outil d’IA, son fonctionnement restait incohérent et imprécis, et ses opérations demeuraient largement opaques – ambiguës, incertaines et incontrôlables – même pour les innovateurs techniques les plus chevronnés ». Pourtant, ceux-ci sont restés farouchement déterminés à poursuivre le développement de l’outil en vue de sa mise en production et de son déploiement à grande échelle, car les promesses inscrites maintenaient une forte dynamique en faveur du projet. En fait, lorsque les tests ont révélé l’inaccessibilité de l’objectif initial (c’est-à-dire avoir un outil très fiable pour que les agents puissent répondre aux usagers), les innovateurs en charge du déploiement ont proposé de nouvelles pistes de développement et d’expérimentation, au lieu de considérer les résultats comme un motif d’abandon. Le sentiment d’être sur une courbe d’apprentissage et d’amélioration a également découragé les critiques ouvertes de l’outil lui-même et a recentré l’attention sur les facteurs organisationnels et liés aux utilisateurs susceptibles d’affecter ses performances. « Le fait que l’outil n’ait pas tenu ses promesses a été normalisé et présenté comme une étape normale du processus. » 

La critique de l’intégration d’un LLM, qui semblait la principale raison pour laquelle l’outil ne tenait pas ses promesses, par rapport à l’amélioration de la base de données de réponses et de connaissances, a été largement ignorée par les responsables et les personnes chargées du projet. La visibilité du processus d’innovation, vantant l’agilité, l’expérimentation, l’itération… a supplanté les limites de l’outil, qui sont pourtant apparues assez tôt. 

Antti Rannisto et Marta Choroszewicz estiment en conclusion que le battage médiatique sur l’IA générative a intensifié les efforts d’innovation et suscité un optimisme débridé, conduisant à prolonger le projet pour son caractère exemplaire promettant d’optimiser l’administration publique. 

Pour eux, cela montre surtout que l’innovation est un processus hautement politisé. L’évolution des justifications ont maintenu le processus en mouvement, malgré l’absence de résultats pertinents. L’échec démontre « l’aspect constructiviste du technosolutionnisme, c’est-à-dire un processus où les problèmes sont redéfinis pour s’adapter à une solution technologique préexistante, faisant peser la charge de l’adaptation sur les utilisateurs et les organisations plutôt que de remettre en question l’outil lui-même.»

Plutôt que de considérer les défaillances répétées comme des motifs d’arrêt des travaux ou de réexamen des choix technologiques pris, l’évolution des cadres de justification a empêché que les défaillances remettent en cause la valeur perçue de l’outil et ont même parfois transformé les échecs techniques en signes de progrès. 

Trop souvent, les échecs sont perçus comme des étapes normales d’un « processus d’apprentissage », ce qui a tendance à rendre les échecs moins visibles et plus difficiles à corriger… Et c’est certainement encore plus net dans le domaine de l’innovation en IA générative, comparativement aux systèmes d’IA plus déterministes, où les architectures système sont plus transparentes et les indicateurs de performance mieux définis en amont. Pour les chercheurs, les résultats de cette enquête expliquent comment les promesses technologiques ont fait de l’outil un objet imaginaire irrésistible et ont maintenu le processus d’innovation en mouvement malgré ses défaillances.

Cette étude est riche d’enseignement, tant elle semble décrire derrière son cas particulier les échecs d’innombrables projets d’intégration de l’AI dans l’administration publique ou dans les organisations privées. Elle permet de mieux saisir les raisons des échecs de nombre de déploiements de l’IA générative que pointait par l’exemple, une étude du MIT, en montrant « 95% des projets pilotes d’IA générative dans les entreprises échouent ». Promesses inadaptées, déceptions des déploiements, justification par et pour l’innovation… permettent de comprendre que les projets mal partis n’arrivent bien souvent nulle part. 

On pourrait tirer bien d’autres leçons de cet exemple. Notamment sur l’importance de prendre en compte les critiques, plutôt que de les silencier.

Les consommateurs se défient de l'IA

Gartner
En dépit de leur adoption immodérée de l'IA pour leurs besoins personnels, une enquête de Gartner révèle que la moitié des américains (et pourquoi en serait-il autrement ailleurs ?) préfèrent interagir avec les marques ne recourant pas à l'intelligence artificielle générative dans leurs messages, leurs contenus et leurs publicités.

Au-delà de cette défiance, la généralisation de la technologie a des conséquences plus globale sur la confiance accordée à toutes les entreprises, qu'elles mettent en œuvre ou non l'IA. En effet, les citoyens prenant progressivement l'habitude d'être dupés par les informations qu'ils reçoivent, ils sont désormais 61% à s'interroger sur la fiabilité des données sur lesquelles ils fondent leurs décisions et, de manière générale, 68% se posent la question de la réalité de ce qui leur est présenté dans leur quotidien.

Signe de maturité rassurant… mais probablement problématique pour les directions marketing les moins préparées, le scepticisme devient la règle dans la relation aux contenus. Ainsi, une proportion croissante de personnes ne croient plus automatiquement ce qu'elles voient et, plus significatif encore, elles ne sont plus qu'un peu plus d'un quart à se fier à leur instinct pour en juger de la véracité. La vérification factuelle, via différentes sources indépendantes, s'ancre dans les comportements.

Gartner Marketing Survey

Face à cette évolution sociologique, les recommandations de Gartner semblent élémentaires. En premier lieu, de toute évidence, la transparence est impérative. Il faut absolument expliquer sans ambiguïté aux clients et autres visiteurs quand l'intelligence artificielle est utilisée, dans quel but et de quelle façon, et offrir une alternative facile d'accès. Ensuite, afin de satisfaire leur nouvelle soif de contrôle, il restera à les orienter activement vers les éléments de preuve nécessaires (objectifs, bien sûr).

Enfin, une fois la confiance instaurée, les réticences à l'IA dans le marketing ne pourront être levées qu'à la condition de ne l'employer que dans des contextes où son bénéfice est visible pour le consommateur. Les expérimentations de gadgets qui ne sont d'aucune aide, uniquement destinées à démontrer une supériorité technologique ou à procurer l'illusion de modernité, n'ont plus leur place aujourd'hui dans l'entreprise. Ces applications sont maintenant réservées aux usages privés de ChatGPT et consorts.

Curtis Yarvin et le programme d’une implémentation du vectofascisme

Il y a un an, l’artiste Gregory Chatonsky nous faisait l’honneur de publier dans nos pages une tribune sur ce qu’il appelait le vectofascisme. En explorant et dépassant la figure du pseudo théoricien Curtis Yarvin, il nous propose d’observer concrètement ce qui est à l’œuvre. Les mécanismes d’implémentation du fascisme sont là. La politisation est infrastructurelle. Tribune. 

Curtis Yarvin n’est pas un théoricien politique traditionnel. C’est un ingénieur logiciel originaire de la Silicon Valley qui, depuis les années 2000, a développé une critique des institutions libérales en partant des principes de la programmation informatique. Son travail circule dans les cercles du néoréactionnalisme, une tendance marginale mais influente parmi les technologues, les investisseurs et les stratèges politiques qui rejettent les prémisses démocratiques de la modernité. Pendant longtemps, il a pu être traité comme une curiosité intellectuelle : un pseudo-penseur excentrique proposant des « solutions d’ingénieur » à des problèmes politiques complexes. Ses écrits mélangent provocation, cynisme technologique et visions totalitaires assumées avec une certaine désinvolture. Mais quelque chose a changé entre 2016 et 2024 car l’infrastructure technique qu’il décrivait (les applications mobiles, l’IA, le contrôle algorithmique) est devenue omniprésente. Ensuite, des figures publiques, Elon Musk notamment, ont adopté ou cité ses idées. Enfin, et surtout, Yarvin a formalisé en 2024-2025 une sorte de programme politique explicite : un manuscrit intitulé « Trump et le problème de l’an II » (sauf mention contraire, les citations qui suivent en proviennent) qui prétend déployer une restructuration totalitaire de l’État américain. C’est cette cristallisation qui rend l’analyse intéressante. 

Il faut souligner que cette traduction décontextualisée par Le Grand Continent a été critiqué avec raison (par le journaliste Sylvain Bourmeau sur AOC, ainsi que par le sociologue Olivier Alexandre et l’experte en géopolitique du numérique Rayna Stamboliyska dans une tribune pour le Monde). Le point générique de ces critiques est qu’en surestimant l’importance de ce pseudo-théoricien, on opère une prophétie autoréalisatrice. Pourtant, cette mise en garde contre une supposée « légitimation » de l’idéologie par son analyse ne repose sur aucune preuve empirique : rien ne permet d’affirmer que le silence intellectuel aurait un effet inhibiteur sur des dispositifs qui sont, avant tout, d’ordre infrastructurel. L’analyse que je propose ici s’élabore d’ailleurs sur un tout autre plan : nous ne connaissons pas l’influence réelle de Yarvin, nous en avons ici ou là d’incertaines traces et nous ne pouvons affirmer qu’il est la cause de quoi que ce soit, mais d’un point de vue spéculatif, il permet de voir au travers de quelles ressources le vectofascisme pourrait s’implémenter socialement à la manière d’un programme informatique. C’est donc moins un théoricien qui inspire secrètement les fascistes américains qui nous intéresse ici, car nous savons combien les intellectuels surestiment l’importance des « intellectuels », que le symptôme d’une certaine époque de la pensée. Il ne s’agit pas de valider une autorité, mais de pratiquer une symptomatologie. Si le discours de Yarvin paraît souvent inconsistant, logorrhéique ou contradictoire, ce n’est pas par un défaut de rigueur qu’il suffirait de pointer pour le disqualifier et qui présupposerait un certain régime de rationalité s’appliquant à toute réalité ; cette inconsistance est une caractéristique structurelle de l’idéologie vectorielle. Dans ce régime de désémantisation, le langage ne vise plus à stabiliser un sens, mais à saturer le vecteur. L’incohérence fait partie du dispositif : elle procède par une fragmentation qui rend la contradiction inintelligible pour mieux absorber les résistances dans un flux permanent. Yarvin n’est pas la cause de la mutation, il est le « bruiteur » de sa logique technique.

Le fascisme du XXe siècle opérait selon les lois de l’espace euclidien. Il produisait des corps coordonnés, des gestes uniformes, des flux d’énergie directement observables : le défilé, le salut, la chemise noire. Ces formes visibles constituaient l’essence du pouvoir politique. C’était une machine à fabriquer de la présence physique, une totalité ostentatoire qu’on pouvait voir, compter, désapprouver. L’opposition pouvait pointer du doigt, nommer, critiquer. Mais nous ne vivons plus dans cet univers. Les conditions matérielles de la politique se sont métamorphosées  avec la numérisation. Le concept de vectofascisme tente de capturer précisément cette mutation : le passage d’une politique de l’espace physique à une politique de l’espace latent de l’IA peuplé de statistiques, d’une coordination gestuelle à une coordination vectorielle, d’une totalité ostentatoire à une forme spectrale. Le fascisme du XXIe siècle ne défilerait plus dans la rue. Il opérerait en deçà de la visibilité, dans les pixels, dans les données, dans les flux qui structurent les décisions et les affects. Une vectorisation du pouvoir, non sa disparition, mais sa transformation en une forme omniprésente et indéfinissable, capable d’exercer une domination d’autant plus totale qu’elle demeure largement invisible. Yarvin a proposé d’en formaliser l’implémentation explicite, comme si le fascisme du XXIe siècle devait être d’abord un problème d’ingénierie logicielle.

Le défi analytique est immédiat : comment évaluer sérieusement un corpus qui se défend constamment par l’ironie ? Comment critiquer un programme qui avoue d’avance son caractère fasciste, qui l’assume publiquement, qui en fait même une sorte de jeu ou de performance ? L’ironie fonctionne comme une arme défensive redoutable. Elle protège le programme contre la critique directe. Si quelqu’un dénonce le fascisme yarvinien, la réponse est immédiate : « Vous ne voyez pas que c’est ironique ? Vous manquez d’humour ! » L’ironie crée une zone d’impunité rhétorique où toute critique sérieuse est rejetée comme naïve et dépassée. Comment fonctionne précisément cette impunité ? Hugo Rowley a identifié le mécanisme d’une « lente radicalisation du lecteur » : la rhétorique yarvienne progresse étape par étape, rendant irréfutable le cheminement vers le totalitarisme. La progression suit un schéma systématique : (1) « La démocratie a des défauts » (scepticisme doux) ; (2) « La démocratie est inefficace » (critique neutre) ; (3) « La démocratie est une tromperie contrôlée par les élites » (framing conspirationniste) ; (4) « Peut-être que la gouvernance devrait être hiérarchique » (allusion à l’autoritarisme) ; (5) « Peut-être que la démocratie devrait être abandonnée entièrement » (conclusion pleinement réactionnaire). À chaque étape, le lecteur ne se confronte qu’à des énoncés qui semblent logiquement compatibles avec les précédents. L’ironie protège ce processus : elle l’immunise en le présentant comme exploration plutôt que cristallisation.  Mais il existe une contre-stratégie analytique précisément adaptée à cette situation : prendre justement le programme au sérieux dans sa cohérence logique. Non pas chercher un « vrai Yarvin » caché derrière l’ironie, mais demander simplement : que devient la politique si ces éléments fragmentés s’assemblent en totalité systématique ? Comment cela fonctionnerait-il techniquement ? Quels seraient les mécanismes concrets ? Nous testerons cette hypothèse : que devient la politique si la logique interne de ces propositions se cristallise en totalité ? Ensuite, nous parcourons les couches successives de ce programme, du support matériel (l’application mobile) aux mécanismes de capture affective (gamification, désémantisation) à l’infrastructure informationnelle parallèle, jusqu’à la restructuration architecturale de l’État et la vectorisation de la mémoire collective. À chaque étape, nous analysons comment ces éléments s’articulent pour produire une forme de domination qui n’a pas d’équivalent historique.

Ce qui rend cette analyse urgente, c’est une correspondance remarquable entre le diagnostic théorique du vectofascisme et l’ordonnance programmatique de Yarvin. Le diagnostic identifie une virtualité réelle : les capacités techniques pour une domination totale existent. Elles sont inscrites dans l’infrastructure informationnelle contemporaine. Elles attendent simplement une formulation explicite, une cristallisation programmatique .Le programme de Yarvin fournit précisément cela : il articule, systématise et formalise ce qui demeurait dispersé dans les interstices de la technologie. Il transforme les virtualités en architecture explicite. Yarvin lui-même expose cette stratégie sans détour : « Ce programme n’a rien à voir avec la notion traditionnelle de participation démocratique enseignée en classe. […] Nous utilisons des tactiques démocratiques pour abolir la démocratie elle-même » (Curtis Yarvin, Unqualified Reservations – Tome 03). Cette formule révèle l’essence de la cristallisation : transformer les outils de légitimité démocratique en instruments de leur propre destruction, en pleine conscience de cette contradiction performative dont la formulation la plus commune est « J’ai bien le droit de penser comme je veux, on est en démocratie ! » Mais, et c’est crucial, cela ne signifie pas que le programme sera effectivement implémenté , ni même qu’il soit parfaitement cohérent dans le détail. Cela signifie que les éléments en sont réels et opérants : l’application comme medium politique, la gamification comme capture affective, l’infiltration institutionnelle, l’infrastructure informationnelle parallèle, la vectorisation des hiérarchies, la destruction sémantique du débat politique. Ces mécanismes que nous analyserons opèrent aujourd’hui de manière fragmentée, inarticulée, sans intention unifiée. Et le danger réside précisément là : dans l’architecture systémique elle-même, capable de produire la totalité sans jamais avoir besoin de se justifier, sans jamais être confrontée à la réfutation, parce qu’elle opère en deçà du seuil où la critique idéologique a du sens.

L’app comme infrastructure politique

La première rupture décisive se situe au niveau du support matériel de la coordination politique. Yarvin énonce cela avec un cynisme parfait, celui de l’ingénieur qui refuse tout sentimentalisme idéologique : un hard party du XXIe siècle ne peut pas fonctionner selon le modèle des milices  du siècle dernier. « Un hard party du XXIe siècle ne peut pas être la milice de rue paramilitaire des années 1930 de votre grand-père. Là où les hard parties du début du XXe siècle ne pouvaient se coordonner qu’en uniforme, dans la rue, ceux du début du XXIe siècle ne peuvent se coordonner qu’à travers des pixels sur un écran. » Le hard party du XXIe siècle doit donc nécessairement exploiter les capacités de coordination de l’ère numérique. C’est ici que l’app mobile devient non pas un simple outil de communication, mais le support constitutif de l’organisation politique elle-même : «  Le parti de l’avenir sera une application. Le militant porteur de carte d’hier sera l’utilisateur actif mensuel de demain.  » Cette formulation n’est pas une simple métaphore technologique. Elle décrit une transformation essentiellement totalitaire de la politique. « Ce hard party doit aussi s’appuyer sur une application numérique, visant à faire de l’adhésion une forme d’expérience de réalité augmentée. Yarvin ne s’en cache pas : il s’agit de repenser, à l’ère numérique, les formes partisanes qui ont triomphé de la démocratie dans les années 1920 et 1930, autrement dit, il s’agit de réinventer le fascisme, et de mettre la Silicon Valley à son service » (Hugo Rowley, Curtis Yarvin & The Neoreactionary Canon, Made Simple, 2025). L’application n’assure pas seulement la communication interne. Elle est le support matériel, normatif et disciplinaire de l’ordre politique. Elle assure une disponibilité cognitive permanente de chaque utilisateur (l’application est toujours là, sur le téléphone, constamment accessible). Elle capture les affects en temps réel. Elle crée un système de feedback immédiat. Elle mesure, enregistre, évalue chaque action du militant. Elle est, autrement dit, une machine de gouvernementalité totale : un terme emprunté à Foucault, mais qui ici désigne quelque chose de plus que l’exercice du pouvoir, une intégration complète de la vie quotidienne dans la structure de commandement.

Pourquoi cette distinction importe-t-elle tant ? Parce qu’elle réalise ce que nous devons appeler une vectorisation du corps politique. La notion même de « collectif » change de nature. Les anciens fascismes produisaient une cohésion visible, une totalité ostentatoire, un corps du peuple supposé un et unifié, et ce corps devait être vu pour être réel, pour être efficace politiquement. L’application ne produit pas de visibilité collective. Elle produit une cohérence calculée, une coordination parfaite sans présence partagée. Les millions d’utilisateurs n’ont jamais besoin de se rencontrer, ne se voient jamais, ne forment jamais une présence physique commune. Et pourtant, leur action est coordonnée jusqu’à l’unanimité par les mécanismes algorithmiques intégrés à l’interface. Chaque utilisateur vote automatiquement pour qui le chef désigne. Chaque utilisateur effectue la tâche assignée, chacun est le relais du chef. Chaque utilisateur reçoit un message  au même moment. La totalité fonctionne parfaitement sans aucun moment de présence commune. C’est cela, la vectorisation : la transformation d’une multiplicité de corps en une multiplicité de données coordonnées de manière invisible, fonctionnant dans un hyperespace de n-dimensions où la notion même de «  présence  » devient obsolète. Ce n’est plus une affaire de gestes et de corps dans la rue, mais de tenseurs, de flux informationnels, de direction et d’intensité de forces qui traversent les réseaux sans jamais se matérialiser. Ce qui est remarquable dans cette approche, c’est qu’elle ne cherche pas à s’opposer à la désintégration contemporaine de l’espace public ; elle s’en sert. Elle utilise précisément la fragmentation informationnelle, la prolifération des écrans, l’atomisation des communautés comme matériel fondamental de la nouvelle totalité. Plutôt que de chercher à recréer la place publique (impossible, peut-être contre-productif), elle capte les espaces privés de chacun, les terminaux mobiles qui sont devenu nos espaces publics intimes, nos espaces de solitude partagée, nos chambres du XXIe siècle.

Mais il y a une seconde dimension à ce projet. Yarvin ne limite pas son analyse à la théorie. Il explicite son modèle de référence concrète : le Parti communiste chinois. « Un hard party est une organisation privée légale dont l’objectif est de devenir le parti dirigeant du prochain gouvernement, à l’image du Parti communiste chinois. » Le PCC représente le type d’organisation qui a réussi à saturer l’État entier, à contrôler non par la force brute externe mais par une intégration totale qui rend la distinction entre « État », « Corporation » et « Parti » simplement impossible. C’est un modèle d’infiltration, de discipline de fer, de loyauté absolue qui a prouvé son efficacité opérationnelle sur des décennies. L’application yarvinienne vise à reproduire cette saturation organisationnelle, mais en version technologique. Elle est conçue pour devenir le système nerveux central de l’organisation politique entière, capable de propager les ordres du sommet jusqu’aux extrémités avec une vitesse et une efficacité inatteignables par les méthodes traditionnelles. C’est l’automatisation du politique. 

L’alignement culturel comme vectorisation en acte 

Le diagnostic théorique du vectofascisme ne reste pas enfermé dans la spéculation. Il se cristallise déjà dans des architectures concrètes. L’exemple paradigmatique est l’ordre exécutif de Donald Trump du 3 avril 2025, « Restorer la Vérité et la Raison à l’Histoire Américaine » , qui applique précisément la logique de vectorisation à l’ensemble du système institutionnel et culturel américain. Yarvin parle d’une « application » comme medium politique. Trump le montre concrètement : c’est d’abord une application de contrôle culturel fonctionnant selon la logique de l’optimisation algorithmique. La lettre officielle de la Maison-Blanche au Smithsonian du 12 août 2025 expose le mécanisme avec une clarté glaçante : « Cette initiative vise à assurer l’alignement avec la directive présidentielle. Calendrier : corrections de contenu à 30, 75 et 120 jours. » C’est précisément la structure itérative que Yarvin décrit. Un cycle d’optimisation d’apprentissage automatique appliqué à la culture :
1. Fonction objective explicite : « célébrer l’exceptionnalisme américain »;
2. Métriques de conformité : « ton, cadrage historique, alignement avec les idéaux américains »;
3. Processus itératif : remplacer « le langage diviseur » par « des descriptions unifiantes »;
4. Fonction de perte : gel de 2,2 milliards de dollars de financement pour Harvard par exemple.


Les musées du Smithsonian et les universités ne sont pas simplement censurés. Ils sont vectorisés : leurs énoncés doivent se déplacer dans un espace de « conformité américaine » où certaines positions (critiques du passé américain) doivent être converties en leur équivalent patrimonial (le « progrès américain »). Le résultat : suppression des énoncés critiques, remplacement par des contrefactuels narratifs. L’esclavage n’est pas nié, il est absorbé dans une épopée plus large de l’« exceptionnalisme ». C’est exactement la désémantisation que Yarvin théorise : le mot demeure, mais son pouvoir critique se volatilise dans un espace vectoriel contrôlé où tout est équidistant. Et cela fonctionne. Trump lui-même le déclare : « Les universités ont déjà été alignées. Maintenant c’est au tour des musées. » Le modèle se propage en cascade selon les connexions du réseau institutionnel. C’est la vectorisation à l’état pur : pas de chemises noires, pas de symboles visibles, juste une infrastructure de contrôle qui fonctionne par réallocation de financement, calendriers d’optimisation, et modulation algorithmique de ce qui peut être entendu.

Clarifions un point fondamental : en insistant sur l’infrastructure, nous ne la rendons pas autonome. L’infrastructure ne fonctionne que parce que des acteurs la maintiennent, la financent, la perfectionnent. Yarvin n’est pas une abstraction. Elon Musk qui applique cette logique aux réseaux sociaux a des responsabilités concrètes. Les ingénieurs qui développent les systèmes de recommandation, les politiques qui les légalisent, les cadres du parti qui les exploitent—ce sont des agents historiques réels, pas des forces cosmiques. Ce que l’analyse de l’infrastructure révèle, c’est que ces acteurs ne doivent pas inventer de « plans » complexes. Ils n’ont qu’à laisser fonctionner le système, l’optimiser, le déployer. L’architecture elle-même produit l’effet totalitaire. Mais c’est justement parce qu’elle est construite, et donc vulnérable, réparable, contournable.

La gamification infra-sémantique

Une telle coordination pose un problème stratégique : comment maintenir la conformité sans reposer sur l’adhésion consciente à une idéologie ? Comment transformer des millions de sujets en exécutants automatiques sans qu’ils aient besoin de comprendre ou de croire au projet politique ?

C’est un problème que l’idéologie traditionnelle ne peut pas résoudre. L’idéologie suppose la conscience, le débat, l’adhésion réfléchie, ce qui crée des points de rupture, des zones de dissension, des moments où le sujet peut refuser. Le fascisme du XXe siècle lui-même devait affronter ce problème : il produisait des corps coordonnés, mais ceux-ci restaient partiellement imprévisibles, capables de désertion, de rébellion, de critique sourde. Mais il existe une alternative à l’idéologie : l’affect direct. Non le contenu politique qui demande à être défendu rationnellement, mais les émotions primaires qui court-circuitent la raison. C’est ici que la gamification intervient, non pas comme simple outil de rétention utilisateur, mais comme principe politique fondamental.

Yarvin expose le calcul : « Ici, dans la Silicon Valley, nous savons comment parler au chimpanzé intérieur de nos clients. » Cette formulation n’est pas une plaisanterie. Elle énonce une théorie politique radicale : la politique du XXIe siècle ne s’adresse plus à la raison, ne cherche pas à convaincre par l’argument, mais s’adresse directement aux affects infraconscients. Comment ? Par le système de récompense-punition, par le statut social immédiat, par l’excitation de la victoire. L’interface de l’application est conçue précisément selon ce principe : l’utilisateur effectue une action politique (voter, participer, effectuer une tâche) et reçoit immédiatement une récompense quantifiable, un badge, des points d’expérience, une position visible dans un classement. « Les gens feront n’importe quoi, même voter, il suffit d’en faire un jeu. » Ces récompenses ne possèdent aucune valeur intrinsèque (ce ne sont que des pixels, du bruit sur un écran), mais elles activent des mécanismes psychologiques profonds : le désir de compétition, la peur de la perte de statut, la satisfaction narcissique de la progression visible, la crainte de rester en arrière du classement. Le sujet ne vote plus parce qu’il pense que c’est juste ou nécessaire. Il vote parce qu’il veut le badge, parce qu’il veut monter dans le classement, parce que le jeu le capture. Voici le point critique : la gamification ne fonctionne efficacement que si elle opère indépendamment du contenu politique. Le badge ne dit rien. Il ne signifie rien. Il est pur valeur affective, pur désir. Et c’est précisément à partir de là que le système peut se permettre d’abandonner le contenu sémantique. Pourquoi ? Parce que l’adhésion n’est plus liée au sens. Le sujet n’a plus besoin de comprendre l’ordre pour l’exécuter. Il n’a plus besoin de croire au projet pour participer. Il a besoin uniquement de désirer la récompense suivante. Cela réalise une séparation entre affect et signification : le corps politique continue à fonctionner parfaitement (les votes sont donnés, les ordres exécutés, la coordination demeure totale), mais le contenu politique, le sens, l’enjeu idéologique disparaît  du système.

C’est ici que débute ce que nous appelons la désémantisation, c’est-à-dire le processus par lequel le langage politique cesse d’avoir une fonction référentielle pour devenir de simples tenseurs, entités mathématiques utilisées en IA qui décrivent seulement direction et intensité sans signifié. Yarvin énonce cela avec brutalité : l’électeur n’a plus besoin de comprendre le système qui le gouverne. « L’acte concret de remplir les bulletins ne relève plus que de la saisie de données. Ils n’ont plus besoin de suivre les “informations”. Ils n’ont plus besoin de lire sur les “enjeux”. Ils n’ont plus besoin de connaître les “candidats”. » Ce qui demeure n’est qu’affect, pur flux d’émotions structuré algorithmiquement. Le vote n’est plus un acte de délibération citoyenne. C’est une opération technique : tu appuies sur le bouton, tu reçois ton badge, tu gravis un échelon. Le moteur n’est pas l’idéologie mais l’excitation de la victoire, la satisfaction immédiate, l’acquisition du point suivant. La politique se réduit à une donnée binaire : victoire ou défaite. À une affection : excitation ou dépression (et une politique qui prétend tout réduire à ces états psychologiques est complice de cette binarisation). Tout le reste (le contenu politique, la signification idéologique, la substance du débat démocratique) disparaît entièrement. Non parce qu’il est censuré explicitement (ce qui serait trop visible), mais parce qu’il n’est simplement plus pertinent. Le système fonctionne sans lui. C’est la transformation du signifiant politique en simple tenseur vectoriel : la politique opérant littéralement en deçà du seuil sémantique, dans cet espace infra-sémantique où le signifié n’existe plus, où seuls subsistent les affects et les flux.

L’infrastructure du différend

Mais la gamification seule ne suffit pas. Il faut aussi que l’utilisateur n’ait jamais l’occasion de sortir de l’univers informatif délimité par l’appareil du parti. Il faut que la réalité elle-même soit structurée de telle manière que toute critique, toute opposition rationnelle, soit rendue littéralement inintelligible. C’est pourquoi Yarvin insiste sur la construction d’une infrastructure informationnelle parallèle, complète et autarcique : « Si vous êtes consommateur d’information, vous recevez vos nouvelles du parti. Si vous lisez des livres, le parti les écrit. Si vous utilisez l’IA, le parti a entraîné sa propre IA. Si vous consultez une encyclopédie en ligne, le parti dispose de sa propre version de Wikipédia. » Cette énumération compulsive n’est pas simplement rhétorique. Elle désigne un objectif précis : la saturation de l’espace informationnel, l’impossibilité matérielle de sortir du réseau de contrôle.

L’Antiversity que Yarvin propose dépasse largement le simple outil informationnel alternatif. Elle fonctionne comme un producteur indépendant de vérité conçu pour remplacer l’université libérale et, comme il l’écrit, « continuer à guider la Nouvelle Structure vers la stabilité, agissant comme le cerveau du NUSG, tout comme l’Université agissait comme le cerveau de l’OUSG » (Curtis Yarvin, cité dans Elizabeth Sandifer & Jack Graham, « Neoreaction: A Basilisk », 2018). Son rôle n’est pas de communiquer mais de produire une vérité officielle institutionnalisée qui ne repose plus sur le consensus démocratique mais sur une autorité technique souveraine. Mais comment cette « autorité technique souveraine » se perpétue-t-elle sans être reconnue comme totalitaire ? C’est par ce que Hugo Rowley appelle une « boucle de rétroaction » systémique, qui est précisément la structure de la Cathédrale yarvinienne : une « belle boucle de rétroaction où la désinformation justifie un mauvais gouvernement, et où ce même gouvernement subventionne cette désinformation ». Ce qui émerge n’est pas un pouvoir centralisé qui ordonne la vérité, mais un système auto-amplifié où chaque élément renforce les autres. L’infrastructure informationnelle produit la doctrine ; la doctrine justifie l’infrastructure ; les deux ensemble produisent l’impossibilité de la critique rationnelle. C’est pourquoi cette autorité technique n’a jamais besoin d’être explicitement défendue : elle fonctionne par auto-renforcement. Ici se réalise l’industrialisation du différend. Le vectofascisme ne produit pas un seul discours totalitaire monolithique mais produit une fragmentation structurée, une incommensurabilité. Si vous contrôlez l’infrastructure informationnelle entière (les nouvelles, les livres, l’IA, l’encyclopédie, les contenus vidéo, les images, les mèmes), alors il n’existe plus de désaccord au sens traditionnel du mot. Il ne peut plus y avoir de débat entre deux positions raisonnables. Ce qui demeure, c’est une fragmentation des perceptions de la réalité. Car le mécanisme n’est pas la censure brute (le silence, le bannissement). C’est la production systématique de l’incommensurabilité. Chaque nœud du réseau social perçoit un univers légèrement différent, des ennemis légèrement différents, des enjeux légèrement différents. L’ennemi n’est pas interdit ; il est rendu inaudible et inintelligible par la fragmentation du champ d’écoute lui-même. C’est un pouvoir qui s’exerce par l’ouverture apparente (la prolifération des médias) pour créer une clôture (l’impossibilité de la critique factuelle).

Mais il existe une couche encore plus importante de cette architecture : la duplicité structurelle. Yarvin stipule que la doctrine du parti existe en deux versions différentes. D’un côté, il y a le « résumé public » destiné à servir de base de recrutement et d’alibi politique, une façade sémantique destinée à tromper la critique externe. De l’autre, il y a le « plan réel », accessible uniquement aux initiés de la direction, qui contient les véritables intentions stratégiques du mouvement. Cette distinction n’est pas une simple dissimulation banale. C’est un principe organisateur du pouvoir totalitaire lui-même. Car qu’est-ce que cela signifie précisément ? L’opposition ne peut jamais attaquer le projet réel. Elle peut seulement s’acharner contre la façade. La critique rationnelle, la réfutation factuelle, s’acharnent contre un adversaire fantôme. Pendant ce temps, l’action réelle, le véritable objectif du mouvement, se déploie de manière imperceptible, inaccessible au débat public. Le discours public du parti fonctionne comme un simple vecteur désémantisé (rempli de symboles, de références, de gesticulations rhétoriques), tandis que son action est régie par une logique interne invisible. C’est ce que nous appelons le pouvoir spectral : un pouvoir qui est simultanément présent et absent, agissant sans jamais être localisable ou contestable directement. Il est omniprésent sans jamais être identifiable publiquement. Il se renforce par sa propre dénégation performative. L’industrialisation du différend est ainsi perfectionnée : le pouvoir opère en deçà du seuil d’intelligibilité critique en divisant la réalité en deux couches irréductibles, l’une publique, désémantisée, facile à critiquer ; l’autre privée, réelle, inaccessible à l’analyse.

Or, pour que cette infrastructure fonctionne réellement, pour que le pouvoir spectral s’exerce concrètement dans les institutions existantes, il faut quelque chose de plus que l’application et le contrôle informationnel. Il faut une présence à la fois invisible et omnisciente au sein de chaque institution d’élite. Il faut l’infiltration clandestine systématique de l’appareil d’État, des corporations, des universités, de tous les lieux où s’exerce quelque forme de pouvoir.

Yarvin explique que les cadres du parti doivent « dissimuler leur niveau d’engagement » et organiser, au sein de toute institution d’élite, des « cellules clandestines du parti ». L’objectif est de prendre le contrôle de l’institution de l’intérieur, en commençant par les recrutements, les ressources humaines, les flux de pouvoir invisible. Mais pour cela, il faut donner aux cadres « non seulement des outils d’organisation comme une application de coordination du vote, mais aussi de véritables outils d’espionnage ». Cette formulation indique une transformation dans la nature du pouvoir politique lui-même. Ce qui était, dans les fascismes historiques, un phénomène ostensible (le parti visible, reconnaissable, occupant l’espace public), devient une structure de présence clandestine. Le cadre du parti n’est pas identifiable comme tel. Il travaille dans l’administration, dirige une université, occupe un poste dans une grande entreprise, sans que jamais ne soit révélée son véritable allégeance. À partir de son poste de travail ordinaire (responsable des ressources humaines, professeur, ingénieur), il peut exercer une influence en cascade : quels professeurs sont embauchés, quels étudiants sont sélectionnés, quels projets sont financés, quels groupes de travail sont constitués. C’est pour cela que le « plan réel » doit rester secret. L’opposition ne peut critiquer que ce qu’elle peut voir. Mais le vrai plan opère dans les couches invisibles du pouvoir institutionnel. Ces décisions apparaissent parfaitement ordinaires, justifiables par des critères apparemment neutres. Mais elles produisent, à long terme, une restructuration de l’institution selon les lignes du mouvement. La structure du hard party s’inspire explicitement du Parti communiste chinois, où l’infiltration, la discipline de fer et la loyauté absolue permettent à une organisation privée de devenir l’organe réel du pouvoir d’État, non pas en conquérant l’État de l’extérieur, mais en le saturant de l’intérieur, en remplissant chaque cellule administrative de cadres loyaux jusqu’à ce que la distinction entre parti et État devienne administrative : qui peut dire où l’un commence et où l’autre finit ?

Le leader et l’eugénisme

En parallèle, la figure du leader se transforme elle aussi. Dans les fascismes historiques, le leader était une figure charismatique (le Duce, le Führer) dont la présence physique était centrale, dont la voix résonnait dans les rassemblements, dont le regard fixe était reproduit sur les affiches. La relation au chef était médiatisée par le corps, par la présence, par le charisme personnel.

Mais dans le hard party yarvinien, le leader n’est plus principalement une figure charismatique. Il devient un nœud algorithmique, un point de distribution qui gère la délégation de l’autorité et recalibre perpétuellement les conditions de l’action politique à haute fréquence. Le système de vote est simplifié, pour ne pas dire éradiqué : « Vous votez une fois, pour un parti ou un chef, de manière permanente et transitive. Une fois que vous avez choisi Trump comme chef, pour chaque élection à laquelle vous êtes éligible, vous votez automatiquement pour Trump. Et si Trump n’a aucun intérêt à devenir le prochain chef du service de contrôle animalier du comté de Volusia, il doit bien connaître quelqu’un d’autre qui serait parfait pour ce poste. Vous votez alors automatiquement pour cette personne. » Cela représente une annihilation systématique du choix électoral. L’électeur ne vote qu’une seule fois dans sa vie, pour un chef. Toutes les autres élections, à tous les niveaux (présidentielle, législatives, locales, jusqu’au « service de contrôle animalier du comté ») sont déterminées rétroactivement par cette décision initiale. L’autorité devient un flux vectoriel qui se propage dans le réseau sans friction démocratique, sans délibération, sans possibilité de révocation. Le culte du chef se vectorise ainsi : il n’y a plus d’identification personnelle au leader, seulement une connexion à un point de distribution algorithmique. Ce système garantit une uniformité des cadres politiques et administratifs, imposant la doctrine de la direction à l’ensemble de la bureaucratie, sans friction démocratique, sans la possibilité même d’une réflexion personnelle.

Mais il y a plus problématique encore. Yarvin rejette explicitement l’égalité démocratique elle-même, et c’est ici que le concept de Human Biodiversity (HBD) intervient comme principe organisateur de la hiérarchie. HBD est une thèse qui affirme que les différences génétiques entre populations humaines expliquent les variations dans les capacités intellectuelles, le comportement social et même la « gouvernabilité ». « Il n’y a pas de raison solide d’anticiper que les capacités intellectuelles des peuples géographiquement séparés dans leur évolution se soient avérées avoir évolué de manière identique. » Cette formulation est déceptivement simple. Elle énonce un présupposé qui détruit la démocratie : si les capacités intellectuelles varient selon la géographie et donc selon les lignées, alors l’égalité démocratique n’est pas un idéal moral à poursuivre. C’est une erreur factuelle, une négation de la réalité biologique. La démocratie, qui suppose l’égalité politique entre les citoyens, repose sur un mensonge. Le hard party yarvinien serait donc fondé sur la « reconnaissance de la réalité » : une hiérarchie naturelle inscrite dans les gènes, simplement enfin administrée rationnellement.

Ici se pose la question décisive : HBD mène-t-il logiquement à l’eugénisme ? La réponse est oui, de manière presque inévitable. Et c’est précisément parce que Yarvin comprend cette logique qu’il construit l’architecture qu’il propose.
– Si on accepte que : les différences génétiques déterminent les capacités cognitives et gouvernementales
– Alors il suit logiquement que : une société optimale devrait favoriser la reproduction des génotypes « supérieurs » et défavoriser les autres
– Ce qui est la définition même de : l’eugénisme.

Yarvin n’énonce pas ici le mot explicitement. Il ne propose pas de « programme eugéniste » formel avec stérilisations forcées ou élimination physique. Mais il propose quelque chose de bien plus redoutable : un eugénisme par infrastructure. Le résultat est identique aux vieux eugénismes d’État, mais le mécanisme est différent. Voici comment cela fonctionnerait : la hiérarchie vectorisée assignerait chaque individu une position dans un espace multidimensionnel de capacités présumées. Cette assignation ne serait pas faite manuellement. Elle serait calculée continuellement par l’infrastructure informationnelle du hard party, basée sur les actions, les performances, les résultats à la gamification. Une fois assigné à une certaine position dans cet espace latent de l’IA, l’individu recevrait automatiquement accès à certaines ressources et serait fermé à d’autres. Certains recevraient des postes permettant l’accumulation de capital, l’accès à l’éducation supérieure, les opportunités de réseau et de reproduction. D’autres seraient confinés à des positions qui réduisent structurellement ces opportunités. Nous ne sommes pas loin des inégalités sociales dans les sociétés libérales, mais ce qui est sinistre, c’est que ce système réalise exactement ce qu’un eugénisme ferait, sélectionner selon le génotype présumé, mais sans jamais avoir à l’avouer. Car qui décide ? Personne, ou plutôt : l’algorithme. C’est « juste » le marché qui opère. C’est « juste » la méritocratie qui joue son rôle. C’est « juste » les capacités naturelles qui trouvent leur niveau. On ne peut pas critiquer un algorithme pour discrimination raciale : l’algorithme n’a pas d’intention. Il opère « objectivement », « scientifiquement » même s’il est chargé de tous les biais de ses concepteurs économiques et techniques. Et ainsi, l’eugénisme devient invisible. Les résultats sont sélectifs (certaines populations sont surreprésentées dans les positions hautes, d’autres systématiquement reléguées aux positions basses), mais le processus n’est jamais nommé comme sélection. Il apparaît comme simple différence de « capacité » reflétée dans le positionnement vectoriel.

C’est là que Nick Land, penseur du courant des « Dark Enlightenment » aux côtés de Yarvin, fournit l’idéologie justificatrice cosmique qui rend l’eugénisme inévitable et naturel. Land n’est pas un penseur détaché du projet yarvinien. Il en est un des architectes théoriques fondamentaux. Les « Lumières Sombres » constituent un courant réactionnaire explicitement antihumaniste, antiégalitariste, qui affirme que l’Illuminisme égalitaire a échoué et que l’avenir réside dans une hiérarchie naturelle basée sur la sélection biologique et technologique. Yarvin cite régulièrement Land, s’inscrit dans sa filiation, et partage sa conviction centrale : l’humanité n’a pas la responsabilité de son avenir, mais doit plutôt s’aligner sur des processus évolutifs ou techno-évolutifs qui la dépassent. Land affirme explicitement que le tri systématique mène à une spéciation : une élite technologique se séparant progressivement de la masse, formant une nouvelle espèce post-humaine capable de franchir le « Grand Filtre » évolutif (Nick Land, « The Dark Enlightenment », 2014). Cette séparation n’est pas une dystopie à combattre, c’est l’inévitable actualisation de la sélection naturelle. L’argument est séduisant pour une sensibilité techno-transhumaniste : l’humanité se scinde en deux branches évolutives. Une élite s’augmente technologiquement (fusion avec l’IA, transhumanisme, extension cognitive) tandis que la masse stagne ou décline. Ce n’est pas une aberration, c’est l’avènement de ce que la sélection naturelle elle-même exige.

Mais cela masque ce qui se passe réellement : la classe qui contrôle l’infrastructure se réserve l’accès aux technologies d’augmentation, tandis que la majorité en reste exclue. Ce qui semblerait être une évolution naturelle est en fait un processus de séparation programmée inscrit dans l’architecture du pouvoir. L’eugénisme devient ainsi un processus cosmique, inévitable, « naturel », ce qui le rend politiquement inattaquable. Comment critiquer la sélection naturelle ? Comment s’opposer à l’évolution ? Land fournit donc l’idéologie qui convertit le projet eugénique d’infrastructure de Yarvin en une nécessité évolutive du cosmos, élevant une stratégie de domination programmée au rang d’une loi de la nature. Les « Lumières Sombres » opèrent ainsi une transmutation : ce qui était criminel (l’eugénisme d’État) devient vertueux (l’accélération de l’évolution). Ce qui était politique (un choix humain) devient cosmique (une force transcendantale).

Plus révélateur encore est le concept yarvinien du « formalisme » : « gouverner et posséder n’ont plus de sens distincts ». Dans ce modèle, l’État devient une « corporation souveraine » (sovcorp) dont la propriété est divisée en actions négociables. Le leader devient un « PDG Souverain » dont la responsabilité n’est pas morale mais fiduciaire : il doit maximiser la valeur de l’actif (le territoire, la population) pour ses actionnaires. La loi n’est plus un contrat social. C’est un contrat de service entre le propriétaire et ses locataires (les anciens citoyens, maintenant reclassifiés comme ressources exploitables). Sous ce régime, l’eugénisme n’est plus une question morale ou politique. C’est une simple question de gestion d’actifs : optimiser la « qualité » de la ressource humaine pour maximiser la productivité et la rentabilité. C’est de la gestion de portefeuille appliquée à la population. Et c’est ici qu’on voit comment HBD + infrastructure algorithmique + formalisme créent un système où l’eugénisme opère sans intention malveillante, sans idéologie raciste explicite, sans symboles nazis dénonçables. C’est juste de l’ingénierie optimale.

L’instrumentalisation de la mémoire

Ici il faut s’arrêter sur un autre point : comment l’infrastructure vectofasciste traite-t-elle la mémoire collective, en particulier les traumatismes de masse ? Le mécanisme est le suivant. Les mémoires de catastrophes historiques (guerres, génocides, persécutions) sont chargées émotionnellement de manière intense. Elles portent une charge affective particulière : culpabilité, trauma, devoir de mémoire, impératif de « plus jamais ça ». Ces émotions ne sont pas moins réelles, moins légitimes que d’autres. Elles sont simplement puissantes. Or, ce que l’infrastructure vectofasciste peut exploiter, c’est précisément cette puissance affective. Non pas en niant l’événement, mais en capturant la mémoire elle-même comme un vecteur émotif imperméable à la critique rationnelle. Si un acteur politique invoque la mémoire d’une catastrophe pour justifier une action présente, il crée une situation où critiquer l’action présente revient à critiquer la mémoire de la catastrophe elle-même. La mémoire devient un bouclier rhétorique. L’action présente devient indiscutable, parce qu’elle est encadrée par ce qui ne peut pas être discuté. C’est le détournement de la mémoire comme outil de pouvoir : plutôt que de permettre que la mémoire nous force à penser différemment, on la fige dans une invocation répétée qui paralyse la critique.

Imaginons un trauma collectif : un génocide, une persécution, une violence de masse reconnue historiquement. Ce trauma possède une charge émotionnelle intense. Il est invoqué régulièrement pour :
– Justifier certaines politiques (« pour que ça ne se répète jamais ») ;
– Délégitimer certaines critiques (« tu oses critiquer ? Mais c’est comme ce trauma ! ») ;
– Mobiliser une culpabilité collective (« nous devons réparer le dommage historique de ce trauma »).
Ce qui se passe alors, c’est que la mémoire devient elle-même un ressort politique. Elle cesse d’être un événement historique à comprendre. Elle devient une donnée affective à exploiter. Et le danger, le vrai danger du vectofascisme, c’est que cela peut créer une boucle temporelle où le présent devient prisonnier du passé. Tout ce qui se passe maintenant doit être justifié par référence à ce qui s’est passé alors. Et parce que ce trauma est posé comme absolu, incomparable, aucun événement présent ne peut être nommé avec la même gravité. Résultat : on peut commettre des actions de grande violence ou injustice au présent, en invoquant la prévention de cet événement, et ces actions seront systématiquement minimisées ou justifiées, parce qu’elles opèrent au nom du trauma lui-même.

Cela aboutit à une destruction progressive de la sémantique politique. Les mots qui permettaient autrefois de nommer les violences extrêmes (« génocide », « crime contre l’humanité », « persécution systématique ») deviennent usés, vidés de sens, parce que ces mots sont invoqués de manière si contradictoire et si saturée affectivement qu’ils perdent leur pouvoir discriminant. Ou bien on dit que seul X mérite le nom de « génocide » (parce que c’est le trauma suprême), ou bien on applique le mot de manière si laxiste (à n’importe quelle injustice) qu’il perd sa force critique. Et une fois qu’on ne peut plus nommer avec précision la violence, on ne peut plus la critiquer avec clarté. La sémantique s’effondre. Le pouvoir opère dans cet espace de confusion sémantique, où les mots ne signifient plus rien de stable. Ce processus réalise ce que nous appelons une vectorisation de la mémoire : la transformation d’un événement historique complexe, multifacette, exigeant une compréhension nuancée, en une simple donnée affective à manipuler.

La mémoire de X entre dans l’espace latent du vectofascisme. Elle peut être :
– Activée sélectivement (invoquée pour justifier une action, ignorée pour en critiquer une autre) ;
– Remixée (les détails historiques précis deviennent moins importants que la signature émotionnelle) ;
– Instrumentalisée (utilisée comme justification pour des actions sans rapport direct avec X) ;
– Cannibalisée (le nom de X invoqué pour légitimer ce qui contredirait les leçons de X).

Ce n’est pas une censure brute de la mémoire. C’est une saturation affective qui paralyse la mémoire, qui l’empêche de remplir sa fonction critique, qui la transforme en outil de contrôle émotionnel. Il est crucial de clarifier ce qui se passe réellement ici. Il est entièrement légitime d’invoquer une mémoire historique pour critiquer une politique présente. « Les leçons de X nous enseignent que Y est dangereux » est une forme de raisonnement politique normal et important. Ce qui devient problématique c’est quelque chose de différent : c’est lorsque la mémoire devient un paravent affectif qui rend toute critique de l’action présente indéfendable. C’est lorsque l’invocation de X devient un moyen de ne pas débattre les enjeux concrets du présent.

– Critique légitime : « L’histoire de X nous montre les dangers de [mécanisme spécifique]. La politique Y reproduit ce mécanisme. Donc Y est dangereuse. »
– Instrumentalisation vectofasciste : « X s’est produit. Nous devons empêcher X. Voilà pourquoi [n’importe quelle action] est justifiée. Si vous questionnez [cette action], vous remettez en question le devoir de mémoire de X. »

Pour le vectofascisme, l’intérêt de ce mécanisme est immense : il permet de mobiliser des affects puissants (culpabilité, peur, devoir) sans jamais avoir à débattre les fondamentaux du projet politique. L’infrastructure peut fonctionner au-dessus du débat démocratique ordinaire, en opérant directement sur ces circuits affectifs chargés historiquement. Mais il est important de noter ceci : ce mécanisme ne s’applique pas spécifiquement à une mémoire ou à un événement donné. C’est un mécanisme structurel qui peut s’appliquer à n’importe quel trauma collectif. Toute mémoire chargée émotionnellement peut potentiellement être capturée et instrumentalisée de cette manière. Et c’est précisément pour cela que le mécanisme est si redoutable : il n’opère pas via l’idéologie explicite, mais via la capture de nos obligations émotionnelles les plus légitimes.

La destruction architecturale, les machines de guerre et le grotesque

Mais le projet yarvinien ne s’arrête pas à la prise de pouvoir. Il va bien au-delà. Il envisage une reconstruction physique, matérielle, architecturale de l’État lui-même. Yarvin conçoit le changement de régime selon le modèle d’une guerre d’occupation totale, visant un effacement « irréversible » de l’ancien système démocratique. « Sa première étape consistera à effacer l’ancien régime de manière pacifique mais irréversible, jusqu’à ce que la peinture ait disparu et que le métal brille. » Et il systématise cette destruction au-delà du politique et du droit, jusqu’à toucher l’architecture physique et la mémoire elle-même : « Même les bâtiments de l’ancien gouvernement devraient être démantelés, sauf s’ils présentent une valeur historique ou architecturale réelle. Comme les Alliés l’ont bien compris en 1945, la destruction symbolique est aussi importante que la destruction structurelle. » Cette référence à 1945 n’est pas innocente. Elle invoque précisément le moment où une totalité a été physiquement détruite, où les symboles du régime ont été démolis, où la mémoire architecturale a été effacée. Yarvin propose de reproduire cette logique d’anéantissement (en prenant bien garde de se référer à 1945 et non avant) : une volonté de déterritorialisation physique complète de la démocratie, de démolition des structures matérielles elles-mêmes, de s’assurer qu’aucune autre forme politique ne puisse s’y réinstaller, pas même sa mémoire.

Les machines de guerre autonomes incarnent littéralement cette logique de vectorisation. Le Replicator de Tesla, les drones militaires autonomes, les systèmes de ciblage basés sur l’IA, ces entités technologiques n’ont pas d’empathie par définition, non parce qu’on l’a « désactivée », mais parce qu’elles n’ont jamais eu d’intentionnalité morale. Elles opèrent selon des optimisations vectorielles : cible acquise = action exécutée. Paul Scharre, ancien sniper de l’armée américaine et analyste politique au Pentagon, l’énonce avec clarté dans Army of None : Autonomous Weapons and the Future of War, 2018  : « Qu’aurait fait une machine à la place de Petrov ? La réponse est claire : la machine aurait fait exactement ce pour quoi elle était programmée, sans jamais comprendre les conséquences de ses actions. » Ce n’est pas une limitation technique surmontable. C’est ce que signifie être une machine : l’absence complète d’intentionnalité morale, d’empathie, de compréhension du contexte ou de monde. Mais ce qui est remarquable, c’est que Musk et Trump ont explicitement transformé cette absence d’empathie en vertu à cultiver. Musk, en développant des machines autonomes sans « limitations éthiques », dénonce la « sensibilité progressiste » comme un obstacle à l’efficacité. Trump, en radicalisant la rhétorique du « enemy combatant » et de l’élimination sans remords, présente l’empathie envers l’adversaire comme une trahison nationale. L’absence de conscience n’est plus simplement le destin inévitable des machines. Elle devient un idéal politique à imposer. Cela révèle le secret du vectofascisme : il ne cherche pas à créer l’absence d’empathie chez les machines, ce serait impossible, les machines n’en ont jamais eu. Il cherche plutôt à vectoriser l’empathie humaine elle-même, à la transformer en donnée affective exploitable ou, mieux encore, à la présenter comme une faiblesse à éliminer de la conscience collective. Mais il y a un danger encore plus insidieux que Scharre identifie : le risque moral. Dans son analyse des politiques d’armes autonomes, Scharre observe que « si ceux qui lancent des armes autonomes ne croient pas être responsables des meurtres qui en résultent, ils pourraient devenir négligents, lançant l’arme dans des endroits où peut-être sa performance n’était pas assurée ». En d’autres termes : quand vous reléguez la décision morale à une machine sans conscience, les opérateurs humains eux-mêmes cessent graduellement d’être tenus pour responsables de leurs actions. C’est la propagation du vectofascisme dans les esprits. L’empathie n’est plus une vertu morale qu’on choisit de cultiver. Elle devient une inefficacité algorithmique qu’on doit débugger. Et une fois qu’on a accepté que les machines n’ont pas besoin d’empathie, il devient facile de conclure que les humains non plus ne devraient pas en avoir.

Le vectofascisme réalise donc une inversion morale qui opère en deux temps :
– Temps 1 (infrastructure) : Créer des machines sans conscience morale ;
– Temps 2 (culture opérationnelle) : Utiliser l’existence de ces machines pour affirmer que la conscience morale est une faiblesse à dépasser chez les humains aussi. 

Ce qui rend cette inversion particulièrement redoutable, c’est qu’elle s’appuie sur une vérité technique pour justifier une transformation morale. On ne peut pas débattre de la conscience chez les machines, elle n’y est simplement pas. Mais en utilisant cette absence pour redéfinir la conscience humaine comme obstacle plutôt que vertus, le vectofascisme transforme les termes du débat moral lui-même. Scharre révèle une autre couche de cette transformation : même si on voulait programmer la conscience morale dans une machine, c’est impossible. Il note que « faire ces jugements exigerait un raisonnement moral complexe… Une telle machine exigerait un raisonnement moral au niveau humain, au-delà de l’IA d’aujourd’hui. » Cela crée une situation paradoxale : les machines autonomes incarnent l’idéal vectofasciste précisément parce qu’elles sont incapables d’avoir la conscience morale que Musk et Trump dénoncent comme obstacle. Elles ne pourraient jamais « se soucier » du fait qu’elles tuent. Elles sont la forme parfaite du pouvoir sans remords, sans hésitation, sans humanité. Les machines autonomes ne sont pas simplement des outils. Elles sont des prophètes du vectofascisme : elles incarnent l’idéal du système optimal quand on a supprimé tout ce qui freine l’action, morale, hésitation, remords, empathie, conscience. Et elles montrent aussi comment cette suppression se propage aux humains qui les utilisent. Le risque moral que Scharre identifie n’est pas un bug. C’est une feature du vectofascisme : construire un système où la conscience morale devient impossible à exercer, pas parce qu’on l’interdit explicitement, mais parce que l’infrastructure elle-même la rend obsolète.

Il existe un mécanisme supplémentaire qui lie intimement la gamification à la destruction sémantique : l’utilisation d’une esthétique du grotesque et du kitsch comme outil de capture émotionnelle couplée au court-circuitage de la critique rationnelle. Rappelons comment fonctionne la gamification : elle ne produit pas de sens, elle produit des affects (récompense, progression, statut). L’utilisateur ne vote pas parce qu’il comprend le projet politique, il vote parce qu’il désire le badge suivant. L’affect se détache du signifié. Le grotesque opère exactement sur cette brèche. Il la systématise et l’amplifie. Prenons l’exemple de Beeple (pseudonyme de Mike Winkelmann), artiste produisant quotidiennement depuis 2010 des images techniquement sophistiquées mais esthétiquement vulgaires : un mélange de haute technologie 3D et de kitsch, d’ironie et d’absurdité grotesque. Ses NFT se vendent pour des millions. Mais l’important n’est pas le marché, c’est le court-circuit émotif qu’il produit. Le grotesque crée un environnement informatif où tous les critères de jugement sont brouillés. Lorsqu’une image est à la fois techniquement impressionnante et esthétiquement ridicule, le cerveau entre en court-circuit. L’ironie devient inséparable de la sincérité. Le beau et le laid ne sont plus des catégories pertinentes. C’est ici que la gamification s’amplifie : dans cet environnement de confusion sémantique, les récompenses affectives deviennent les seuls critères clairs. Le badge n’est plus une aberration dans un univers significatif. C’est la seule chose qui a du sens dans un univers qui a perdu son sens. Habituellement, on critique une politique en disant : « c’est injuste », « c’est mal », « c’est dégradant », critères qui supposent une sériosité morale. Le grotesque préemptif annule cette possibilité. En représentant le mal politique lui-même comme déjà ironique, déjà kitsch, déjà absurde, on l’immunise contre la critique morale. On ne peut pas dire « c’est affreux » à quelque chose qui affirme : « oui, c’est affreux, c’est le point ». L’objet a d’avance occupé le terrain de sa propre critique.

Yarvin lui-même l’énonce : « Passer à un parti à la mode des années 1930, en chemises noires, avec escadrons de la mort, est, je l’admets, comique. » En le qualifiant de comique, il le place dans l’espace du grotesque où la critique sérieuse ne peut plus le saisir. Il y a une immunisation rhétorique : tout recours à la sériosité (« c’est du fascisme ») est immédiatement rejeté comme manquant d’humour. C’est un détournement pervers du grotesque : normalement, le grotesque révèle les contradictions en les amplifiant jusqu’à l’absurde. Ici, il est utilisé pour occulter les contradictions en les convertissant en jeu. La synthèse monstrueuse entre gamification + grotesque + désémantisation produit une capture des affects positifs (victoire, progression, statut) indépendamment du sens, paralyse la capacité à critiquer sérieusement en rendant tout ironiquement absurde, vide le langage politique de son pouvoir référentiel. C’est la paralysie tripartite : émotion sans compréhension, ironie sans alternative, jeu sans conscience. Le vectofascisme réalise sa synthèse la plus redoutable en ces trois points : une totalité où la domination s’exerce sans rencontrer la possibilité d’une critique sérieuse, rationnelle et signifiante.

Le « Hard Reboot » de la Cathédrale

Il y a la question de la doctrine elle-même, de ce que Yarvin appelle la « Cathédrale ». Par ce terme densément chargé, il désigne l’agrégat d’institutions progressistes qui contrôlent selon lui le discours, la culture et l’administration : universités, médias, bureaucratie non élue, organisations internationales de droits de l’homme. Ce n’est pas simplement une description neutre d’un ensemble institutionnel. C’est une accusation théologique. Yarvin définit le progressisme comme une « version sécularisée du quakerisme » ou de l’ultracalvinisme, une religion déguisée en science, une doctrine imposée par la force morale plutôt que la force brute. La Cathédrale n’est pas une bureaucratie neutre mais un « culte mystérieux du pouvoir » qui impose des dogmes (Égalité, Justice Sociale, Diversité) sous couvert de science objective. Le progressisme opère selon la logique d’une église établie, impériale et monopolistique dans sa prétention à incarner la vérité universelle.

Par conséquent, le remplacement de l’ancien régime exige de traiter l’Universalisme comme une église établie et de procéder à sa « désinstallation » complète pour libérer l’État de cette emprise religieuse déguisée en expertise technique. C’est ici que le concept de « hard reboot » révèle sa profondeur totalitaire. Le hard reboot n’est pas une simple réforme ou un changement de majorité électorale. C’est une remise à zéro totale du système, calquée sur le principe de l’ingénieur logiciel réinitialisant un système corrompu par un virus. Cela implique l’éviction systématique de l’ensemble des cadres nommés, la destruction des murs du bâtiment administratif lui-même, et la réécriture intégrale du code fondamental du gouvernement. Mais il y a plus : c’est une institutionnalisation autoritaire de la vérité elle-même. Yarvin énonce : « Et bien sûr, un véritable parti possède une doctrine. Bien avant de prendre le pouvoir, il sait exactement ce qu’il fera du pouvoir. » La doctrine n’est pas découverte par débat démocratique. Elle est instituée par le pouvoir comme réalité a priori. « Ce sont ses idées qui deviendront l’idéologie officielle, la vérité officielle. » Le pouvoir produit donc sa propre forme de vérité, non pas obtenue par consensus démocratique ou vérification empirique, mais imposée par décret souverain. C’est le vectofascisme qui s’épanouit paradoxalement dans la fin des grands récits : il n’a plus besoin de justifier sa vérité par appel à l’Histoire universelle ou au Progrès ou à une Origine. Il l’impose simplement, parce qu’il est le pouvoir, parce qu’il dispose de l’infrastructure informationnelle, du programme de systèmes autonomes décisionnels, du contrôle de l’appareil d’État.

Il existe un dernier mécanisme, peut-être le plus raffiné, que nous avons vu à l’œuvre depuis le début de notre analyse : celui de l’aveu performatif. Yarvin opère un renversement stratégique en admettant explicitement le lien au fascisme. L’aveu du fascisme fonctionne comme une dénégation de second ordre. En le qualifiant de « comique » et en l’intégrant au registre du jeu (la gamification qui structure tout le programme), Yarvin désamorce le terme, tout comme le faisait le bras tendu d’Elon Musk. Le fascisme avoué cesse d’être une accusation sérieuse pour devenir une performance ironique, un programme assumé avec une certaine nonchalance calculée, une sorte de blague que le système se raconte à lui-même. « Cette stratégie vagueness sert plusieurs objectifs : (1) Elle rend ses idées moins extrêmes — en les présentant comme des questions ouvertes plutôt que des appels directs à l’action. (2) Elle permet d’attirer un public plus large — ceux qui pourraient être curieux de la politique réactionnaire mais pas encore pleinement radicalisés. (3) Elle fournit une couverture en cas de confrontation — il peut toujours prétendre qu’il “explorait simplement les possibilités” plutôt que de faire des réclamations prescriptives » (Hugo Rowley, Curtis Yarvin & The Neoreactionary Canon, Made Simple, 2025).  Cela rend la critique libérale et démocratique inopérante. Dès l’instant où le programme a occupé lui-même le terrain de la dénonciation et l’a transformé en vecteur d’amusement et de recrutement, toute critique qui refuse de jouer le jeu demeure incompréhensible, hors du champ des possibles discursifs. C’est la dénégation performative qui se renforce par sa propre répétition, sa propre diffusion. Le pouvoir spectral ne peut être critiqué que de manière spectrale ; la critique frontale, sérieuse, ne peut que passer à côté de sa cible.

Défaillible

Ce qui émerge de cette analyse est une correspondance structurelle entre le diagnostic théorique du vectofascisme et l’ordonnance programmatique de Yarvin. Le concept de vectofascisme servait à identifier une tendance réelle, une virtualité inscrite dans l’infrastructure technique contemporaine, dont le programme yarvinien représente l’une des cristallisations les plus explicites, mais qui peut prendre bien d’autres formes. Le diagnostic n’anticipait pas l’avenir. Il diagnostiquait le présent en cours de mutation. Il identifiait les mécanismes potentiels d’une transformation qui était dispersée, inarticulée, fragmentée. Et le programme yarvinien, en transformant ces mécanismes en architecture explicite et programmée, rend le concept de plus en plus concret, le fait émerger de l’état de virtualité théorique vers celui de possibilité réalisable. L’exemple de Trump, avec son alignement méthodique des institutions culturelles et académiques, montre que nous ne sommes plus dans la phase théorique. Les éléments opèrent maintenant de manière coordonnée, bien que non unifiée sous une intention unique. Le programme vectofasciste combine : l’application mobile comme medium politique total, la gamification comme capture affective, l’infiltration institutionnelle clandestine, l’infrastructure informationnelle parallèle et autarcique, un système de vote transitif qui absorbe toute délibération démocratique, une hiérarchie vectorisée basée sur HBD et l’eugénisme calculé, une doctrine imposée comme réalité officielle, et l’intégration de programmes militaires réels vers l’autonomie complète des décisions de destruction. Mais il faut le noter avec clarté : nous ne savons pas si ce programme sera réellement implémenté de manière cohérente même si nous en voyons déjà certaines prémisses dans le colonianisme trumpien. Nous analysons une tendance, une possibilité inscrite dans les capacités techniques du XXIe siècle. C’est précisément parce que c’est possible que l’analyse devient urgente.

Ce qui rend ce vectofascisme particulièrement insidieux, c’est que la critique politique traditionnelle n’a aucune catégorie pour le saisir. La critique de gauche dispose de concepts (pouvoir, exploitation, hégémonie) mais elle suppose une base matérielle où des humains décident activement d’opprimer d’autres humains selon un mécanisme de classes sociales. Or, le vectofascisme opère de telle manière qu’il n’y a pas seulement un « groupe » qui décide. Il y a une architecture, une infrastructure, un système de calcul. Dire « c’est injuste » suppose que justice et injustice soient des catégories pertinentes. Mais si le système opère en deçà du seuil sémantique, en deçà du langage où « justice » et « injustice » ont du sens, cette critique passe à côté. Dire « c’est du fascisme » est une réaction juste, mais elle suppose que le fascisme soit reconnaissable, dénonçable, que ses intentions soient claires. Or, le vectofascisme réalise précisément sa puissance en affirmant-tout-en-niant qu’il soit fascisme, l’aveu ironique qui désamorce la critique.

La vraie question n’est donc pas : « Comment critique-t-on le vectofascisme ? » La vraie question est : « Comment crée-t-on les conditions pour que d’autres mondes soient possible ? » Mais cette question excède les limites de ce texte. L’analyse du vectofascisme comme infrastructure est préalable à toute contre-architecture. Il faut d’abord nommer les mécanismes pour pouvoir les contourner. Les propositions concrètes (créer des institutions inoptimisées, des espaces publics, des formes de coopération qui refusent la gamification) feront l’objet de recherches ultérieures. Ce qui importe ici : ne pas rester à la pure critique, ne pas transformer le diagnostic en paralysie fascinée. Mais aussi ne pas prétendre que des gestes éthiques individuels suffiront. La construction d’une contre-architecture exige un travail institutionnel, technique, politique, et c’est un autre chantier.

La vraie urgence du vectofascisme ne réside pas dans le programme de Yarvin lui-même, qui peut ou ne pas être implémenté. Elle réside dans le fait que les mécanismes sont déjà là : l’application, la gamification, la désémantisation, l’infiltration, l’infrastructure informationnelle parallèle, les systèmes décisionnels autonomes, la vectorisation de la mémoire, la paralysie morale par le grotesque. Ces mécanismes opèrent fragmentés, dispersés, mais opérants. Observons les contradictions émergentes : le Kremlin ne parvient pas à vectoriser entièrement les populations qui refusent l’identification biométrique. Les systèmes de recommandation de Meta s’effondrent périodiquement sous la charge de contenu à modérer. Les cadres infiltrés dans les universités génèrent eux-mêmes des résistances internes. Les travailleurs d’Amazon qui utilisent les systèmes d’optimisation se sabotent mutuellement pour échapper à l’algorithme. Ces failles montrent que la neutralisation des contradictions n’est pas automatique, mais exige un travail perpétuel de maintenance. Mais attention : cette totalité vectofasciste ne fonctionne que si elle demeure invisible. Elle prospère dans la fragmentation des compréhensions. Elle gère ses propres failles par neutralisation. Car le vectofascisme n’est pas absolu. Il rencontre des résistances, techniques, sociales, affectives. Les contradictions qu’il produit ne disparaissent pas ; il les absorbe en les fragmentant, en les rendant inintelligibles les unes aux autres. Exemple : un utilisateur gamifié peut aussi refuser l’app. Une institution vectorisée peut aussi générer des contre-mouvements. Un citoyen exposé à la désémantisation peut aussi, dans certaines conditions, retrouver un langage critique. Le système ne tolère pas ces contradictions ; il les neutralise. Il les isole, les marginalise, les transforme en bruit de fond. Le danger réside donc non dans l’inévitabilité du vectofascisme, mais dans son efficacité relative à absorber les contradictions. Il ne gagne pas parce qu’il est parfait. Il gagne parce qu’il isole les points de rupture. Mais c’est justement parce qu’il essaye de le faire qu’il est défaillible. Chaque absorption d’une contradiction crée des tensions, des frictions, des points d’appui possibles. L’urgence de ce diagnostic réside précisément là. Pas pour prédire l’avenir, le vectofascisme n’est pas inévitable. Pas pour paralyser par la description d’une totalité sans failles. Mais pour identifier où les contradictions peuvent s’articuler, où les points de rupture pourraient se cristalliser en action collective. Pour maintenir la capacité à nommer ce qui se passe avant qu’il ne soit trop tard pour agir. Pour que, quand une contre-architecture se construira, elle sache précisément pour quoi elle s’édifie et comment.

Gregory Chatonsky

Un agent à l'IA bridée, ultra-ciblé : l'idéal ?

Constant AI
Constant AI, fournisseur de technologie aux « Credit Unions » américaines depuis une décennie, complète aujourd'hui sa plate-forme « digitale » historique de pilotage des crédits avec Nia, qu'il présente comme un agent vocal à base d'intelligence artificielle, spécialisé dans la gestion des demandes de report d'échéance par téléphone.

La solution s'adresse aux établissements qui sont submergés, surtout en ces temps difficiles pour beaucoup de consommateurs, par des appels d'emprunteurs qui souhaitent sauter un paiement dans leur plan de remboursement, comme le prévoient désormais la plupart des contrats. L'automate de la jeune pousse promet de se charger des procédures de bout en bout, dans le respect absolu des règles édictées, aussi bien en termes d'éligibilité que de devoir d'information sur les conditions de l'opération.

La garantie de conformité aux contraintes imposées n'est pas formulée au hasard : en dépit de la communication autour de l'IA agentique, l'ensemble des traitements opérationnels sont assurés par un moteur déterministe, c'est-à-dire fondé sur des algorithmes classiques. L'intelligence artificielle, n'intervient en réalité que dans l'interface, à savoir dans l'animation du dialogue et la génération des paroles énoncées par Nia et dans l'interprétation des répliques de son interlocuteur humain.

À l'opposé des annonces tonitruantes de l'industrie sur la mode du moment (qui recourent parfois aux mêmes artifices de marketing, cependant), nous avons donc ici affaire à un « simple » robot conversationnel, affecté à une tâche extrêmement précise, exécutée par des logiciels relativement traditionnels. Mais est-ce vraiment un défaut ? Ou bien s'agit-il d'une approche focalisée, à bon escient, sur le besoin du client ?

Constant AI – Nia

D'emblée, ce dernier est parfaitement identifié. Dans la plupart des institutions financières, la prise en compte d'une demande de changement sur les échéances de prêt passe par des procédures manuelles, à la fois coûteuses en ressources et néfastes pour les délais de réponse, qui sont alors susceptibles de mettre en difficulté l'emprunteur. Les outils en ligne automatisent déjà les formalités mais une proportion non négligeable de personnes restent réticentes à ces canaux ou ignorent l'option.

Dans ces conditions, l'approche retenue par Constant AI prend tout son sens : ce qui nuit à l'expérience utilisateur est l'appel téléphonique lui-même, avec ses temps d'attente et les tâtonnements du téléconseiller. Voilà ce qui mérite réellement d'être optimisé grâce à un agent intelligent. En revanche, l'automatisation des démarches administratives constitue un problème informatique classique, à résoudre via des moyens classiques, ceux-ci possédant l'immense avantage de ne laisser aucune place aux hallucinations et d'être ainsi rassurants pour les responsables du projet.

Conclusion triviale de cet épisode, il n'est pas interdit d'abuser des « buzzwords » afin de mieux vendre ses produits (et personne ne s'en prive)… tant que leur valeur porte sur une attente véritable et qu'ils remplissent pleinement leur promesse de la combler.

La reconnaissance faciale, en toute impunité

En 2021 déjà, Street Press avait montré que la police française utilise la reconnaissance faciale massivement, couramment et en toute impunité. Le média d’inverstigation Disclose enfonce le clou : on est passé de de 375 000 consultations du fichier TAJ (Traitement des antécédents judiciaires) à 1 000 000 en 2024. Soit 2500 consultations quotidiennes. Une pratique toujours illégale, rappelle la Quadrature du Net qui exige son interdiction et des sanctions contre ceux qui permettent son déploiement, en dehors du cadre légal.

Le biais anti-humain : des préférences des IA pour les contenus IA

Sans surprise, les IA préfèrent les textes… écrits par des IA. Des chercheurs ont reproduit des études de discrimination à l’emploi en testant les biais des LLM chargés du recrutement en testant la différence entre des lettres de motivation et des CV écrits par des humains et générés par des IA. 

Visiblement, les LLM préfèrent toujours les contenus génératifs sur les contenus humains, que ce soit pour l’embauche, pour la sélection d’articles de recherche ou pour les résumés de films. Mais surtout, soulignent les chercheurs, confrontés au choix entre des contenus génératifs et des contenus humains, les humains choisissent moins fréquemment les textes produits par des LLM que ne le font les produits LLM eux-mêmes. Les résultats montrent que les LLM ont tendance à « discriminer de manière dysfonctionnelle les humains. » 

Reste à saisir pourquoi : « nos données ne permettent pas de déterminer si le biais sous-jacent est sui generis ou s’il résulte de formes plus familières de biais sociaux et de discrimination. Il est possible que les choix des LLM révèlent des formes amplifiées de biais négatifs socialement répandus, déclenchés par les marqueurs stylistiques des identités sociales humaines marginalisées. Ainsi, la préférence des LLM pour les LLM découlerait de l’absence de tels marqueurs dans leurs intonations, contrairement à leur présence intermittente dans les intonations humaines.»  

A terme, les chercheurs estiment que pointe le risque d’une fracture numérique renforcée, risquant de déclasser les candidats qui n’utilisent pas l’IA, ou pire, ceux qui n’utilisent pas les meilleurs modèles… ou pire, de marginaliser définitivement les humains, par une forme de ségrégation supplémentaire, et qui s’ajoute à celles lui préexistant. Ce qui est sûr, c’est que le biais IA-IA pourrait conférer un avantage indu au contenu généré par l’IA dans nombre de processus décisionnels, comme on le voit déjà dans les flux de recommandations de nombre de réseaux sociaux.

Le coût caché de l’IA c’est la vérification

« L’IA ne fonctionne toujours pas très bien en entreprise, les entreprises font semblant, mais un règlement de comptes est imminent », estime le journaliste Thomas Claburn  pour The Register. « Un code peut sembler correct, réussir les tests et pourtant être erroné. On mesure généralement cela grâce à des tests de performance. Or, beaucoup des entreprises n’ont pas mis en place de système de retour d’information adéquat pour évaluer l’impact du codage basé sur l’IA sur les résultats qui leur importent. Le nombre de lignes de code n’est pas un indicateur d’excellence. (…) nous avons besoin d’un nouvel ensemble de métriques, pour mesurer l’impact de l’IA sur la performance en ingénierie », explique Dorian Smiley de Codestrap.

« Le nombre de lignes de code, le nombre de présentations produites, le nombre de tickets fermés, le temps gagné sur une tâche, le volume de texte généré, sont des métriques assez faciles à faire remonter dans un tableau de bord, faciles aussi à présenter à une direction générale. Mais ce sont souvent de très mauvaises mesures de la qualité réelle du travail livré.», rappelle Arthur Charpentier sur son blog. « Les lignes de code, ou le nombre de pull requests, ne sont pas des mesures d’excellence en ingénierie. Ce qui compte, ce sont plutôt des variables comme la fréquence de déploiement, le délai de mise en production, le taux d’échec des changements, le temps de rétablissement, la sévérité des incidents. Dès lors, une partie de l’optimisme contemporain vient peut-être d’une confusion très simple: on confond ce qui est facile à compter avec ce qui est réellement important. » 

L’adoption de l’IA peut s’accompagner d’améliorations sur certaines dimensions intermédiaires, par exemple la documentation ou la rapidité perçue sur quelques tâches, tout en coexistant avec une baisse de la « cadence de livraison » et de la stabilité d’ensemble, explique encore Charpentier. « L’IA peut donner aux équipes le sentiment d’aller plus vite, de produire plus, de fluidifier certains gestes, tout en dégradant les propriétés du système qui importent vraiment ». « Lorsque Clarburn explique que les grands cabinets de conseil utilisent déjà l’IA à grande échelle pour rédiger des PowerPoint ou d’autres livrables, et que les erreurs dans le travail de bureau risquent d’être plus difficiles à détecter que dans le code faute de tests de référence comparables, il parle d’autre chose que d’une faiblesse technique. Il décrit une économie de services dans laquelle la qualité devient opaque au client. Et pas que lui, parfois même à l’organisation qui vend le service.» 

Charpentier rappelle que l’accélération peut rendre l’organisation entière « rationnellement aveugle à la dégradation de la qualité, parce que le coût immédiat de la vigilance pèse sur ceux qui doivent livrer vite, alors que le coût du dommage est reporté plus tard ». « Un risque devient très difficile à couvrir lorsque ni le client, ni le prestataire, ni l’assureur ne savent clairement qui devait voir l’erreur, à quel moment, et selon quelle procédure », rappelle le spécialiste des techniques d’assurances. « Chaque gain apparent de vitesse déplace en réalité une charge vers l’aval. Il faut relire, comparer, tester, contextualiser, parfois réécrire. Et si personne n’assume sérieusement ce travail, le coût ne disparaît pas. Il réapparaît plus tard sous forme d’erreur, de correction en urgence, de perte de confiance, puis éventuellement de contentieux. Ce que l’on présente comme un gain de productivité n’est donc souvent qu’un déplacement comptable. On économise au début sur la production, pour dépenser plus tard sur le contrôle, ou sur les conséquences de son absence. » « Le ralentissement n’est pas un défaut du système, il en est la condition de crédibilité ! Tant qu’une organisation célèbre les gains de vitesse sans financer sérieusement une infrastructure de vérification, elle sous-estime nécessairement le coût complet du système.» Ce qu’il résume de belles formules : le coût caché de l’IA n’est pas la génération, c’est la vérification. L’automatisation ne supprime pas l’erreur, elle la déplace. 

« Une erreur de présentation, de recommandation, de priorisation ou de raisonnement n’est pas nécessairement la faute d’un utilisateur inattentif. Elle peut être le produit d’un système dans lequel on a retiré aux humains les conditions mêmes d’un contrôle effectif, tout en continuant à leur demander d’en assumer la responsabilité finale. » 

« Une même technologie peut être présentée en interne comme un gain de productivité, être interprétée par le client comme une baisse de valeur, et être analysée par l’assureur comme une hausse du risque.»

Une histoire des rapports de l’Etat au logiciel libre

Sur le framablog, Pierre-Yves Gosset publie une excellente et fouillée histoire des rapports de lÉtat français et du le logiciel libre. Des années 60 à aujourd’hui, cette chronologie souligne que l’ambivalence entre souveraineté et dépendance est complexe, faite d’avancées et de reculs, de conquêtes et d’abandons. Le prétexte de cette prise de recul est une défense du projet porté par La Suite numérique à la Dinum, une suite d’outils collaboratifs libres pour les agents de l’État. « Une initiative publique louable, politiquement courageuse, et plus prometteuse que ne le disent ses détracteurs. »

« C’est une initiative précieuse, parce qu’elle rouvre un espace politique que l’État français a trop souvent laissé se refermer : celui d’un numérique public plus libre, moins dépendant d’éditeurs ou de cabinet de conseils dont l’objet est moins de servir la population que de se servir sur les institutions. » Oui, l’autonomie numérique passe d’abord par des projets concrets et fonctionnels et se bâtit, d’une brique l’autre.

Capital One crée une expérience de voyage

Capital One
Bien que n'ayant pas totalement disparu, le concept « beyond banking », qui qualifiait les tentatives des institutions financières de prendre pied dans des marchés adjacents à leurs métiers d'origine, a perdu de son lustre ces derniers temps. Sa récente déclinaison par Capital One donne toutefois une bonne idée de la recette du succès.

Comme d'autres innovations, celle qui consistait pour les banques à capitaliser sur leur présence – au moins à travers un geste de paiement – dans toutes sortes de domaines tels que l'achat immobilier ou la mobilité a connu un engouement rapide dont les promesses ont eu du mal à se concrétiser. Que ce soit en raison de résultats décevants ou de la réduction des investissements dans l'innovation en général, le soufflé est maintenant retombé et peut laisser place à des stratégies plus rationnelles.

Pour Capital One, outre sa position historique dans le financement automobile, son acquisition en 2024 de Discover en faisant le leader américain de la carte de crédit, le voyage, qui en constitue un des piliers traditionnels, offre une opportunité d'extension plus ou moins naturelle dans sa stratégie de diversification, qu'elle a commencé à matérialiser il y a quelques mois par l'absorption de Hopper Travel Software, le fournisseur de la technologie motorisant ses premiers efforts en la matière.

Aujourd'hui, l'entreprise présente une version aboutie de sa vision avec une application dédiée au voyage, intégrant l'ensemble de ses avantages et les autres services dont ses porteurs de carte ont besoin lors de leurs déplacements à travers une expérience complète et personnalisée : accès direct aux réservations de vols, de séjours, de locations de voiture et d'activités, localisation des salons d'aéroport et enregistrement, définition des préférences, alertes contextuelles, gestion des changements inopinés…

Capital One Travel App

Cette solution, qui s'inscrit dans une trajectoire entamée depuis 5 ans, devrait permettre à l'enseigne spécifique Capital One Travel de prolonger sa réussite. Celle-ci est à mon avis redevable à une première caractéristique essentielle en comparaison d'autres aventures extra-bancaires du secteur : elle ne cherche pas à s'infiltrer au cœur des services financiers mais se veut au contraire totalement autonome… sauf quand il s'agit d'appliquer en toute transparence les primes et réductions sur les achats. Pourquoi donc les clients gèreraient-ils leurs voyages dans l'outil de pilotage de leurs comptes ?

L'autre point fort de la démarche, qui mériterait cependant d'être encore développé, réside dans sa perspective de l'expérience globale, qui n'est évidemment envisageable que dans un environnement indépendant. Il n'est ainsi pas seulement question d'embarquer une place de marché sous prétexte d'intégration des paiements mais de fournir l'ensemble des fonctions nécessaires au parcours choisi, ici le voyage mais il en serait de même pour l'habitation ou l'automobile, par exemple. Dans le cas contraire, les utilisateurs n'ont pas d'autre motivation que d'éventuelles promotions.

Naturellement, ces choix remettent en question un des principaux objectifs du principe « beyond banking » tel qu'il est appréhendé traditionnellement. En effet, une application spécifique ne pourra pas stimuler l'engagement des clients avec les canaux habituels, numériques ou physiques, de l'institution financière. Mais est-ce si grave ? Le plus important n'est-il pas l'engagement avec la marque et, a contrario, l'ajout d'un espace de réservation de voyages est-il vraiment bénéfique pour la fidélité du visiteur ?

Quelques réflexions sur l'éducation financière

Rencontres de l'Éducation Financière
À l'occasion de la semaine 2026 de même nom, l'UMR, mutuelle de retraite du groupe Vyv, et SPAK, jeune pousse spécialisée, organisaient mercredi dernier, avec plusieurs autres partenaires, les premières rencontres de l'éducation financière. Les différents échanges de la matinée m'inspirent quelques réflexions, que je vous livre à l'état brut.

Une enquête, d'abord, sur le rapport des français à la thématique. Les résultats ne réserve pas énormément de surprises mais valent toujours d'être martelés. Par exemple, lorsqu'ils sont interrogés sur la manière dont ils souhaitent être formés en matière financière et économique, la première réponse est par « eux-mêmes » (54%), suivie par l'école (46%, surpondérée chez les jeunes) et les professionnels (43%), les médias se trouvant largement dépassés (14%). Leur canaux préférés marquent, évidemment, la progression des réseaux sociaux et des plates-formes d'intelligence artificielle, là aussi plus élevée chez les moins de 35 ans… mais le conseiller bancaire reste plébiscité.

Deux indicateurs retiennent toutefois mon attention dans ce panorama. Je m'étonne ainsi de l'incohérence qui émerge entre l'appétence soutenue pour les sources en ligne et la demande persistante (pour 63% des sondés) de rencontres en face à face quand il s'agit de consulter un représentant de la banque (vis-à-vis desquelles la satisfaction est en baisse, par ailleurs). Dans un autre registre, deux tiers des salariés affirment attendre un soutien pédagogique de la part de leur employeur, à travers un raisonnement qui suggère que l'entité les rémunérant devrait aider à gérer l'argent transmis de la sorte.

Rencontres de l'Éducation Financière

Passons maintenant à mes réactions aux débats divers et variés de l'événement. Je commencerai par une question de périmètre. Nombreuses sont les parties prenantes qui pensent l'éducation financière dans une perspective restreinte, souvent en correspondance avec leur métier : le pilotage de budget, la sortie de situations à risque, l'épargne, l'investissement… Or je pense que, comme quand je traite de bien-être financier, toutes ces dimensions sont interdépendantes et ne peuvent être envisagées isolément. Lorsque un des intervenants évoque, très justement, l'importance d'inscrire les démarches didactiques dans une vision de parcours de vie et d'ancrer les interactions sur des moments clés de l'existence, une approche à 360° est critique.

Dans ce domaine, surgit une difficulté supplémentaire : comment s'immiscer à bon escient dans ces épisodes propices à une information personnalisée ? En général, les institutions financières se placent simplement en attente de sollicitation par leur client ou prospect. Le cas extrême des accidents de surendettement – évitables ou, a minima, moins pénibles quand ils sont anticipés – montre que cette passivité n'est pas acceptable : il faut mettre en place des moyens de détection, faciles à développer pour des teneurs de compte, et déclencher les actions pertinentes sur ces signaux.

Je pense enfin qu'il est un angle mort dans la manière d'appréhender les besoins des consommateurs, surtout parmi les jeunes générations. Les programmes éducatifs rationalisés classiques, qui se concentrent sur les bonnes pratiques à adopter pour maîtriser son budget ou préparer un projet d'avenir, passent à côté des préoccupations qu'expriment les intéressés, à l'instar de ceux qui déclarent que leur seul objectif est l'enrichissement. Elles doivent absolument être prises en compte, y compris pour les réorienter, si nécessaire. À défaut, les influenceurs ou les IA sauront jouer sans scrupule sur ces désirs, sans forcément enfreindre la législation, et la partie sera perdue…

Liens vagabonds : le réarmement des vérificateurs à l’ère de l’IA

Fact-checker ne suffit plus, pré-bunker doit devenir la norme. Face à l’épuisement généré par la course à la vérification, les médias peuvent-ils prévenir les manipulations plutôt que les combattre a posteriori ? Pour Chris Morris, directeur de Full Fact : “Le fact-checking 1.0 portait sur des points de données précis, des faits isolés. Aujourd’hui, nous […]

The post Liens vagabonds : le réarmement des vérificateurs à l’ère de l’IA first appeared on Méta-media | La révolution de l'information.

Starling offre un assistant financier plus utile

Starling Bank
Jusqu'à maintenant, les premiers pas de l'intelligence artificielle dans la gestion de finances personnelles sont restés plutôt timides. Avec son tout nouvel assistant, la britannique Starling Bank commence à esquisser ce que pourrait devenir un véritable compagnon du quotidien, capable d'aider les consommateurs avec leur argent.

Capitalisant sur deux initiatives antérieures, l'une consacrée à l'analyse des flux financiers (que je critiquais avec virulence, à l'époque) et l'autre portant sur la détection des arnaques, la néo-banque veut désormais proposer une solution à la couverture plus large, susceptible, enfin, d'être réellement utile à ses clients. Elle reprend donc, évidemment, les bases qui fondent la plupart des initiatives du genre, à savoir une sorte de moteur de recherche un peu élaboré sur l'historique de transactions.

À ce socle elle ajoute ensuite une autre fonction élémentaire et tout aussi peu originale permettant, en résumé, de naviguer dans les différentes options de l'application bancaire et les services qu'elle offre dans un mode conversationnel en langage naturel. Il est ainsi possible de poser des questions telles que « quel est le code PIN de ma carte de paiement ? » ou « comment configurer Apple Pay sur mon téléphone ? » sans avoir à explorer tous les menus ou interroger un chatbot comprenant une demande sur deux.

En progressant encore sur l'échelle de sophistication, nous arrivons au capacités « agentiques ». Dans le prolongement des précédentes, celles-ci proposent de réaliser directement des actions à partir de commandes libres : « prépare une réserve de 500£ à alimenter automatiquement chaque mois pour un voyage à Paris en juillet » ou « crée un budget de tel montant pour mes dépenses courantes ». Rien d'exceptionnel, il s'agit toujours de faciliter l'accès à des opérations prévues dans l'application.

Starling Assistant

Dans ce paysage relativement banal, je décerne une mention spéciale à un gadget, grâce auquel l'utilisateur peut demander au logiciel de générer un quizz sur ses finances personnelles. Celui-ci l'invitera par exemple à deviner quel est le commerce qu'il a le plus fréquenté au cours des 30 derniers jours ou quelle est la catégorie d'achats dans laquelle il est le plus dispendieux. Voilà un moyen simple et astucieux d'encourager les individus à se pencher sur leurs habitudes, objectif que ne peuvent atteindre les outils d'analyse classiques sans un coup de pouce pour leur engagement.

Cependant, ce qui distingue profondément le Starling Assistant de ses équivalents dans d'autres établissements, au moins au niveau de sa promesse, à ce stade, est son attachement aux sujets de préoccupation des citoyens, plus qu'aux services disponibles. La perspective adoptée est celle de l'aide à l'épargne, à la maîtrise du budget, à l'accessibilité (pour les personnes en situation de handicap), à la résolution des vulnérabilités (notamment face aux addictions au jeu ou au surendettement)…

Puisque Starling semble s'inscrire dans une démarche d'enrichissement continu de son agent IA, pourquoi ne pas rêver à ce que pourraient être des évolutions vers des fonctions beaucoup plus avancées : pouvoir lui demander, avant de le créer, si le projet de voyage à Paris est compatible avec sa situation et préciser les sacrifices à envisager, l'autoriser à suggérer spontanément d'engager une discussion en cas de mauvaise passe sur les comptes ou, au contraire, d'accumulation d'une épargne méritant l'attention… Autrement dit, en faire un conseiller personnalisé attentif.

QuitGPT (4/4) : de la contestation de gauche à son organisation

Pour conclure ce dossier, revenons aux propos de l’historien Brian Merchant, dans sa newsletter

L’IA peut-elle être un projet de gauche ?

Croire que la gauche passerait à côté de l’IA reste une accusation un peu facile. L’IA, quoi que ses apôtres en disent, tient largement d’une machine à défaillance qui vise à servir le capitalisme. Ensuite, si la gauche décrit une accélération d’un capitalisme factice et cynique, c’est aussi avec de solides arguments. On a plutôt l’impression que les thuriféraires de l’IA ne souhaitent pas entendre qu’on puisse refuser l’IA et son monde, toute puissante qu’elle soit. La promesse de l’IA n’est qu’une promesse pour les plus puissants. Dans la critique de l’IA de gauche, on entend pourtant aussi des tentatives pour créer des IA spécifiques, limités, voire socialistes, tout en se demandant si cela est seulement possible, tant les moyens sont accaparés par des acteurs qui ne sont pas de gauche et qui rendent impossible et certainement peu désirable, l’idée même d’IA, tant la délégation de la pensée aux machines est finalement contraire à l’idéal d’émancipation qui anime la gauche. 

Ce dont convient largement Brian Merchant : la gauche cherche bien plus à pointer les limites de l’IA que les enthousiastes minimisent. La gauche américaine n’est pas en train de rater une occasion de jouer un rôle dans l’élaboration des politiques relatives à l’encadrement de l’IA. Au contraire : les progressistes s’efforcent d’adopter des lois allant dans ce sens, notamment au niveau des États, tandis que la droite tente de les bloquer, notamment via le moratoire trumpiste cherchant à interdire toute législation relative à l’IA au niveau des États. Dans le décompte des projets de lois sur l’IA, la plupart viennent d’organisations de gauche. Des dizaines de projets de loi étatiques, soutenus par des syndicats et des organisations progressistes, n’ont de cesse d’être proposées. Que peu aboutissent dit bien plus de l’inégalité des rapports de force et des puissances financières et politiques en jeux que de la justice que réclament ces contestations et ces demandes de régulations. 

En fait, rappelle Merchant, la gauche ne perçoit pas l’IA comme une force transformatrice qui va remodeler le monde et ses institutions, mais bien comme une force qui va permettre d’aligner le monde aux intérêts des puissants. Pour les défenseurs de l’IA, la voir décrite comme un système statistique, comme des perroquets stochastiques semble dénigrer leur projet sur le plan structurel même. « Pour ceux qui croient développer une super-intelligence puissante, il est certainement insultant de la voir réduite à un simple outil de saisie semi-automatique sophistiqué ». Mais quelqu’un qui défit l’IA comme un simple outil à plagier ou un simple outil de saisie automatique ne signifie pas qu’il n’a aucune compréhension de la technologie. Il en pointe d’abord les limites, les effets avant d’observer ses possibilités.

Pour Merchant, d’ailleurs, la position la plus répandue à gauche n’est certainement pas de considérer l’IA générative comme un simple perroquet stochastique, mais plutôt comme un produit conçu par de puissantes entreprises avides de profits, capable de causer de graves dommages à la société. Autrement dit, « ce n’est pas une critique sémantique ou philosophique qui devrait inquiéter l’industrie de l’IA, mais bien la critique matérielle et sociale que la gauche lui adresse. L’IA est perçue, à juste titre, comme une menace pour l’emploi, l’éducation, le bien-être mental, les arts, la sécurité des enfants, l’écosystème de l’information, et comme n’offrant que peu d’avantages à d’autres qu’aux dirigeants d’entreprise et aux sociétés spécialisées en IA. La gauche sait qu’elle doit s’opposer à ces entreprises qui cherchent à faciliter un transfert massif de richesse que produisent les travailleurs vers les plus riches – et elle le sait d’autant plus que les dirigeants du secteur de l’IA ne cessent de répéter qu’ils visent précisément cet objectif. » 

En fait, la critique de gauche fait son travail en appréhendant l’ensemble de l’économie politique de l’IA plutôt que de se contenter d’examiner la seule technologie de l’IA. De la dénonciation colonialiste et extractiviste de l’IA à la dénonciation de ses effets sociaux et économiques sur le travail ou cognitifs et comportementaux sur les gens et les relations sociales…, la dénonciation des effets de l’IA est forte et profonde. « L’IA est en effet développée par une poignée de dirigeants et d’oligopoles technologiques qui assument ouvertement leur volonté d’orchestrer une déqualification massive de la main-d’œuvre, et qui déploient sans compter l’énergie, les ressources et les capitaux nécessaires à la réalisation de cet objectif, tout en collaborant activement avec un État autoritaire pour museler tout contrôle démocratique ». Ce n’est pas parce que quelqu’un rejette une technologie et le projet plus vaste dont elle fait partie qu’il ne la comprend pas. Bien souvent, ce rejet est parfaitement éclairé, justifié et rationnel, rappelle Merchant.

La contestation de gauche face à l’IA s’organise

Le podcast d’interviews le plus populaire de la gauche américaine, The Dig, a récemment reçu Nick Srnicek, dont le dernier ouvrage, Silicon Empires : le combat pour l’avenir de l’IA (Polity, 2025, non traduit), prend justement très au sérieux l’importance de l’IA (Nick Srnicek est notamment l’auteur du premier manifeste accélérationniste et d’une analyse sur le capitalisme de plateforme). Des universitaires et responsables politiques de gauche comme Ruha Benjamin du Just Data Lab de Princeton, Alondra Nelson de l’institut pour les études avancées ou Amba Kak de l’AI Now Institute… ont ​​été nommés au comité de transition technologique du maire de New York (l’un des 17 comité consultatifs, composés de plus de 400 personnes, afin de conseiller les politiques de sa future administration) pour réfléchir à la question de l’IA. Bernie Sanders, figure emblématique de la gauche américaine, a proposé un moratoire sur les centres de données… 

Pour Merchant, la gauche se pose des questions sur l’IA. Interroge ce qui devrait être automatisé et ce qui ne devrait pas l’être. Les gens de gauche ont bien compris que l’IA vise à automatiser la production, et que, si les outils s’améliorent, ce n’est pas au rythme annoncé par les thuriféraires de l’IA et ce n’est pas sans limites profondément problématiques. Reste que les discussions sur l’IA communautaire et sur les méfaits de l’IA sont nourries. Pour Merchant, le débat entre Benanav et Morozov interrogeait lui aussi les enjeux : que voulons-nous que l’IA fasse et comment ? Que voulons-nous qu’elle ne fasse pas et comment ? Quels compromis sont possibles ? Est-ce que cette consommation d’énergie est justifiée ? 

Il est sûr que la droite a bien moins de scrupules : pour elle, l’intérêt de l’IA vise uniquement à générer du profit et du pouvoir. Ce qui est sûr, estime Merchant, c’est que le fait que ces débats parfois confus, souvent virulents, ne portent pas aux nues la technologie, ne signifie ni ignorance, ni occasion manquée. « Cela traduit une résistance au projet d’IA tel qu’il est actuellement constitué. Cela soulève les questions suivantes : pourquoi voulons-nous cela ? À qui cela profite-t-il ?… Cette réaction est parfaitement raisonnable. Elle est également populaire. Des moratoires sur les centres de données sont adoptés dans de nombreuses villes du pays. Les élites de la Silicon Valley sont extrêmement impopulaires. » La réglementation de l’IA, ainsi que les lois pour limiter le déploiement de l’IA déjà adoptées, bénéficient d’un large soutien. » Alors que le sénateur Bernie Sanders a appelé à un moratoire sur la construction de data centers aux Etats-Unis, que des Etats en ont voté à travers tous les Etats-Unis, un sondage d’opinion du Pew Internet montre que les Américains sont très opposés aux déploiements de centres de données, rapporte 404media

« La gauche est en train de remporter le débat sur l’IA »

En fait, estime Brian Merchant, « la gauche est en train de remporter le débat sur l’IA ». « Mieux, elle a en réalité accumulé un capital politique considérable autour de l’IA. La gauche veut protéger ses enfants de l’IA et éviter qu’elle leur prenne leur emploi. Pour l’instant, cette critique ne remporte le débat que dans l’opinion publique. En pratique, les entreprises d’IA font ce qu’elles veulent, avec la bénédiction de l’entourage de Trump. La gauche pourrait même, comme le suggèrent Benanav et Weatherby, défendre avec beaucoup plus de conviction que l’IA devrait être entièrement publique et administrée par le public. » Pour Merchant, les mesures dérisoires comme le revenu de base, sont bien moins stimulantes que de nous réapproprier l’IA, collectivement. N’a-t-elle pas été conçue pour« bénéficier à toute l’humanité » ?, ironise Merchant en rappelant le moto d’OpenAI. Comment se fait-il alors qu’elle ne bénéficie pas aux plus démunis ! Si l’IA ne bénéficie pas à tous, comme c’est le cas actuellement, alors elle n’apportera dans son leg qu’une situation pire que celle qui est. Elle risque bien d’être une impasse sociale, parce que, comme le dit Romaric Godin, elle ne vise qu’à accélérer l’accumulation du capital qu’elle sert. 

Les contestataires de l’IA demandent bien souvent l’arrêt de ses déploiements… (comme dans le cas de la lutte contre le déploiement des data centers) ou espèrent qu’on puisse la calfeutrer avant qu’elle n’envahisse tous les processus de nos existences (comme les artistes qui souhaitent qu’on établisse des règles pour qu’elle n’envahisse pas la musique ou les profs de plus en plus nombreux à demander à leurs établissements de ne pas souscrire d’abonnements pour les élèves comme à la California State University ou à l’université du Colorado…). Mais, les calfeutrages vont être très difficiles à mettre en place et plus encore à faire respecter du fait des intérêts financiers en jeu. Si la gauche est en train de remporter le débat sur l’IA comme le dit Merchant, par la contestation qu’elle génère, cela ne signifie pas qu’elle va remporter les batailles à venir, tant les intérêts à imposer l’IA sont puissants

Reste que les contestations sont riches, diverses et s’interrelient les unes les autres. Les méthodes déployées par les uns inspirent les revendications des autres. Des oppositions qui demeurent en tout cas plus joyeuses et réelles que l’IA, son monde, sa puissance sans conscience et ses profits stratosphériques et sans partage. 

Pour ma part, je préfère un monde où les gens dessinent, codent, jouent de la musique, écrivent, étudient par eux-mêmes, parlent avec d’autres humains… plutôt qu’un monde où ils en sont dépossédés. Je préfère un monde où la vérité a encore sa place à un monde guidé par la seule probabilité. 

Hubert Guillaud

MAJ du 20/03/2026 : Dans une tribune pour le New York Times, le journaliste David Wallace-Wells, surtout connu pour ses écrits sur le changement climatique, s’énerve après l’opposition contre la construction de data centers. Pour lui, le débat sur la construction de data centers est une distraction alors que l’IA est désormais largement utilisée pour faire la guerre, alors que les Etats-Unis ne disposent d’aucun cadre réglementaire pour l’encadrer. « On compare souvent l’intelligence artificielle aux armes nucléaires. Mais on n’a pas laissé Robert Oppenheimer et Edward Teller décider seuls du sort des bombes. » La réponse législative face au pouvoir de l’IA a été quasi inexistante. « Une administration parfois caricaturée comme soucieuse de la sécurité a cédé la place à une autre, plus aisément qualifiable d’accélérationniste. » Les géants de l’IA ont connu une croissance si fulgurante et sont devenus si essentiels pour l’avenir de l’économie américaine qu’ils sont devenus intouchables. Les Américains, eux, à mesure qu’ils découvraient l’IA, sont devenus moins enthousiastes et plus inquiets. « L’intelligence artificielle apparaît dans ce contexte comme un symbole fort de l’impuissance des peuples, déjà bien présente et vouée à s’aggraver. Elle annonce un avenir où l’organisation de la société sera en grande partie confiée à des robots opérant dans des systèmes opaques, contrôlés par une poignée d’individus immensément riches. » La lutte contre les datacenters semble donner aux citoyens inquiets l’illusion qu’ils peuvent reprendre le contrôle en menant des actions ciblées et concrètes. « La contestation des centres de données submerge la politique américaine », déclarait la journaliste Jael Holzman dans Heatmap, une publication spécialisée dans le climat, en novembre. « Presque chaque semaine, partout aux États-Unis des Américains manifestent, rejettent, restreignent ou interdisent la construction de nouveaux centres de données. » L’opposition locale aux centres de données semble une stratégie politique gagnante. Pour autant, est-ce que le ralentissement de la construction de data centers empêchera les entreprises de la Tech de conduire la guerre, de déstabiliser le monde du travail, de polluer internet, de sauver l’éducation, de réduire l’emprise des chatbots ? Cette opposition aux centres de calcul sera-t-elle suffisante pour limiter l’impact culturel et économique de l’IA qui est appelée à devenir le principal enjeu politique de la prochaine décennie ? 

Pourtant, il est peu probable qu’une législation significative sur l’IA soit adoptée tant que le gouvernement Trump sera en place et que d’ici là, l’IA aura sans doute autant évolué qu’elle l’a fait depuis 2023. En trois ans, nous sommes pourtant  passés de l’effroi des premiers utilisateurs de chatGPT à des débats au Pentagone d’envergure stratégique sur le déploiement d’IA totalement autonomes en zones de guerre sans supervision humaine. Le génie ne rentrera pas dans sa lampe. « Ceux qui espèrent jouer un rôle plus actif dans la construction de cet avenir devront probablement faire plus que simplement empêcher la construction de quelques nouveaux centres de données. » 

Le dossier QuitGPT :

– 1ère partie : De la politisation du boycott

– 2e partie : La gauche minimise-t-elle le pouvoir de l’IA ?

– 3e partie : Le socialisme après l’IA ?

– 4e et dernière partie : De la contestation de gauche à son organisation

Une autre dimension de l'éducation financière

ASIC
À l’occasion de la « Global Money Week » 2026, le monde de la finance se mobilise et les études en tout genre pleuvent. Celle de l’ASIC, le régulateur australien du secteur, me procure une excuse pour aborder un volet de l’éducation financière – un des principaux thèmes de la semaine – qui me semble un peu négligé sinon occulté.

L’enquête menée par la branche spécialisée de l’organisme (MoneySmart) porte (une nouvelle fois) sur les comportements de la Génération Z et ses résultats ne surprendront pas, tant ils sont similaires dans toutes les régions du monde (je reviendrai peut-être prochainement sur une version française). En particulier, ils relèvent plusieurs constats d’inquiétude qui devraient donner lieu à des réactions urgentes… sur lesquelles je souhaite m’attarder car elles ne sont pas vraiment à la hauteur de l’enjeu.

Je ne vais pas énumérer toutes les statistiques mais, en résumé, une majorité de jeunes recourent, avec une certaine confiance, aux réseaux sociaux et aux recommandations des « finfluenceurs » sur les questions d’argent, tandis que les plates-formes d’intelligence artificielle prennent progressivement leur place parmi leurs sources d’information préférées. S’ils placent la crédibilité au premier rang de leurs critères de choix, leurs approches de crypto-investissement montrent les limites de leur sagacité.

Malgré leurs velléités affirmées de prudence, qui devraient encourager les efforts de vérification, l’ASIC met ainsi en avant les risques encourus lorsque ces populations encore naïves peinent à identifier clairement la fiabilité des interlocuteurs (et l’authenticité de leurs promesses), dont ils ne se rendent pas toujours compte que, par exemple, les algorithmes qui les leur présentent n’ont généralement pas pour premier objectif de servir leur intérêt mais plutôt de maximiser les revenus publicitaires.

ASIC – Comportement des GenZ

Quelles sont les préconisations des autorités afin de lutter contre le danger ? Dans le cas australien, elles se réduisent à alerter les individus concernés et à les inciter à adopter de meilleures pratiques. Au mieux, notamment en Europe, ces messages génériques s’accompagnent d’un arsenal législatif destiné à responsabiliser les pourvoyeurs de contenus (dont, en premier lieu, les géants du web) sur les dérives manifestement illicites, qui ne constituent toutefois qu’une partie du problème.

Voilà un axe sur lequel il serait essentiel de développer une démarche pédagogique sérieuse. Au sein d’un programme plus général d’apprentissage des usages numériques, qui devrait également comprendre, entre autres, des sections dédiées à la désinformation et aux corvées administratives, il s’agirait de créer un cursus complet sur les pièges dans la finance, les moyens de s’en protéger, la « bonne » manière d’utiliser les ressources disponibles en ligne… dans un format accessible et séduisant pour la cible visée… et plus percutant que les campagnes de sensibilisation actuelles.

Maintenant, toute la question est de savoir qui doit assumer la charge de produire et distribuer ces solutions éducatives. À mon sens, l'industrie devrait fournir les meilleures candidates, non seulement parce qu'elles disposent des compétences et des moyens nécessaires mais aussi parce qu'elles ont tout à gagner à endosser un tel rôle, aussi bien pour démontrer leur attachement à un conseil de qualité que dans le but de renforcer la confiance que leur accorde le public, minée par les nouveaux médias.

U.S. Bank forme les étudiants à l'innovation

U.S. Bank
Alors que les événements d'innovation collective ont aujourd'hui pratiquement disparu dans les institutions financières, U.S. Bank organise des sessions d'« Idea Jam » dans les universités américaines, non pas dans le but d'alimenter son propre pipeline de projets mais plutôt pour présenter son approche à de futures potentielles recrues.

Relativement méconnu, le format retenu est plus rare que les classiques concours au cours desquels des équipes doivent, en quelques heures, généralement le temps d'un week-end, développer un concept et produire un prototype, qui sera finalement jugé sur une démonstration plus qu'une description. Avec l'« Idea Jam », les participants ont quelques jours pour réfléchir sur un sujet qui leur est soumis puis développent, de préférence en équipe, en trois ou quatre heures, parfois à distance, une idée de solution dont ils défendront un exposé (« pitch ») à l'issue de la période fixée.

Dans la déclinaison qu'en propose U.S. Bank, un maximum d'une cinquantaine d'étudiants sont invités à plancher sur divers sujets, pas toujours en rapport avec ses métiers, par exemple autour d'améliorations pour la vie sur le campus. En effet, pour l'établissement, le plus important n'est pas dans les trouvailles auxquelles l'exercice donne naissance, dont elle sait certainement qu'elles seront difficilement applicables car fréquemment déconnectées des réalités. Sa cible tient plus à l'échange qu'il suscite.

U.S. Bank Idea Jam

D'un côté, la partie interactive de la démarche permet aux représentants de la banque – qui y contribuent à travers l'animation de séquences de remue-méninges et de coaching – de prendre le pouls de la prochaine génération de clients et de collaborateurs, de manière générique, indépendamment de leur relation à la finance. En retour, elle leur fournit également une opportunité d'ouvrir une fenêtre sur sa stratégie et ses méthodes d'innovation, dans une perspective d'employeur vantant son attractivité.

Pour les jeunes qui s'engagent dans l'aventure, l'« Idea Jam » représente surtout une activité, parmi d'autres, grâce à laquelle ils peuvent se confronter précocement aux réalités de la vie professionnelle. Celle-ci possède évidemment l'originalité d'aborder une dimension peu mise en avant par les entreprises, surtout dans cette période de disette pour l'innovation, avec ses exigences spécifiques de créativité, combinées avec des disciplines plus classiques de prise de parole en public ou de travail collaboratif.

Au-delà de l'impact sur son image, la valeur objective de l'initiative pour U.S. Bank, ou à tout le moins pour sa structure d'innovation, qui la pilote, n'est tout de même pas entièrement claire, d'autant que les sessions sont pour l'instant organisées sur les campus où elle a déjà installé une agence, qui pourrait elle-même servir de relais à la captation de la connaissance sur les étudiants. Le principe reste pourtant intéressant et la banque en est peut-être simplement à un stade d'évaluation expérimentale.

Starling crée son outil de déclaration de revenus

Starling Bank
Quelques semaines après une initiative similaire de Monzo, c'est donc au tour de l'autre grande néo-banque britannique, Starling, de présenter sa solution de déclaration de revenus « digitale » pour les entrepreneurs et les bailleurs, alors que la première échéance réglementaire de cette démarche obligatoire survient le mois prochain.

Derrière le projet figurent toujours les mêmes constats. Sans s'attarder sur les motivations de l'administration fiscale (dont la lutte contre la fraude ?), les intéressés, qui sont ici essentiellement les travailleurs indépendants, se sentent facilement submergés par les formalités qui sont exigées de leur part, autant par le temps qu'elles consomment et qu'ils préfèreraient consacrer à leur métier que parce qu'elles requièrent des compétences qu'ils ne possèdent pas et génèrent un stress délétère.

Starling se positionne naturellement sur cette dimension et propose donc un outil gratuit destiné explicitement à leur simplifier la vie. Ce sera d'autant plus vrai pour les professionnels qui enregistrent tous leurs flux de trésorerie sur leur compte mais les autres profiteront tout de même de son intégration dans leur application bancaire, où ils pourront compléter rapidement les informations à transmettre sans changer d'environnement (et, en amont, sans devoir rechercher un fournisseur supplémentaire).

Starling – Making Tax Digital

En revanche, Starling inscrit son dispositif dans une vision différente de celle de sa concurrente. En effet, quand cette dernière choisit une collaboration avec le spécialiste de la comptabilité Sage pour l'implémentation de la sienne, elle préfère développer et faire certifier officiellement sa propre plate-forme. L'objectif visé de la sorte est transparent puisqu'elle fait partie d'un service de gestion comptable, lui aussi gratuit, qui peut évoluer vers une version payante enrichie, notamment sur le volet de la TVA.

Il n'est ainsi pas seulement question d'ajouter une option de commodité aux clients, dans un but de différenciation commerciale qui s'estompera rapidement avec sa généralisation à l'échelle de l'industrie, mais d'appréhender l'avenir du métier de la banque comme un accompagnement extensif dans toutes les étapes impliquant un facteur financier. Espérons que cette stratégie ne reste pas cantonnée aux besoins des PME et qu'elle soit vite déclinée pour les particuliers, où les attentes sont immenses.

Contrôles d’identité : défendons-nous contre la reconnaissance faciale

Aujourd’hui, nous lançons une offensive contre l’utilisation de la reconnaissance faciale, par la police, lors de simples contrôles d’identité dans la rue. En partenariat avec le média Disclose, nous publions un guide démontrant l’illégalité de cette pratique et, plus généralement, les dangers de cette technologie. Face à l’inaction des tribunaux, de la CNIL et des pouvoirs publics, il est temps de riposter et de s’organiser pour que ces pratiques soient sanctionnées et que soit enfin actée l’interdiction de la reconnaissance faciale.

Beaucoup pensent que la reconnaissance faciale n’existe pas en France, et que cette technologie serait réservée à des pays lointains et autoritaires. Pourtant, cela fait des années que la police s’en sert chaque jour, de façon illégale, sous la supervision de l’État. À travers le fichier de traitement des antécédents judiciaires (dit « TAJ »), les agents ont accès à un module de reconnaissance du visage aussi bien dans le cadre d’enquêtes que dans la rue, grâce à leur téléphone « NEO » . La reconnaissance faciale est ainsi massivement utilisée, de façon sauvage, par la police lors de contrôles d’identité. Pourtant, comme le révèle Disclose, cette pratique est totalement interdite. De plus, il n’existe aucun texte qui prévoie la manière dont la reconnaissance faciale peut être utilisée, par qui, dans quelle situation, avec quel contrôle. En dotant des milliers de policiers et gendarmes de ces outils, le ministère de l’intérieur a donc sciemment organisé une surveillance abusive et illégale.

Dès 2021, nous nous faisions l’écho de témoignages et de reportages attestant de cette pratique. Par ailleurs, nous attaquions – en vain – la reconnaissance faciale devant le Conseil d’État. Puis, en 2022, nous lancions une plainte collective devant la CNIL contre le fichier TAJ. Nous y pointions notamment le fait que la police prenne en photo les personnes lors de contrôles d’identité ou au cours de manifestations. Celle-ci est toujours en cours d’instruction et nous n’avons pour le moment pas de nouvelle. Cette utilisation de la reconnaissance faciale par la police continue d’être documentée, par exemple par le Bondy Blog à Paris en 2024, mais demeure toujours illégale.

Face à l’inaction des pouvoirs publics et de la CNIL, il nous revient de nous organiser pour riposter. C’est ce que nous avons fait avec le média Disclose, qui a rassemblé de nombreux témoignages et éléments afin de prouver l’illégalité organisée de cette pratique (lire leur enquête ici). De notre côté, nous avons synthétisé et réuni au sein d’un guide l’ensemble des arguments juridiques permettant de démontrer que l’utilisation de la reconnaissance faciale pendant un contrôle d’identité est illégitime et hors-la-loi (à lire et télécharger ). Le but est à la fois de permettre au plus grand nombre de se défendre contre cette situation abusive, mais également d’exiger que les autorités qui ont activement et délibérément déployé cette surveillance illégale, pendant des années, répondent de leurs actes. Nous y avons également intégré un argumentaire politique pour exiger l’interdiction de la reconnaissance faciale ainsi que des modèles de courrier pour demander l’accès, la rectification et la suppression de sa fiche TAJ.

Nous avons bien conscience qu’en matière de contrôle d’identité, il y a un monde entre la théorie du droit et la pratique policière. Que les contrôles policiers s’inscrivent dans un continuum de violences et de racisme qui concerne principalement une certaine partie de la population, jeune, racisée, vivant dans certains quartiers, à qui le droit ne s’applique pas de la même manière. Que dire « c’est illégal » n’empêchera pas des policiers d’agir contre la loi tant qu’il n’y aura ni contrôle, ni condamnation de ces abus.

Cependant, il nous semble important de visibiliser ces situations abusives pour mieux les tenir en échec. C’est en nous organisant collectivement que nous pouvons inverser le rapport de force, demander des comptes et empêcher le déploiement et la banalisation de la reconnaissance faciale tant qu’il est encore temps. Au-delà de cette utilisation illégale lors de contrôles d’identité, de nombreux politiques veulent aller plus loin et permettre le recours à la reconnaissance faciale en temps réel en la connectant aux caméras de vidéosurveillance de l’espace public.

Ces demandes sont loin d’être nouvelles. Dès 2019, un député macroniste proposait une expérimentation de la sorte, tout comme le secrétaire d’État au numérique Cédric O, qui appelait à « expérimenter la reconnaissance faciale pour que nos industriels progressent ». En 2020, le Livre Blanc de la sécurité intérieure « estimait hautement souhaitable d’expérimenter la reconnaissance faciale dans les espaces publics », proposition relayée par différents rapports parlementaires à l’Assemblée nationale et au Sénat. En parallèle, la France bataillait au sein de l’Union européenne pour que le règlement sur l’intelligence artificielle, adopté en 2023, contienne le moins de restrictions possibles à l’utilisation policière de la reconnaissance faciale. Enfin, en mai 2025, Gerald Darmanin a proposé qu’un « groupe de travail » soit constitué pour avancer sur le sujet.

La reconnaissance faciale gagne donc du terrain et nous devons impérativement la repousser. Le guide juridique que nous publions aujourd’hui se veut un outil permettant d’y contribuer et de se défendre collectivement. Il est pensé pour être diffusé largement et pris en main par tout le monde et par tous types de collectifs, qu’il s’agisse de groupes luttant contre le contrôle au faciès, de legal teams et groupes d’autodéfense juridique, d’avocat⋅es ou de collectifs luttant contre les violences policières et institutionnelles… Bref, lisez-le, imprimez-le, envoyez-le, laissez-le traîner, partagez-le le plus possible !

Quant à la suite, il faut être clair : nous ne voulons pas d’une loi pour régulariser l’utilisation de la reconnaissance faciale, nous refusons purement et simplement cette technologie déshumanisante. En rendant l’anonymat pratiquement impossible, elle arrache aux citoyen·nes leur identité contre leur volonté et donne à l’État une connaissance inédite de sa population et une capacité à la contrôler et l’empêcher d’agir. C’est pourquoi nous exigeons l’interdiction pure et simple de la reconnaissance faciale et que les responsables politiques qui ont permis son déploiement illégal soient sanctionnés.

Aussi si vous le pouvez, n’hésitez pas à faire un don pour soutenir notre travail !

Experian s'amuse avec ChatGPT

Experian
Chaque apparition d'une nouvelle technologie entraîne son lot d'entreprises absolument et irrépressiblement désireuses d'en tirer parti le plus vite possible, sans s'inquiéter sérieusement de la valeur de leurs initiatives. Pour l'IA générative en général et ChatGPT en particulier, Experian semble être candidate à cette course stérile.

Il y a quelques semaines, il s'agissait d'un comparateur d'assurances, permettant de transposer l'expérience habituelle sur le web de la recherche d'une couverture automobile dans un modèle conversationnel ouvert. En revanche, pour leur première application sur ChatGPT dédiée au cœur de métier de la société, le score de crédit, les concepteurs ne se sont pas fatigués puisqu'il faudra se contenter d'un outil de synthèse statistique par localité et par tranche d'âge, sans la moindre intelligence.

La seule fonction qu'il assure consiste ainsi à présenter l'évaluation moyenne des résidents inscrits dans les bases de données d'Experian correspondant aux deux critères spécifiés – qui, heureusement, peuvent être interprétés sous différents formats par le moteur d'lA (l'illustration montre, par exemple, comment l'interroger à partir de la situation du demandeur : « j'ai 34 ans et je vis à Ashby »). Une option permet tout au plus de rebondir vers le site officiel de la marque afin d'interroger sa propre notation.

Experian – Credit Score on ChatGPT

L'idée de départ n'est pourtant pas dénuée d'intérêt. Les moins de 35 ans sont les principaux utilisateurs des nouvelles plates-formes, qu'ils adoptent souvent en remplacement des moteurs de recherche traditionnels, et ils sont simultanément ceux qui se préoccupent le moins de leur réputation financière. Au croisement des deux tendances, il paraît utile de proposer un point d'entrée, pourquoi pas mâtiné d'une touche ludique, vers un domaine susceptible de déterminer en partie leur avenir.

Il faudrait toutefois prendre le temps d'imaginer une solution qui ait quelque chance d'exercer un impact sur la cible visée. En l'occurrence. la version déployée est tellement sommaire qu'elle risque de n'attirer aucun visiteur… alors que son accroche initiale pourrait aisément inspirer un veritable parcours pédagogique personnalisé, passant par un étalonnage du score de la personne par rapport à son environnement et débouchant sur des recommandations pratiques en vue de progresser.

Experian a peut-être de telles évolutions dans ses cartons. En tous cas, il faut l'espérer. Mais, dans cette hypothèse, pourquoi se précipiter avec une ébauche qui n'a quasiment aucune valeur… et représente au contraire l'archétype de ce que ne devrait pas être un MVP – Minimum Viable Product – tant elle n'est pas viable, justement !

Discovery offre un coach de conduite

Discovery Insure
La sud-africaine Discovery nous a habitués à ses applications de coaching, d'abord dans le domaine de la santé puis au service du bien-être financier. Elle décline maintenant le même principe pour la conduite automobile et franchit un cap décisif par rapport aux solutions classiques d'évaluation du comportement regrettablement passives.

Au départ, le dispositif télématique de l'entreprise ressemble à tous ses équivalents dans le monde entier. En combinant un capteur collectant les paramètres du véhicule et un logiciel mobile qui en extrait des informations précieuses sur l'attitude de l'assuré au volant, en particulier du point de vue de sa prise de risques, il présente une évaluation argumentée qui, selon les résultats obtenus, donne lieu à des récompenses, sous la forme de bons d'achat (et non, comme souvent, des réductions de primes).

Le système est vertueux mais il souffre de deux handicaps. D'une part, son taux d'adoption est généralement limité (personne ne semble vraiment comprendre pourquoi : peut-être une réticence face à ce qui est perçu comme une intrusion dans une sphère considérée intime ?). D'autre part, et c'est la cible que vise en priorité l'« Advanced Driving Instructor », il se contente d'exposer sa situation à l'utilisateur, sans lui expliquer concrètement comment s'améliorer, au-delà de quelques suggestions génériques.

Ainsi, le compagnon virtuel de Discovery est conçu pour apporter des conseils pratiques personnalisés à l'automobiliste, en fonction de ses habitudes, identifiées au fil des kilomètres parcourus ensemble. Dans une première approche assortie d'un soupçon d'incitation ludique, il s'agira d'exécuter des missions préparées précisément dans le but de corriger les petits défauts de conduite observés au quotidien. Les progrès sont mesurés automatiquement lors des parcours suivants et génèrent des primes.

Discovery Driving Instructor

Mais l'outil s'attache à l'autre danger majeur de la voiture : les erreurs spécifiques aux voisinages les plus fréquentés – par exemple, l'inattention à une intersection toujours déserte sur le trajet domicile-travail ou une vitesse excessive systématique dans tel virage serré. Ces particularités géographiques sont donc également analysées et bénéficient d'un traitement particulier. En effet des alertes vocales « amicales » sont émises à l'approche des zones concernées afin d'encourager un surcroît de prudence.

Répliquant la même logique implacable qu'avec ses autres coachs, Discovery défend un modèle pédagogique qui, au lieu de laisser le consommateur se débrouiller avec les commentaires formulés sur son comportement, le prend par la main, de manière à rendre aussi facile que possible la mise en œuvre des changements qui lui permettront de l'optimiser. Bien que rarement implémentée aujourd'hui, c'est une composante indispensable de l'accompagnement des clients… qui, s'il faut en croire les premières réponses sur le terrain, rencontre un accueil favorable parmi les intéressés.

Mastercard prépare un comité de direction virtuel

Mastercard
Que ce soit par effet d'aubaine ou, espérons-le, en raison des réels progrès qu'elle rend possible, l'intelligence artificielle redonne un nouveau souffle et de nouvelles ambitions à des idées déjà abordées, avec des résultats souvent mitigés, à la grande époque de la science des données. Dans cette perspective, Mastercard présente une série d'agents destinés à aider les PME à mieux piloter leur activité.

Le constat de départ est trivial et toujours identique : quand les grands groupes et autres entreprises de taille moyenne possèdent les moyens de recruter des responsables spécialisés afin de prendre en charge les différentes dimensions de leurs affaires, les petites structures reposent généralement sur leur seul propriétaire pour assumer tous les rôles, pour lesquels il n'a pas nécessairement les compétences requises et ce qui, dans tous les cas, le détourne de ce qui devrait constituer le cœur de son métier.

C'est un peu dans le but de rétablir l'équilibre que Mastercard conçoit donc des assistants à base d'IA capables de raisonner et d'accompagner le décideur désemparé comme le font aujourd'hui les membres d'un comité de direction traditionnel. Les fonctions qu'assumeront leurs premières incarnations – finances, marketing, opérations et cybersécurité – répondent aux enjeux prioritaires de l'audience visée, soit en termes de développement soit, et l'option est plus originale, en termes de protection.

Au sein de cette future équipe de choc, le premier module disponible sera un directeur financier virtuel. Contrairement aux générations anciennes, qui se contentaient de produire une analyse de la performance et des événements passés, celui-ci porte d'autres ambitions, avec des capacités d'analyse de la situation et de ses tendances, d'identification des risques et opportunités, de prédiction des évolutions, et de conseil tactique ou de long terme pour la croissance des ventes et l'optimisation des résultats.

Mastercard Virtual C-Suite

Derrière le dispositif, Mastercard a construit des modèles propriétaires à partir des masses gigantesques de données qui transitent dans son réseau, qui lui permettent de promettre à la fois une qualité incomparable et un niveau de personnalisation élevé dans l'accompagnement de ses utilisateurs. Si l'approche semble légitime pour les fonctions opérationnelles d'une entreprise, elle interroge toutefois sur son applicabilité en matière de cybersécurité (où les besoins sont considérables), à moins qu'il ne soit question que de lutte contre la fraude dans les paiements, ce qui serait décevant.

Les directeurs virtuels seront commercialisés auprès des institutions financières, naturellement, mais également des plates-formes de comptabilité et, plus largement, des éditeurs de logiciels, qui souhaitent compléter leur offre aux TPE. Apparemment, la stratégie consisterait à intégrer profondément les agents IA dans leur environnement hôte, en autorisant ces derniers à interagir directement avec les systèmes en place, par exemple pour l'exécution de paiements ou le lancement de campagnes marketing. L'implémentation en sera d'autant plus complexe – et susceptible de faire reculer les clients potentiels – mais également beaucoup plus efficace et porteuse de valeur.

Liens vagabonds : Médias et la « creator economy », l’heure du mariage de raison

Selon le Reuters Institute, près de trois quarts des éditeurs de presse s’inquiètent de la concurrence des influenceurs. En France, les collaborations, bien qu’existantes, restent cantonnées au stade du « coup » éditorial plutôt qu’à une véritable stratégie de long terme. Les exemples ne manquent pourtant pas, illustrant une volonté de sortir des sentiers battus […]

The post Liens vagabonds : Médias et la « creator economy », l’heure du mariage de raison first appeared on Méta-media | La révolution de l'information.

Moquons-nous, épisode 1 : Swift

Swift
Malgré le titre, je ne sais pas si ce billet sera effectivement le premier d'une – probablement longue – série mais la tentation est grande de m'attarder en fin de semaine sur une communication un brin surréaliste, comme j'en rencontre régulièrement. Aujourd'hui, ce sera une annonce de Swift et son inébranlable adhésion aux balivernes de la blockchain (qui, je l'admets, est une cible permanente facile).

Alors que le numéro un des échanges transfrontaliers, Wise, à commencé en 2024, avec Goldman Sachs, à empiéter sur son territoire privilégié des mouvements « de gros », l'institution veut donc désormais mettre un pied dans un domaine encombré où il lui reste à faire ses preuves. Présenté l'année dernière, son plan prend forme aujourd'hui avec la confirmation de 25 banques prévoyant un déploiement d'ici le mois de juin, pour une cinquantaine, au total, qui auraient exprimé un intérêt pour la solution.

Quels arguments peut défendre Swift face à la référence que constitue désormais la jeune pousse britannique, dont, rappelons-le, la plate-forme est également commercialisée auprès des banques du monde entier, avec un certain succès ? Il n'en est qu'un : la rapidité des transactions, appuyée par un indicateur, selon lequel 75% d'entre elles sont actuellement conclues en moins de 10 minutes, sans préciser sur quel périmètre la mesure est prise (la douzaine de pays des premières adhérentes ?).

Sans vouloir minimiser ce facteur, qui est crucial pour les transferts à l'étranger (et sur lequel Wise est elle-même très agressive), il n'est pas le seul déterminant du succès, loin de là. L'état de l'art actuel met notamment l'accent sur le coût des opérations, qui n'est évidemment pas le point fort historique de Swift et constitue au contraire un aimant de tentations, et, surtout, l'expérience utilisateur, où l'existant laisse imaginer qu'elle trébuchera sur l'exigence de fournir les coordonnées bancaires du bénéficiaire.

Arrivons-en maintenant à la plaisanterie du communiqué officiel (consultez-le, je n'invente rien). Afin de tempérer ses promesses d'un peu de réalisme, Swift explique, à juste titre, que tous ses efforts pour traiter les mouvements d'argent instantanément ne peuvent rien contre les limitations des systèmes de paiement locaux, qui ajoutent des heures, voire des jours, aux délais, selon les cas. Malgré cette admission d'impuissance et la garantie d'un fonctionnement interne déjà ultra-rapide, l'entreprise vante quelques lignes plus loin ses travaux en vue de la mise en place d'une plate-forme en temps réel à base de blockchain. Qui ne résoudra évidemment pas les lenteurs en bout de chaîne !

Ou comment chercher – à grand frais – une réponse à un problème inexistant tout en se résignant à ne pas pouvoir traiter celui qui irritera vraiment les clients…

Swift – Consumer Payments

QSPTAG #327 — 13 mars 2026

Bonjour à toutes et à tous !
Cette semaine on analyse le nouvel algo de « scoring » rendu public par la CNAF, un texte de loi qui veut augmenter les pouvoirs de surveillance des polices municipales, et la loi JO 2030 qui veut légaliser la VSA.
Bonne lecture à vous !

Alaïs, Alex, Bastien, Eva, Marne, Mathieu, Myriam, Noémie, Nono et Vi

Lire sur le site

Saut à ski ou supermarché, la VSA partout

La vidéosurveillance algorithmique (VSA) est à la fois un outil sécuritaire « magique », censé détecter les terroristes et les voleurs de supermarché, et un secteur économique dans lequel la France entend soutenir ses entreprises : deux arguments forts pour le législateur et le gouvernement, qui multiplient les textes pour l’autoriser et développer la VSA au maximum. Pour parler de la loi JO 2030, qui veut autoriser la VSA dans l’espace public, et de la loi qui l’autorise spécifiquement dans les supermarchés, on a tourné une vidéo à regarder et à partager sur vos réseaux sociaux.

Regarder la vidéo : Encore une loi de merde – Vidéosurveillance algorithmique : JO 2030 et vols en supermarchés

Des pouvoirs de surveillance pour les polices municipales ?

Pourquoi La Quadrature du Net, une association de défense des droits à l’ère du numérique, se retrouve-t-elle à suivre le chemin législatif d’un texte concernant les attributions des polices municipales ? Parce que cette loi, en discussion en ce moment, veut justement donner au polices municipales le droit d’utiliser un certain nombre d’outils numériques, jusqu’à présent réservés à la police nationale et à la gendarmerie, ayant un impact très fort sur les libertés publiques.

Le texte prévoit d’élargir le droit des polices municipales à faire des contrôles d’identité. Cela entraîne l’accès à certains fichiers dont celui du « traitement des antécédents judiciaires » (ou TAJ). Conçu pour être utilisé dans le cadre d’une enquête judiciaire mais abusivement consulté par les gendarmes et la police nationale, il permet de comparer, par reconnaissance faciale, les visages des personnes contrôlées à ceux enregistrés dans ce fichier. Rappelons que la CNIL avait été créée en 1978 pour contrôler justement la création et l’utilisation des fichiers de police.

Par ailleurs, d’autres dispositions de la loi donneraient aux polices municipales l’accès à un grand nombre d’outils d’imagerie vidéo dont l’utilisation met en jeu la manipulation d’un grand nombre de données personnelles, particulièrement sensibles et de ce fait protégées par la loi européenne. On parle de lecteurs automatiques de plaques d’immatriculation (ou LAPI), de caméras-piétons, ou encore de drones. La légalisation de cet arsenal technique ferait changer de dimension le rôle des polices municipales.
Jusqu’ici cantonnées à un rôle de respect de l’ordre public et de modération des incivilités, comme une police de proximité, elles pourraient se retrouver à devoir jouer un rôle répressif et sécuritaire, dotées de pouvoirs coercitifs étendus (amendes forfaitaires, par exemple). Ces nouveaux pouvoirs les rapprocheraient dans l’esprit public de la police nationale, toujours plus éloignée de la population, sans que jamais le rôle joué par la technologie dans la déshumanisation de cette relation ne soit interrogé avec sérieux.

Cet enrôlement des polices municipales dans des missions sécuritaires, s’il permet d’augmenter artificiellement le nombre des agents sans faire peser le recrutement sur le budget de l’État, reposerait sur des agents dont la formation n’est pas équivalente à celle des gendarmes ou des agents de la police nationale. Notre analyse détaillée dans l’article publié la semaine dernière !

Lire l’article du 6 mars : Projet de loi polices municipales, blanc-seing pour la Technopolice municipale

Discrimination en toute transparence

Les algorithmes de « scoring » ou de ciblage utilisés par la Caisse nationale d’allocations familiales (CNAF) pour déclencher le contrôle des allocataires sont sous le feu de nos critiques depuis plus de deux ans maintenant, parce qu’ils sont discriminatoires. Vous pouvez retrouver l’ensemble de nos analyses dans la page de la campagne France Contrôle.
Plus récemment, nous avons même déposé, avec une vingtaine d’autres associations de défense des droits, un recours devant le Conseil d’État contre ces outils de gestion algorithmique et discriminatoire des personnes en situation précaire.

Pour sa défense, la CNAF a modifié son algorithme et décidé de publier cette nouvelle version, en janvier 2026, pour montrer que ses pratique étaient sans reproche. En effet, quelques points ont été corrigés. Par exemple, le fait de toucher l’allocation pour adulte handicapé (AAH) n’est plus un facteur défavorable : il l’était auparavant… De même ont été retirés certains critères particulièrement arbitraires, touchant au comportement des allocataires (nombre de connexions au site de la CNAF, par exemple).
Mais de nouveaux critères sont apparus, ou ont pris un poids plus important dans le calcul du « score ». Leur point commun, c’est de viser les personnes dont les revenus sont les plus faibles, les plus irréguliers, ou les plus dépendants des aides sociales. Une sorte de prime de culpabilité à la pauvreté, en somme.

Et ce n’est pas un point de vue militant ni partisan. Il se trouve qu’une étude interne à la CNAF, et à laquelle nous avons pu avoir accès, montre que l’institution elle-même est consciente que son outil cible particulièrement les personnes dans les situations les plus fragiles. Notre analyse de l’algorithme et de l’étude de la CNAF est à lire en ligne sur notre site.

Lire l’article du 26 février : Notation des allocataires : la CNAF publie son code mais omet l’essentiel

Soutenez La Quadrature en 2026 !

Notre campagne de soutien pour 2026 est toujours ouverte. Nous avons atteint un peu plus de la moitié de l’objectif pour financer l’association durant l’année. Vous pouvez donc toujours faire un don sur notre site ! Merci pour votre aide !

Pour nous soutenir en 2026 : Faites un don à La Quadrature du Net

Agenda

  • 1er avril 2026 : réunion mensuelle du groupe Technopolice Paris-Banlieue à 19h au Bar Commun, 135 rue des Poissonniers, Paris.
  • 9 avril 2026 : réunion mensuelle du groupe Technopolice Marseille à 19h au Manifesten, 59 rue Adolphe Thiers, Marseille.

La Quadrature dans les médias

Divers

Vidéosurveillance algorithmique

Algorithme de la CNAF

Lire la newsletter sur notre site
S’abonner à la newsletter

J.P. Morgan Chase et l'IA en chiffres

J.P. Morgan Chase
Comme ses consœurs dans le monde entier, J.P. Morgan Chase adopte massivement l'intelligence artificielle dans toutes ses activités et, parce qu'il lui faut justifier ses choix, son directeur général divulguait récemment dans un discours quelques données concrètes sur ses efforts… en essayant de rassurer toutes les parties prenantes.

Alors que la technologie est finalement encore très jeune, l'américaine déclare déjà lui consacrer – notamment à travers ses collaborations avec les deux leaders de l'IA générative, OpenAI et Anthropic – environ deux milliards de dollars par an, ce qui représente 10% de son budget informatique. Elle estime aujourd'hui économiser autant grâce à ses implémentations (mais je soupçonne qu'elle oublie soigneusement certains coûts dans ce calcul, par exemple en consommation énergétique).

Contrairement aux annonces fracassantes de quelques entreprises technologiques, promptes à remplacer leurs employés par des robots, J.P. Morgan Chase se flatte pourtant de ne pas réduire ses effectifs malgré les gains de productivité sensibles dérivés de ses applications de l'intelligence artificielle. Elle prend soin de réassigner les collaborateurs dont le poste est devenu superflu. Pour une fois, les promesses semblent s'accompagner d'une réalité… dont on aimerait toutefois connaître la recette détaillée.

La suite fournit néanmoins quelques pistes. Ainsi, les métiers de support et des opérations affichent une baisse, de 2% et 4%, respectivement, de leurs nombres de salariés, tandis que les positions en relation avec la clientèle ou « de production de revenus » (quoi que cette expression vague recouvre) sont en hausse, de 4%. Il est facile de déduire de cette équation que les back-offices – où les tâches sont plus faciles à automatiser – sont dépeuplés au profit des fonctions proches de la vente.

Le mouvement m'inspire des réactions mitigées. D'un côté, la préoccupation affichée de limiter l'impact de l'IA sur l'emploi est appréciable et aidera probablement les employés de l'établissement à lui maintenir leur confiance. En outre, si le renforcement des équipes plus ou moins directement en contact avec la clientèle se traduit par le développement d'une approche de conseil de proximité ultra-personnalisé (assisté par des outils sophistiqués), les clients auront eux aussi tout à gagner au changement.

En revanche, si les rôles de première ligne ne sont pas profondément transformés afin de prendre en compte ce besoin et/ou si les velléités de privilégier la productivité reprennent le dessus, l'efficacité opérationnelle ne suffisant pas à conquérir plus de clients, la ligne actuelle ne sera plus tenable et le couperet s'abattra alors sur les employés peu performants, dont une majorité parmi ceux qui auront été précédemment déplacés. L'avenir nous dira si la stratégie de J.P. Morgan est viable à long terme.

J.P. Morgan Chase – Make Momentum Happen

Concevoir pour tous·tes : notre guide des bonnes pratiques pour l’inclusivité des services numériques

Face à des services du quotidien de plus en plus numérisés et qui en deviennent parfois excluants, Emmaüs Connect a évalué la facilité des démarches d’accès aux droits pour les utilisateurs pendant près d’un an et, avec la DINUM, publie Concevoir pour tous·tes !, un guide de bonnes pratiques de l’inclusivité numérique.

Distribution d'ordinateurs dans le Cher

« Que ce soit pour postuler à une offre d’emploi, prendre un rendez-vous chez le médecin, consulter ses comptes bancaires ou faire ses démarches administratives on est aujourd’hui contraint et forcé d’utiliser des services numériques. Pourtant la majorité d’entre eux continuent d’être conçus sans prendre en compte le besoin des personnes éloignées du numérique, alors qu’on parle de 16 millions de personnes en France »

Victor Baysang-Michelin – Chargé de plaidoyer d’Emmaüs Connect

Des services numériques encore peu inclusifs et sources d’exclusion

Alors que la numérisation des services publics et privés est souvent présentée comme une simplification, elle peut en réalité se transformer en blocage pour une grande partie de la population. Selon une enquête du Défenseur des droits en 2025, 51 % des usagers déclarent ne pas parvenir à réaliser seuls leurs démarches en ligne, voire évitent de recourir au numérique administratif. Derrière chaque plateforme numérique, il y a des utilisateur·rices aux compétences, équipements et situations variés (handicap, illectronisme, matériel inadapté...). Aujourd'hui, trop d’usager·es restent exclus des services numériques essentiels, faute de conception inclusive.

Des tests de services numériques menés depuis mars 2025

Pendant près d'un an, Emmaüs Connect a co-organisé, avec la Direction interministérielle du numérique (DINUM), des tests utilisateurs de démarches d'accès aux droits afin d'évaluer comment améliorer leur inclusivité. Trois démarches en particulier ont pu être testées par plusieurs dizaines de personnes éloignées du numérique, ce qui a permis de construire une méthodologie de déploiement et d'identifier des bonnes pratiques pour les concepteurs de tous les services numériques, qu'ils soient privés ou publics.

Un guide de bonnes pratiques pour répondre aux besoins d’outillage des professionnel·les

Afin de répondre à cet enjeux d’inclusivité des services numériques, Emmaüs Connect et la Direction interministérielle au numérique (DINUM) publient deux documents destinés à proposer des solutions concrètes :

  • Concevoir pour tous·tes– Guide de bonnes pratiques pour l’inclusivité des services numériques
    Ce guide vise à apporter une compréhension de ce qu’est l’éloignement numérique et de la nécessité de produire des services numériques inclusifs pour les plus précaires. Il donne des clés d’action concrètes pour adopter une posture inclusive et engager une démarche de tests utilisateurs nécessaire à la prise en compte des besoins des publics éloignés du numérique. Des bonnes pratiques de conception y sont également recensées. Le document s’adresse à toute personne concernée par la mise en place d’un service numérique public ou privé.
  • Fiche méthodologique de tests utilisateurs
    Une checklist pour aider les structures sociales et organisations conceptrices de services numériques à identifier ce qui doit être pris en compte pour mettre en place concrètement des test utilisateur·rices. Elle recense les moyens matériels et les bonnes pratiques pour organiser au mieux ce type de consultation avec des personnes éloignées du numérique. 

À l’occasion de la sortie de Concevoir pour tous·tes !, Emmaüs Connect et la DINUM organisent deux webinaires de présentation librement accessibles les 12 et 24 mars de 13h à 14h.

Avec le soutien de

À lire aussi :

Crédit mobile/internet : des tarifs encore plus solidaires en 2026

Crédit mobile/internet : des tarifs encore plus solidaires en 2026

Fév 9, 2026

En 2026, Emmaüs Connect baisse à nouveau les prix de ses cartes SFR prépayées crédit mobile/internet 40 Go et internationales. Ces tarifs encore plus accessibles doivent permettre aux publics accueillis d’accéder plus facilement à des services essentiels.Emmaüs...

Agir avec Emmaüs Connect

❌