Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Liens vagabonds : Pérouse 2026, 10 voix pour comprendre la mutation profonde du journalisme

Épuisement des rédactions, omniprésence de l’IA, menaces étatiques et nouveaux terrains de jeu numériques : l’édition 2026 du Festival International de journalisme de Pérouse a dessiné les contours d’une profession en pleine mutation. Tour d’horizon de 10 citations clés (en attendant notre papier complet sur le festival). CETTE SEMAINE EN FRANCE 3 CHIFFRES LE GRAPHIQUE […]

The post Liens vagabonds : Pérouse 2026, 10 voix pour comprendre la mutation profonde du journalisme first appeared on Méta-media | La révolution de l'information.

L'assurance, cette inconnue...

PEMCO
Depuis quelques années, des voix s'élèvent pour promouvoir l'éducation financière. Il est alors question d'apprendre à gérer un budget, à épargner et investir, à maîtriser l'endettement... Mais qui, dans ce spectre, pense à l'assurance ? Une enquête menée par PEMCO révèle pourtant la profonde ignorance qu'en ont les citoyens.

Le sondage étant réalisé auprès de la clientèle de l'établissement mutualiste installé dans le nord-ouest américain, les thématiques abordées ont naturellement une sensibilité locale. Il n'en donne pas moins une idée assez nette de la méconnaissance généralisée des principes et des mécanismes des garanties dans les domaines de l'habitation et de l'automobile (les plus courantes et les plus souscrites).

Parmi les personnes interrogées, environ une sur cinq sait, par exemple, que la couverture d'un conducteur ayant emprunté le véhicule d'un proche dépend du contrat et des circonstances et que les effets personnels dérobés dans la voiture ne sont généralement pas pris en charge par l'assurance de cette dernière. Plus amusant, deux sur trois croient au mythe du tarif plus élevé pour certaines couleurs de carrosserie.

Sur leur résidence, les constats sont similaires : 22% seulement des répondants s'adresseront (à juste titre) à leur propre assureur, et non celui du voisin, dans le cas où un arbre de la propriété mitoyenne s'abattrait sur leur véhicule, tandis que plus des trois quarts ne savent pas que les dégâts des eaux sont la première cause de dommage dans les logements (la plupart supposant que les incendies occupent cette position).

PEMCO Poll

Même sur les sujets sur lesquels les américains sont moins déconnectés des réalités, les statistiques ne sont guère reluisantes : si 60% des conducteurs sont conscients d'être couverts en cas d'accident avec un tiers non assuré, cela laisse une forte proportion de personnes susceptibles de s'inquiéter à tort. Dans un autre registre, j'ai la même réaction pour la petite moitié qui ne sait pas que les tarifs sont encadrés.

Face à un tel déficit massif d'information, il semblerait important de déployer des programmes pédagogiques adaptés, pour plusieurs raisons. D'abord, il en va de la tranquillité d'esprit des citoyens : connaître les conditions de ses contrats est un premier pas vers la sérénité. Mais il existe aussi un enjeu majeur pour les compagnies, notamment de satisfaction : laisser les clients dans le noir constitue le meilleur moyen d'alimenter leur incompréhension et, donc, leur mécontentement au moindre accroc.

Incidemment, la mise en place d'initiatives éducatives de ce genre représenterait une triple opportunité. Outre l'indispensable transparence sur la nature et le fonctionnement de l'assurance, elles pourraient en effet également inclure un volet préventif, contextualisé, complétant de la sorte intelligemment les objectifs poursuivis. Enfin, si la démarche est conçue de manière suffisamment attractive, elle offre potentiellement un canal d'interaction récurrent avec les clients, qui n'a pas de prix dans le secteur.

Le risque cyber pèse sur le crédit

Cybersécurité
Au vu de la prévalence des attaques sur les infrastructures numériques des entreprises et de leur impact parfois fatal et souvent dramatique, les établissements de crédit prennent désormais en compte l'exposition de leurs clients aux risques de cybersécurité dans leurs conditions de financement. Mais le font-ils avec toute la transparence souhaitable ?

Une étude menée par des chercheurs de l'université catholique de Louvain sur un échantillon de données portant sur des opérations de crédit syndiqué aux États-Unis révèle ainsi que, dans leur ensemble, les organisations les plus sensibles aux menaces informatiques se voient proposer des taux d'intérêt d'emprunt supérieurs à la moyenne de 4 à 13 points de base, ce qui peut représenter un surcoût important sur la vie de la transaction, en centaines de milliers de dollars par an sur le segment considéré.

Si l'analyse porte sur une catégorie de prêts spécifique, dans un pays précis, le reste du marché serait présomptueux d'ignorer le phénomène. L'actualité montre régulièrement comment des sociétés en bonne santé se trouvent soudain en grandes difficultés, voire en cessation d'activité, à la suite de, par exemple, une fuite de données massive ou une tentative d'extorsion accompagnée d'un arrêt des systèmes, qui ruine la confiance des clients ou fait disparaître un patrimoine essentiel au fonctionnement de la firme.

C'est pour cette raison que les principales agences d'évaluation (Fitch, Moody's et S&P) intègrent depuis quelque temps une dimension de cybersécurité dans leur mesure du risque opérationnel. Malheureusement, les informations exploitées dans ce but sont généralement très parcellaires et d'une fiabilité variable, notamment quand elles sont purement déclaratives. Cette situation peut conduire les pourvoyeurs de crédit à masquer leurs pratiques ou les clients à les percevoir comme arbitraires.

La logique voudrait pourtant que le sujet soit mis en pleine lumière, autant pour la sérénité des acteurs de la finance que pour la bonne marche des entreprises. En effet, dans la plupart des cas, des démarches de sensibilisation ne suffisent pas à faire changer les habitudes, surtout dans des PME ou ETI où la pression du quotidien domine. Avant que survienne l'incident, déclencheur ultime de prise de conscience, peut-être la révélation de l'impact sur les frais d'emprunt pourrait-elle inciter à agir.

Cet effort de transparence pourrait en outre s'inscrire dans une approche pédagogique globale, comme semble l'appréhender JPMorgan Chase. Plutôt que de laisser les clients démunis face à leurs problèmes de cybersécurité, il serait plus opportun d'engager une conversation permettant d'ajuster les constats (en affinant les éléments de diagnostic) et d'accompagner une stratégie d'amélioration, bénéfique pour toutes les parties. Incidemment, ces échanges mériteraient aussi une participation de l'assureur...

Cybersécurité & Crédit

Encore expliquer la banque digitale…

Revolut
En toute transparence, je n'ai pas lu l'article faute d'abonnement, mais ce titre de l'Agefi « L’entrée en relation bancaire numérique embarrasse les réseaux traditionnels » et l'introduction qui suit me font immédiatement bondir et m'incitent à m'attarder une fois de plus sur ce qui fait que les acteurs émergents séduisent les consommateurs.

Alors que Revolut annonçait il y a quelques semaines avoir franchi la barre des 70 millions de clients de le monde, le trublion est devenu une référence incontournable pour les établissements historiques, jusqu'à être maintenant admis comme une menace sérieuse pour l'avenir. Or l'article que je citais plus haut laisserait entendre que l'entrée en relation, il est vrai particulièrement soignée chez les nouveaux entrants, représenterait leur principal facteur de différenciation… et la clé de la riposte.

Quelle erreur magistrale pour ceux qui céderaient à cette distorsion de la réalité, bien qu'il soit facile de comprendre pourquoi elle peut hypnotiser des responsables cherchant à se rassurer ! Il serait en effet commode d'identifier un composant spécifique de la chaîne de valeur qu'il suffirait d'optimiser pour se remettre au niveau des leaders. Et l'ouverture de compte est une candidate idéale, entre son enjeu de conquête et l'évidence factuelle des frictions des processus des grandes institutions financières.

Hélas pour ces rêveurs, l'avantage des Revolut et consorts est beaucoup plus profond. Il réside dans la mise en œuvre d'une véritable stratégie « digitale », à ne pas confondre avec les démarches de transformation numérique engagées par l'industrie classique. L'une s'attache aux besoins et au parcours du client, cherchant en permanence à lui offrir le moyen le plus simple et le plus rapide possible de répondre aux questions qu'il se pose vis-à-vis de son argent. Les autres plaquent sur des médias électroniques les vieux réflexes d'exposition de relevés d'opérations ou de catalogues de produits.

Revolut – Beyond Banking

Naturellement, je force un peu le trait. Des tentatives de rattrapage sont certes entamées dans la plupart des banques, mais elles souffrent de deux défauts majeurs. D'une part, elles arrivent généralement des années après leur apparition dans les solutions des FinTech et, au moins pour une partie de la clientèle, elles ne font qu'adopter – enfin ! – ce qui est entretemps devenu la norme. D'autre part, elles ne sont appréhendées que comme des évolutions tactiques, l'implémentation de telle ou telle fonction, sans s'inscrire dans une vision centrée sur les attentes des utilisateurs.

Aux décideurs qui ne parviennent pas à comprendre le gouffre qui sépare leur approche de celles qui emportent leurs clients, je soumets une petite suggestion. Parmi les 7 millions de clients en France du seul Revolut (adaptez les chiffres pour votre pays, le cas échéant) figurent une proportion importante de vos collaborateurs. Interrogez-les donc en détail afin de leur faire exprimer pourquoi ils apprécient ses services et en quoi ils considèrent que les vôtres ne sont pas à la hauteur. Vous découvrirez ainsi ce que ne révèlent jamais des enquêtes d'opinion ou des comparatifs de fonctionnalités.

D'où viendra la prochaine vague d'innovation ?

FCA
Après une période prolifique pour l'innovation dans le secteur financier, dans le sillage de la crise de 2008, le soufflé est aujourd'hui largement retombé. Quand certains imaginent que l'intelligence artificielle relancera la machine, le régulateur britannique estime que la finance ouverte offre aussi des opportunités, qu'il souhaite donc encourager.

Il y a plus d'une décennie, le Royaume-Uni fut parmi les premiers et certainement le plus fervent des adeptes des principes de banque ouverte, restituant à ses citoyens et ses entreprises le droit de contrôler l'usage de leurs données de compte. Ce choix historique a indubitablement contribué à la création de l'écosystème de FinTech le plus florissant d'Europe, sinon du monde, et à une redistribution des rôles dans l'industrie qui a entraîné les établissements traditionnels dans une spirale de progrès.

Aujourd'hui, une nouvelle frontière doit être franchie. Au-delà des comptes de dépôts, il s'agit maintenant de déployer les mêmes mécanismes d'accès transparent, contrôlé par leur détenteur, à tous les domaines de la finance : emprunts hypothécaires, épargne, investissements, pensions… L'objectif visé reste toujours le même, avec une perspective étendue à 360°, de permettre le développement de nouveaux services, plus inclusifs, moins onéreux, mieux personnalisés… et mieux protégés contre la fraude.

Mais, avec le pragmatisme qui la caractérise, la FCA ne se contente pas d'imposer ses vues et de prier pour que ses rêves se réalisent. Elle se met donc en marche afin d'accompagner les organisations susceptibles de concrétiser sa vision, à travers un accélérateur et un groupe de travail dédiés, auxquels sont conviés les entreprises, les associations de consommateurs, les régulateurs « amis »… Et elle fixe des priorités sur des cas d'usage jugés opportuns : le crédit immobilier et le financement des PME.

FCA – Open Finance

C'est là où le parallèle avec l'intelligence artificielle prend son sens. Comme la finance ouverte, celle-ci n'est qu'un moyen, qui peut s'employer à toutes sortes de fins. Ni l'une ni l'autre ne constitue une innovation en soi, ce sont les applications qu'elles rendent possibles qui mériteront ce titre… ou pas, selon la différence qu'elles créent par rapport au statu quo antérieur. L'intelligence de la FCA, qui pourrait être facilement confondue avec du dirigisme, est d'orienter ces recherches, de manière à servir sa stratégie mais aussi à encourager (et investir dans) l'exploration de possibles disruptions.

Naturellement, elle peut se tromper de cible. Dans ce cas, son dialogue permanent avec les autres parties prenantes pourra l'amener à rectifier le tir et, quoi qu'il en soit, elle n'interdit pas les expérimentations dans d'autres domaines (simplement, elle ne leur accorde pas le même soutien). Ce faisant, elle évite la dispersion des efforts et des ressources consacrées à l'exploitation d'une technologie ou d'un concept prometteur, qui lui garantit de plus grandes chances d'aboutir à la profonde transformation désirée.

Les firmes qui acquièrent des outils – d'IA, actuellement – de manière indiscriminée et lancent des projets tous azimuts pourraient s'inspirer de la démarche. Il n'est pas question de brider la créativité et d'interdire des tests « exotiques » mais plutôt de s'assurer que l'essentiel des budgets et des moyens sont déployés sur des programmes directement alignés avec la stratégie globale, en instaurant en outre une méthodologie d'innovation qui aide à déterminer au plus tôt les options les plus fructueuses. À défaut, les résultats, dans leur ensemble, ne justifieront pas les dépenses engagées.

Re-personnaliser la banque avec l'IA

Fifth Third Bank
Un des hauts responsables au sein de Fifth Third Bank, récemment entrée dans le top 10 des banques américaines, commence à rêver de capitaliser sur les possibilités de l'intelligence artificielle afin de réduire sa dépendance aux fournisseurs de progiciels tiers et d'avoir plus de latitude dans sa capacité à personnaliser l'expérience client.

L'idée est une sorte de déclinaison dans l'industrie financière de celle qui, selon certains gourous, promet globalement la disparition à terme du logiciel en services (SaaS). En effet, la faculté qu'offrent déjà certains outils avancés de concevoir et développer des applications à un rythme accéléré, sans requérir des armées de professionnels aguerris, laisse entrevoir une nouvelle ère dans laquelle chaque entreprise configure ses propres solutions à un coût bien moindre que celui de ses prestataires actuels.

Jay Plum, qui dirige la division de crédit au grand public de Fifth Third, tempère toutefois le raisonnement. En particulier, il considère que le cœur de système, qui constitue le moteur interne de l'entreprise, ne devrait pas être concerné, parce qu'il est complexe, concentrant des décennies d'expérience difficiles à répliquer. Il ne le mentionne pas mais j'ajouterai que, surtout, c'est une partie du système d'information de l'entreprise qui ne génère pas d'avantage concurrentiel… pourvu qu'elle soit suffisamment moderne.

En revanche, sur les autres segments du patrimoine, notamment tout ce qui est exposé directement aux clients et aux collaborateurs, la question se pose différemment. S'il devient envisageable de produire avec des moyens réduits une application mobile, de réorganiser un processus… mieux adapté au contexte de la banque et aux attentes de ses clients, voilà une opportunité extraordinaire de reprendre la main sur l'expérience utilisateur et d'en faire un critère distinctif sur un marché aujourd'hui uniforme.

La proposition tombe également à un moment propice, alors qu'émerge une tendance chez les régulateurs à vouloir scruter les dépendances vis-à-vis des fournisseurs externes (c'est le cas par exemple avec le règlement DORA européen). Ces exigences sont susceptibles d'encourager les tentations de ré-internaliser des pans d'activité traditionnellement confiés à des partenaires, dont la maîtrise est parfois incertaine. Dans cette hypothèse, l'IA pourrait cependant devenir un autre point faible incontrôlable.

J'estime en outre que la position de Fifth Third porte une bonne dose de naïveté. En 2026, les systèmes d'information historiques sont composés de centaines de briques interdépendantes dont la connaissance est extrêmement difficile à maintenir, d'autant plus que les vagues d'externalisation du secteur ont souvent conduit à confier une partie de cette expertise aux partenaires. La restauration d'une stratégie de développement maison nécessitera donc une ré-appropriation préalable de l'existant et de principes essentiels de gouvernance. A défaut, l'anarchie s'installera très rapidement.

Fifth Third Bank

CommBank simplifie le contrôle d'identité

CommBank
Dans un contexte de croissance exponentielle de la fraude, facilitée par la génération de faux documents crédibles grâce à l'intelligence artificielle, les méthodes traditionnelles de contrôle d'identité en vigueur dans les institutions financières ne sont plus acceptables. CommBank exploite donc désormais la puce NFC des e-passeports.

L'enjeu sous-jacent est considérable puisque l'australienne rappelle qu'elle accueille chaque année quelques 700 000 nouveaux clients, dont 99% des interactions se déroulent entièrement en ligne. Or, malgré cette transformation radicale des modalités d'entrée en relation, les procédures reposaient jusqu'à présent sur la capture photographique de justificatifs physiques, multiples afin de limiter les risques de détournement, soumis à des vérifications sophistiquées mais imparfaites à l'ère de l'IA.

Après une période expérimentale de 3 mois, la banque généralise maintenant une solution véritablement « digitale », qui consiste à lire les éléments d'identité enregistrés sur le passeport électronique via un accès direct, depuis le téléphone du prospect, à la puce électronique qu'il embarque aujourd'hui systématiquement. L'enrôlement est de la sorte facilité, à travers un geste simple et unique, qu'il ne reste qu'à compléter par une vérification, avec un selfie vidéo, de la concordance du visage du porteur.

Au-delà de la réduction des frictions lors de l'ouverture de compte – entre l'exigence de fournir plusieurs documents et les erreurs fréquentes d'analyse des images –, qui constituera à n'en pas douter un accélérateur de conquête non négligeable pour le premier établissement déployant cette technique, CommBank s'attache également avec cette initiative à renforcer la sécurité. Ainsi, elle n'offre aux personnes sans passeport ou téléphone compatible que l'option de se rendre en agence pour leur démarche.

CommBank – Identity Check

Si l'Australie se vante d'avoir été, à partir de 2005, un des premiers pays au monde à implanter un composant électronique au cœur de ses passeports, en vue, notamment, de les adapter aux mécanismes de contrôle dorénavant banalisés dans les aéroports, les banques d'autres contrées, par exemple en Turquie et en Ukraine, ont mis en œuvre ce genre d'approche de longue date. Mais CommBank inaugure (il me semble) une faculté supplémentaire en acceptant aussi les passeports étrangers, y compris, bientôt pour les migrants ou étudiants qui préparent leur arrivée sur le territoire.

Cette actualité de l'autre bout du monde est donc, entre autres, une illustration des décalages existant dans la propagation de l'innovation autour de la planète… mais également des différences culturelles créant des obstacles, plus ou moins réels et sérieux, à cette diffusion. En l'occurrence, la proportion de détention par la population de documents d'identité équipés de puce – ou, pour la prochaine génération, de « wallets » d'identité nativement numériques – représente un frein majeur, hélas hors de contrôle de l'industrie : quand la protection de l'argent est à la merci des choix étatiques…

Réduire sa dépendance aux acteurs tiers : un guide pour les DSI

Dans un écosystème numérique dominé par quelques grands fournisseurs mondiaux, la question de la souveraineté technologique et de la maîtrise de ses dépendances est devenue stratégique pour les Directions des Systèmes d’Information (DSI). Pourtant, toutes les dépendances ne se valent pas, et toutes ne peuvent pas être réduites avec le même effort ou la même efficacité. L’enjeu pour le DSI n’est donc pas seulement de réduire les dépendances, mais de hiérarchiser ses actions selon son pouvoir réel d’agir.

La dépendance au matériel, par exemple, est épisodique (bien que régulière) et est une problématique d’approvisionnement : une fois équipé, il n’y a plus véritablement de dépendance, le matériel vous appartient. Une dépendance à Microsoft Office 365 est d’un autre niveau ; elle est immédiate, permanente mais aussi réversible ; des alternatives nombreuses existent, ici et maintenant.

Comment prioriser et s’y retrouver dans les domaines sur lesquels on peut agir ?

La tâche peut sembler ardue, voire désespérante, et il n’est pas rare que l’action soit paralysée par le constat d’un niveau de dépendance tellement élevé et multifactoriel qu’on ne sait par quel bout entamer la transformation. Ce petit guide a pour objectif d’éclaircir un peu la problématique.

1. Identifier les niveaux de dépendance

Avant de définir une stratégie, il peut être utile d’établir une cartographie des dépendances. Cette cartographie peut inclure les catégories suivantes :

  • Infrastructures matérielles et réseau mondial : processeurs, mémoire, fibres optiques, câbles sous-marins, liaisons intercontinentales.
    → Zone d’action quasi nulle pour une DSI : ces dépendances sont globales et structurelles.

  • Ressources énergétiques et logicielles verticales : alimentation électrique, refroidissement, outils métiers propriétaires.
    → Zone d’action limitée : il est parfois possible de négocier, d’optimiser, ou de diversifier, mais rarement de remplacer totalement.

  • Couches logicielles et infrastructurelles : systèmes d’exploitation, bases de données, services de collaboration, cybersécurité, cloud, applications internes.
    → Zone d’action forte : le DSI peut ici concevoir une stratégie de substitution, d’hybridation ou d’autonomie.

2. Prioriser selon son pouvoir d’agir

Une approche pragmatique consiste à classer les dépendances selon deux axes :

  1. Le niveau de risque (impact sur la continuité, la sécurité, la souveraineté, ou le coût total).
  2. Le pouvoir d’action (capacité technique, humaine, financière et organisationnelle à agir).

Le croisement de ces deux axes permet d’obtenir quatre classes de priorisation :

  • A. Risque élevé, pouvoir d’agir fort → priorité absolue.
    Exemple : solutions virtualisation, de sauvegarde, de cybersécurité, d’authentification ou de gestion des données dépendantes d’un unique fournisseur. Des alternatives open source (ex. FreeIPA, Keycloak, OPNsense) peuvent être déployées en interne.

    Généralement invisible pour les utilisateurs comme pour les décideurs, ce travail peut être réalisé rapidement et efficacement. Les solutions sont nombreuses et, moyennant une gestion de projet correcte, relativement simple à mettre en œuvre. Des prestataires sont disponibles pour déployer des solutions qui ne seront pas dépendantes d’acteurs tiers

  • B. Risque élevé, pouvoir d’agir faible → vigilance stratégique.
    Exemple : dépendance aux fournisseurs énergétiques. Ici, la résilience passe par la redondance, les audits de continuité, et le dialogue avec les partenaires publics.

    Monitoring, choix de fournisseurs attachés à l’autonomie stratégique et attention portée au bon fonctionnement des services.

  • C. Risque faible, pouvoir d’agir fort → opportunité progressive.
    Exemple : migration d’une suite bureautique vers une alternative libre (LibreOffice, OnlyOffice, Nextcloud). Ce type d’action accroît la maîtrise tout en servant de levier culturel interne.

    Ici, l’impact sur les utilisateurs est direct, et le changement visible. Chaque déploiement doit être précédé d’une réflexion sur la stratégie de migration, l’accompagnement au changement et l’effort de formation (si nécessaire). Il peut être sage de commencer par une réponse à des besoins non couverts. Un nouvel outil, mis à disposition d’utilisateurs qui n’en disposaient pas auparavant, ne souffrira pas d’une comparaison avec l’existant (et pour cause). Dans un deuxième temps, le remplacement de solutions propriétaires par des solutions libres pourra être envisagé dans un contexte de confiance installée.

  • D. Risque faible, pouvoir d’agir faible → faible priorité.
    Exemple : dépendance au silicium ou au réseau mondial. Ces sujets sortent du périmètre d’action d’une DSI.

Sur la base de ce classement, une stratégie intéressante pourrait donc être de porter, dans un premier temps, son attention sur les logiciels d’infrastructure (A), avant de passer aux logiciels communs (C) avec deux phases : commencer par répondre aux besoins non couverts au moyen de solutions libres puis réfléchir, en lien avec les services, au remplacement de certaines solutions logicielles.

La documentation et le monitoring de l’infrastructure et des outils déployés doivent permettre de sécuriser l’ensemble des solutions installées.

3. Domaines d’intervention concrets

Voici quelques domaines où le DSI peut réellement agir :

  • Infrastructure et cybersécurité : internaliser les services essentiels (DNS, DHCP, NTP, pare-feu), réduire les dépendances aux solutions SaaS, tester des outils open source éprouvées.

  • Collaboration et communication : privilégier des solutions maîtrisées et interopérables (Matrix, Nextcloud, BigBlueButton, Peertube, etc.).

  • Systèmes et données : adopter des OS open source, standardiser les bases de données sur des formats ouverts, renforcer la portabilité.

  • Cloud et hébergement : mettre en place une stratégie d’hybridation (cloud public + interne + edge), pour combiner flexibilité et maîtrise de l’environnement.

  • Gouvernance et culture : adapter sa politique de recrutement, former les équipes, documenter toutes les solutions déployées, intégrer la réversibilité contractuelle dans les appels d’offres, et développer une culture de l’indépendance numérique.

4. Agir progressivement mais durablement

La réduction des dépendances est un processus continu, pas une révolution brusque. Les étapes typiques sont :

  1. Mesurer la dépendance (inventaire applicatif et contractuel).
  2. Qualifier les risques (juridiques, financiers, opérationnels, réputationnels).
  3. Définir une stratégie d’action priorisée.
  4. Piloter la transformation par des projets concrets et mesurables.
  5. Ancrer la culture d’autonomie numérique auprès des équipes.

La problématique des compétences (et de l’appétence pour le projet) est centrale, comme je l’explique dans cet article. Une mise à niveau de l’équipe (modification des fiches de poste, politique de recrutement, formations éventuelles) est indispensable. S’appuyer sur le turnover naturel de l’équipe pour enrichir l’équipe de profils correspondant au nouveau projet est un facteur majeur de succès.

5. Le DSI, architecte de la résilience

Réduire ses dépendances, c’est gagner en robustesse, agilité et souveraineté. Le rôle du DSI évolue ainsi d’un simple gestionnaire d’infrastructures à un architecte de la résilience numérique. Agir là où c’est possible et fonction de ses capacités, surveiller là où c’est nécessaire, et influencer là où c’est stratégique — telle est la ligne directrice qui peut vous permettre d’avancer vers une autonomie plus grande et une réelle maîtrise de votre système d’information.


Image d’illustration : photo de AbsolutVision sur Unsplash

Finances personnelles et avantages salariés

BNY
Dans leur recherche d'avantages susceptibles d'attirer et fidéliser leurs collaborateurs, les entreprises nord-américaines ont depuis quelque temps déployé des programmes d'accompagnement du bien-être financier. Aujourd'hui, BNY introduit une assistance concrète à l'accession à la propriété pour ses employés les moins rémunérés.

En pratique, tous les salariés de l'établissement aux États-Unis qui perçoivent moins de 100 000 dollars annuels sont éligibles au nouveau dispositif, qui comprend trois volets complémentaires : un cursus éducatif dédié à l'acquisition immobilière, un coup de pouce direct de 6 500 dollars à la constitution d'un apport personnel pour les primo-accédants et un parcours privilégié de souscription d'un crédit hypothécaire, auprès d'une institution partenaire, assorti de conditions promotionnelles spécifiques.

L'objectif de BNY est non seulement d'améliorer la satisfaction de ses collaborateurs, avec des mesures opérationnelles qui répondent à leur principale préoccupation, mais également de leur procurer une stabilité personnelle, favorable à leur épanouissement au travail et, donc, leur productivité. En effet, l'achat d'une résidence constitue un moyen pour les ménages de se constituer un patrimoine en même temps qu'un abri sécurisant, qu'il devient hélas de plus en plus difficile de conquérir dans le contexte actuel.

La méthode adoptée est particulièrement cohérente. Il n'est pas simplement question d'attribuer des bonus ciblés aux populations qui en ont le plus besoin. La dimension pédagogique représente aussi une brique importante de la proposition : à travers l'apprentissage des bonnes pratiques de la budgétisation, de la planification à long terme, de la préparation à l'emprunt, des arcanes du prêt hypothécaire, de ses différentes options et de ses frais opaques… elle équipe les bénéficiaires des armes essentielles qui leur permettront de tirer le meilleur parti de l'offre de leur entreprise.

BNY – Homeowner Program

Bien qu'assez inattendue, la démarche de BNY n'est finalement qu'un prolongement de celle en vigueur autour de l'épargne retraite. Dans les deux cas, il s'agit ni plus ni moins que d'aider les employés à anticiper un moment primordial de leur vie, pour lequel les enjeux financiers sont considérables et dont la mise en œuvre effective requiert des efforts constants, à entamer le plus tôt possible, à maintenir dans la durée… avec une discipline d'autant plus difficile à respecter pour les personnes les moins aisées.

Et quitte à dessiner un parallèle entre l'achat immobilier et la retraite, je profite de l'occasion pour renverser l'exemple. Ainsi, si j'encourage les entreprises, pas seulement américaines, à s'inspirer du modèle de BNY pour l'accompagnement de leurs salariés vers la sérénité du logement « à soi », elles pourraient également décliner la leçon de l'éducation financière pour la préparation des vieux jours : pourquoi, au-delà des dispositifs financiers réglementés ou non, n'investiraient-elles pas dans la formation des individus aux gestes qui leur garantiront une sortie optimale en fin de carrière ?

Un angle mort de la commission ?

L’Assemblée nationale, dans le cadre de la commission d’enquête de l’assemblée nationale sur « les dépendances structurelles et les vulnérabilités dans le numérique et les risques pour l’indépendance de la France », reçoit un certain nombre d’acteurs du numérique.

J’ai parfois le sentiment, en écoutant ces auditions, que l’accent est surtout mis sur le législatif, le financier et le choix des solutions. Sauf que ce que renvoient les intervenants, quand on sait lire entre les lignes, c’est que la problématique est, d’abord et surtout, humaine.

Je note, par exemple, que ceux qui semblent avoir les compétences techniques les moins avancées sont aussi ceux qui ont tendance à mettre en avant la résistance des utilisateurs (« ils ont pris des habitudes »), l’énorme effort d’accompagnement et de formation nécessaire et les coûts élevés du changement. Les intervenants qui disposent de compétences techniques et ont déjà eu à gérer des transformations de ce type sont plutôt rassurant de ce point de vue-là.

Qui résiste vraiment ?

En réalité, c’est du côté des DSI que se trouve la résistance. C’est dans les services informatiques que des habitudes ont été prises, et un autre positionnement permettrait d’envisager l’avenir avec un peu plus de sérénité (et à moindre coût). Problème : il remet en cause l’organisation telle qu’elle est (et dont les DSI qui s’expriment ont la responsabilité) et leur propre capacité à mettre en œuvre un nouveau projet, différent sous bien des aspects.

Edward Jossa, directeur général de l’UGAP, au cours de son audition, évoque le sujet (extrait ici) : il y a une problématique de formation des DSI et de ré-internalisation des compétences. L’UGAP n’est qu’une centrale d’achat, et ce sont les DSI qui font leur choix parmi les logiciels disponibles. Il a raison, et si les DSI ont plutôt tendance à se tourner vers des solutions non souveraines, c’est bien de ce côté-là qu’il faut regarder.

De l’importance du recrutement

Nous avons tous tendance à recruter des profils qui nous ressemblent. Pour pratiquer le recrutement depuis des années, je sais que j’ai tendance à choisir des profils plutôt techniques, parce que c’est le monde d’où je viens. Un DSI qui dispose de compétences fortes en gestion de projets ou de partenaires s’intéressera plutôt à des profils de ce type, et c’est tout à fait adapté dans le contexte classique d’un service informatique où l’on s’appuie sur de la sous-traitance et sur des logiciels du marché, faciles à déployer, intégrés et couramment utilisés. C’est aussi ce à quoi la plupart des écoles pour futurs DSI s’attellent : former au management, à la gestion de projet, à la gestion financière et à l’utilisation des outils les plus courants.

Mais ce fonctionnement est mal adapté à une migration vers les logiciels libres, où les produits sur étagère sont rares et où ils ne donnent leur pleine dimension que quand ils sont gérés par des équipes compétentes (et motivées). Cette orientation technique est aussi celle qui permet de gérer la transition à moindre coût et de prendre en compte l’enjeu de « souveraineté » dans toutes ses dimensions : sécurisation, auto-hébergement, documentation, etc.

Entamer une transition, c’est d’abord prendre conscience de cela : il faut revoir sa politique de recrutement, et éventuellement réorganiser ses équipes, voire changer de responsable informatique. Penser qu’on pourra faire entrer les logiciels libres dans un fonctionnement qui a été pensé pour l’exploitation de logiciels propriétaires, c’est multiplier les probabilités d’échec (et de résistance).

Prendre le risque de l’échec…

Le problème se pose peu pour des logiciels métiers pour lesquels, parce qu’ils ont la compétence et qu’ils en connaissent les fonctionnalités, les prescripteurs sont souvent les services eux-même. Il se pose surtout, et de façon aiguë, pour les solutions communes (messagerie, cloud, etc.) ou d’infrastructure (virtualisation, routage, cybersécurité, etc.).

Plutôt que de réfléchir à un nouveau paradigme, les équipes vont tenter à toute force de faire entrer les nouveaux équipements et logiciels dans un fonctionnement qu’elles connaissent : utilisation d’Active Directory pour l’authentification et le déploiement de logiciels ou de règles de sécurité, intégration des machines Linux dans le domaine Windows, compatibilité avec Outlook, synchronisation des smartphones avec ActiveSync, etc. tout en s’appuyant sur les mêmes prestataires (qui ne sont pas forcément compétents)… je vois cela très régulièrement.

Il existe pourtant de nombreuses solutions permettant de gérer tout cela dans un environnement libre… et hybride (une transition prend du temps et, pendant un long moment, des solutions libres et propriétaires vont coexister, il faut pouvoir gérer), et c’est l’une des clés d’un changement réussi. Encore faut-il les connaître.

Imaginer qu’on va pouvoir opérer un changement de ce niveau avec une équipe qui a parfois peiné pour obtenir un niveau de maîtrise suffisant sur des logiciels propriétaires souvent complexes est une illusion. Revoir sa politique RH, démarrer progressivement et accélérer aux fur et à mesure du renouvellement des profils est beaucoup plus efficace, et moins coûteux. Et étant donné que dans ce domaine (comme dans d’autres), mal faire est pire que ne rien faire, je ne vois pas de meilleure stratégie.

Pour vous en convaincre, regardez de près comment sont constituées les équipes qui avancent vite (DINUM, Échirolles, Gendarmerie…). Vous verrez à quel point elles sont organisées de façon très différente de ce qu’on peut observer habituellement.

Pour un DSI qui n’a pas conscience de ces enjeux et qui ne juge qu’à l’aune de ce qu’il connaît, la perspective d’une réorientation complète de son service pour atteindre un niveau d’autonomie acceptable a de quoi effrayer. D’autant qu’en général il ne sait pas du tout comment s’y prendre : il n’a pas été formé et a in fine du mal à imaginer que cela soit concrètement possible (et donc souhaitable).

Un angle mort

C’est, à mon sens (et pour le moment), l’un des angles morts de cette commission : passer au libre (une des conditions de la souveraineté), ce n’est pas remplacer un logiciel propriétaire par un logiciel libre. Le changement à opérer est beaucoup plus profond. RH, préparation budgétaire, reporting, de nombreuses choses sont à revoir. Peu de DSI sont formés pour le faire, et les dispositions législatives n’aideront pas (elles pourraient même avoir des effets délétères, en obligeant des équipes qui ne sont pas prêtes à adopter un fonctionnement pour lesquelles elles ne sont pas organisées).

Il serait intéressant de se pencher sur cette problématique et d’interroger ceux qui forment, en ce moment-même, les futurs DSI qui sont censés, dans un futur proche, prendre à bras le corps la problématique d’autonomie stratégique qui se pose à nous en raison des récents bouleversements géopolitiques.


Image d’illustration : photo de Ross Findon sur Unsplash
Nombre de mots de cet article produits ou inspirés par une IA : 0

Liens vagabonds : Le journalisme face à la guerre informationnelle, financer le vrai pour ne pas subir le faux

« La France est le deuxième pays en Europe visé par les ingérences étrangères, notamment russes », affirme Vincent Couronne, directeur général des Surligneurs, lors d’une table-ronde organisée lors de la 19e édition des Assises du journalisme de Tours. Cette guerre informationnelle se joue désormais en grande partie sur la toile. Pour le ministère des […]

The post Liens vagabonds : Le journalisme face à la guerre informationnelle, financer le vrai pour ne pas subir le faux first appeared on Méta-media | La révolution de l'information.

Comment devenir un problème algorithmique ?

« Chaque fois que j’utilise mes appareils connectés, je participe à un contrat social algorithmique tacite », explique le chercheur José Marichal. « À l’instar du contrat social métaphorique qui lie les citoyens des démocraties libérales à leurs gouvernements, une grande partie de ma vie culturelle en ligne est régie par un système sociotechnique qui engendre avantages et inconvénients. Les termes de cette relation sont simples : en échange d’une plus grande liberté de choix à l’ère des possibilités infinies, je cède mon autonomie à l’algorithme. (…) Pour Google ou Meta, trop d’exploration vous rend problématique. Une personne qui explore constamment complique la tâche de leurs algorithmes de classification. (…) Si vos comportements sont imprévisibles vous devenez un « bruit statistique » pour le modèle, alors vous êtes un problème algorithmique et un sujet néolibéral indésirable. (…) Nous vivons dans une société ordinale où chacune de nos actions peut être enregistrée, catégorisée et notée. Le danger d’une telle société réside dans l’incapacité d’explorer. La démocratie libérale repose sur la conjecture et la réfutation, sur l’habitude de partager ses opinions sur la vie publique avec ses concitoyens, en admettant la possibilité de se tromper et en modifiant ses convictions en conséquence. De telles habitudes requièrent une ouverture à l’exploration. Or, notre économie algorithmique nous dissuade d’explorer trop largement, car cela nous transforme en consommateurs imprévisibles. »

Le risque, explique Marichal, c’est que « nous perdions notre goût pour les contenus atypiques. C’est-à-dire les contenus culturels qui ne correspondent pas à notre vision du monde façonnée par les algorithmes », résumait-il dans une tribune pour Tech Policy Press. Pire, souligne-t-il, « les expressions trop novatrices ou audacieuses risquent de passer inaperçues, car elles ne correspondent pas aux catégories des algorithmes ». A l’heure des algorithmes, il faut écrire pour ce qu’ils optimisent. « Nous vivons dans une culture de l’optimisation où nos émotions sont instrumentalisées pour confirmer sans cesse nos préférences. »

« Les algorithmes d’apprentissage automatique reposent sur la préemption, plutôt que la dissuasion (qui suppose que les individus peuvent modifier leur comportement pour obtenir des récompenses ou éviter une punition). Cette logique vise à neutraliser les menaces avant même qu’elles n’émergent », expliquait-il encore, nous invitant à nous écarter de « l’arrogance épistémique des machines ». « Un public qui commence à privilégier la prévention à la dissuasion se préoccupe moins des droits procéduraux des personnes ciblées comme déviantes, car elles sont moins perçues comme des sujets autonomes et plus comme des « anomalies » à éliminer. (…) Une culture qui privilégie l’action à la recherche de la vérité est dangereuse pour nous tous. »

« Plus nous privilégions un contrat algorithmique qui répond à nos propres préférences, qui vise à résoudre le problème en optimisant la solution la plus efficace au détriment des relations humaines au sein de la communauté, plus nous sapons la démocratie libérale ». Il nous faut devenir un problème algorithmique, explique-t-il dans son livre – You must become an algorithmic problem, Bristol University Press, 2025 – , c’est-à-dire échapper au calcul des machines… au risque que cela devienne un problème pour chacun puisque qu’échapper aux machines signifie de plus en plus être extrait de la société que celles-ci rendent possible.

Comment les sinistrés perçoivent l'assurance

L'Assurance en Mouvement
La nature même de l'assurance, dont l'action intervient dans les moments difficiles de l'existence des personnes ou des entreprises, introduit nécessairement une dimension émotionnelle forte dans la relation avec le client. C'est justement celle-ci qu'analyse le nouvel observatoire Osiris afin d'apporter un éclairage différent sur l'industrie.

J'ai déjà eu l'occasion d'exprimer mes réserves sur les enquêtes de satisfaction, surtout quand elles tournent à la caricature : elles peuvent certainement être utiles mais elle ne révèle qu'un aperçu extrêmement réduit de ce que pensent réellement les usagers de leurs fournisseurs, parce qu'elles sont conduites à un moment pas toujours opportun, parce que ne répond qu'une fraction de la cible visée, parce que leur champ d'investigation est très limité, parce que les questionnaires sont souvent biaisés…

L'étude élaborée par les spécialistes sectoriels Nelly Brossard et Jean-Luc Gambey, avec l'expertise technologique d'Emoticonnect, répond directement à ces objections en choisissant une approche extensive, sinon exhaustive, consistant à passer au crible près d'un demi-million de commentaires publics, issus du web (notamment les réseaux sociaux) et des médias, en rapport avec la prise en charge par les assureurs des événements climatiques majeurs survenus de janvier 2025 à janvier 2026 en France.

Outre sa couverture étendue, la recherche adopte une perspective originale, focalisée sur la perception émotionnelle des contributeurs, telle qu'elle ressort du contenu et du ton des messages inspectés. Il ne s'agit plus de déterminer une opinion plus ou moins objective mais de mesurer à quel degré les sinistrés ressentent colère, peur, tristesse, lassitude, soulagement et confiance vis-à-vis de leur assureur, qui font écho aux postures de ces derniers : rassurant, réactif, pédagogique, distant ou absent.

Si le score global des 42 acteurs inclus dans la panel atteint juste la moyenne (à -37 sur une échelle de -121 à +43), la prééminence de la colère et de l'inquiétude ressort particulièrement, renforcée par le désarroi face au dérèglement climatique, avec des doléances sur la lisibilité, la réactivité (qui rejoint le constat de Celent que j'évoquais récemment) et l'accompagnement. Ce sont donc les axes sur lesquels doivent désormais porter les efforts des compagnies, au-delà de la seule indemnisation.

Voilà tout l'intérêt de ce travail : à partir de l'observation du terrain, il s'attache à identifier les pistes d'optimisation à explorer. En l'occurrence, il sera par exemple question d'accroître la réactivité tout en améliorant la transparence de la communication, de maintenir un lien de proximité (qui peut être « digital ») pendant toute la période de crise… En résumé, il faut prendre en compte non seulement la situation « physique » de l'assuré mais également son ressenti, facteur primordial de qualité de la relation.

Pour ceux que ce survol aura mis en appétit, vous pouvez contacter ses auteurs (Nelly et Jean-Luc) afin de commander le dossier détaillé (d'une centaine de pages), qui vous donnera notamment une évaluation spécifique par enseigne (pour les 42 incluses). Je conclurai enfin avec une suggestion à tous les assureurs : vous devriez effectuer régulièrement des campagnes d'analyse similaires sur votre propre périmètre, incluant vos particularités, de manière à mieux comprendre les attentes de vos clients.

Pas content !

Le tournant agentique… des machines à défaillances 

L’ère post-chatbots s’annonce, explique la journaliste Lila Shroff pour The Atlantic. L’IA ne fait plus que répondre aux questions. Elle programme, elle agit. Et le « tournant agentique » formalise ces progrès, explique Eryk Salvaggio pour Tech Policy Press. Le tournant agentique désigne des systèmes qui génèrent du code et s’adaptent de manière autonome. Les systèmes d’IA produisent désormais du code et vérifient l’efficacité de cette production en la corrigeant jusqu’à ce qu’elle fonctionne. Mais si ces évolutions améliorent l’expérience utilisateur des LLM, est-ce que cela suffit pour « justifier » du déploiement de l’IA, interroge pertinemment Salvaggio. Est-ce que le fait que leurs productions s’améliorent suffit pour justifier de l’utilité de cette technologie ? 

Nous ne sommes plus exactement dans le cadre des perroquets stochastiques définis par l’article fondateur de 2021, d’Emily M. Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell, même si ce cadre reste pertinent – voir notre article, « la gauche minimise-t-elle le pouvoir de l’IA ? ». « Les systèmes agentiques empilent ces perroquets » pour produire des formes « d’essaims stochastiques ». Des systèmes qui s’auto-alignent sur ce qu’ils doivent produire, tout en demeurant fondamentalement incapables de rendre des comptes. La question centrale de l’article de Bender et alii demeure toujours pertinente, estime Salvaggio : « Les modèles de langage peuvent-ils être trop volumineux ? » 

La prolifération des modèles ne fait qu’amplifier les problèmes de biais, d’attribution erronée de la pensée et d’inefficacité. Distinguer la critique systémique de l’évaluation des modèles n’est pas céder à la surenchère : cela signifie se concentrer sur les avantages et les inconvénients collectifs plutôt que sur les usages individuels. On peut parler de ce que les modèles ne peuvent ou ne devraient pas faire sans pour autant nier leurs capacités, estime Salvaggio. 

L’IA agentique s’apprête à débarquer et ses effets vont être nombreux, estime l’artiste-chercheur. D’abord, il promet la production de logiciels bâclés (slopware, contraction de slop qu’on peut traduire par soupe ou de bouillie et de ware qui désigne les composants – voir notre article sur le slop), produits plus rapidement, mais qu’il va être difficile à évaluer. Distribution accélérée qui risque de créer des situations comparables à un espace aérien non réglementé, où une multitude de décisions individuelles et déconnectées engendrent le chaos. Le code peut sembler fonctionner dans des circonstances particulières grâce à toutes sortes de bidouillages qui masquent des erreurs sous-jacentes. « Contrairement aux logiciels malveillants, le logiciel bâclé n’est pas intentionnellement perturbateur ; il perturbe par négligence : c’est la variable codée en dur qui permet à un homme célibataire de gérer correctement son budget, mais qui entraîne des frais de découvert lorsqu’il est utilisé par une mère célibataire. La conception de logiciels exige une grande finesse dans le choix des valeurs et priorités qu’ils intègrent, ainsi que dans la manière dont ils déforment, ignorent ou présentent de façon erronée les données qu’ils traitent. Le suivi de ce processus requiert des connaissances techniques. » C’est cela qui pourrait disparaître dans les logiciels de demain

Ensuite, l’IA agentique promet l’accumulation des défaillances techniques. Malgré une perception accrue de fiabilité, les modèles de langage ne peuvent jamais être des machines à dire la vérité. Les soi-disant hallucinations sont mathématiquement impossibles à éliminer, et par conséquent, la perception d’une fiabilité accrue augmente le risque de surestimer la pertinence d’un modèle de langage pour une tâche donnée. Alors qu’un modèle de langage produit des textes ou autres médias persuasifs et potentiellement faux, un système agentiel produit un « code convaincant ». Ce code est produit de manière plus difficile à interrompre, à tracer ou à auditer qu’une simple sortie de modèle. « Il est impossible de documenter de manière fiable le processus de pensée d’un code créé sans réflexion » ; par conséquent, le code doit être considéré comme non fiable jusqu’à ce qu’il soit vérifié. On pourrait ajouter ici, le risque d’une sécurité infrastructurelle, comme l’évoquait Bruce Schneier.  

Conséquence du risque précédent, un autre risque repose sur l’accumulation des défaillances de responsabilité. Les erreurs dans un système agentiel s’accumulent de manière invisible jusqu’à ce qu’un élément vienne briser la façade. Dans les systèmes sensibles, ce dysfonctionnement peut nuire aux personnes. On encourage le gouvernement à utiliser ces systèmes pour des tâches telles que l’automatisation des décisions relatives aux prestations sociales, l’analyse des contrats et le contrôle réglementaire – des domaines où des défaillances en cascade peuvent avoir de graves conséquences humaines. « L’objectif du gouvernement ne devrait pourtant pas être de gagner du temps en reportant la charge de travail sur un retraité qui se voit refuser indûment ses prestations »

Enfin, l’empilement des systèmes agentiques pousse à la montée en puissance du solutionnisme. Salvaggio rappelle pourtant que tous les problèmes ne se résument pas à des problèmes de programmation. L’accès à la génération de code nous pousse à résoudre les défis politiques par de nouvelles lignes de code et à nous concentrer sur les problèmes compréhensibles par les machines, au risque d’exacerber des formes de déshumanisation. Les cas particuliers, parfois flous, ne sont plus les subtilités du tissu social, mais une nuisance technique. Aucune simulation d’une communauté capable de résoudre ses problèmes n’est possible : le désordre est une étape nécessaire à la construction du sens et au fonctionnement de la démocratie. 

Enfin, ces systèmes risquent d’accroître l’extraction et le gaspillage des ressources à grande échelle. Les systèmes multi-agents fonctionnent en boucle, consommant bien plus de ressources que les logiciels conçus de manière plus ciblée. Lorsqu’un débutant réécrit une seule ligne de code avec un système multi-agents, « il n’utilise pas un seul modèle : il active l’ensemble du système ». Cette mise à l’échelle optimise la production individuelle : plus, plus vite, sans tenir compte de l’efficacité du code ni de ses effets. Il ne s’agit pas seulement d’un coût environnemental. « Cela dégrade le patrimoine informationnel commun et crée des problèmes pour tous ceux qui, en aval, dépendent de ce code. Les essaims multi-agents augmentent la puissance de calcul individuelle tout en comprimant de vastes réseaux de travail et d’extraction de ressources dans une seule fenêtre d’exécution. »

Pour Salvaggio, d’autres problèmes encore posent questions avec le passage à l’IA agentique, notamment le pouvoir politique que ces outils vont donner à l’industrie de l’IA, l’extension de la surveillance, le renforcement et l’invisibilisation des biaisReste qu’énumérer les défaillances à venir ne suffit pas à contrer l’expansion des machines. Se moquer des piètres résultats de ces systèmes semble n’avoir aucun impact sur leur déploiement estime Salvaggio. Pour lui, il nous faut ouvrir un débat sur l’utilité et ses limites. « Que signifie l’utilité ? Pour qui et dans quelles conditions ? » Qui bénéficie des systèmes et qui en pâtit ? « Quelles décisions sont discrètement soustraites au débat public et confiées à des systèmes automatisés contrôlés par des entreprises, des gouvernements et d’autres institutions ? Le fait que l’on utilise des modèles de langage ne rend pas les critiques à leur égard superflues ; au contraire, elles les rendent urgentes. »

Lloyds teste la chasse quantique aux mules

Lloyds Banking Group
L'intelligence artificielle a peut-être éclipsé les autres grandes tendances technologiques dans les médias, certaines d'entre elles n'en continuent pas moins à susciter l'intérêt de l'industrie financière. Tel est le cas pour l'informatique quantique, plus discrète car lointaine, mais porteuse d'immenses promesses. Lloyds en fournit un nouvel exemple.

À ce stade de maturité, il est ici encore question, bien sûr, d'une expérimentation, menée en collaboration avec IBM. Ayant plus ou moins raté le virage de l'IA, Big Blue espère en effet reprendre des couleurs avec la prochaine rupture attendue dans l'univers informatique et investit donc massivement dans ces machines futuristes et leurs possibles applications dans les métiers de ses clients historiques, banque en tête.

Le cas de mise en œuvre s'inscrit dans les classiques du genre, à savoir la lutte contre la fraude, où la puissance de calcul statistique est déterminante pour la performance et la précision des résultats. En l'occurrence, le test portait sur l'identification d'une « mule » (personne exécutant des transferts de fonds pour le compte d'un tiers à but de blanchiment), réelle, dont les opérations ont été introduites délibérément au sein d'un jeu de données d'essai, basé sur un vaste historique de transactions anonymisées.

La campagne est évidemment qualifiée de succès par le directeur des opérations de Lloyds, permettant à la fois d'accumuler une expérience précieuse sur les capacités et les modalités d'usage des machines quantiques et de commencer à assembler une équipe internes de spécialistes, qui sera amenée, au fil du temps et des inévitables progrès et évolutions de la technologie, à poursuivre explorations et opportunités.

En aucun cas l'initiative ne prétend à préfigurer d'une industrialisation à courte échéance. Les moyens engagés, entre les collaborateurs aux compétences variées (en physique, mathématiques, ingénierie logicielle…) et les experts d'IBM, sur une durée relativement longue (9 mois), pour une solution dont on sent qu'elle est très ciblée, montre combien la courbe d'apprentissage sera longue et devra être anticipée.

En attendant, il faut souligner l'importance pour les acteurs de la finance (et d'autres) de ne pas tout miser sur l'intelligence artificielle. L'avenir peut aussi s'imaginer avec d'autres avancées fulgurantes, susceptibles de faire appel à des disciplines pourtant considérées désuètes. La faculté de l'informatique quantique d'éliminer les limites des modèles statistiques, présentant l'avantage d'un déterminisme qui échappe aujourd'hui à l'IA, pourrait redonner à la science des données classique une place de premier plan…

IBM Quantum

« On est tous en passe de devenir des livreurs Deliveroo »

« A partir du moment où le numérique, l’IA, les infrastructures critiques s’interposent au coeur des chaînes de valeurs, elles les réauditent à leur profit. Un certain nombre d’entreprises françaises sont en passe de devenir des espèces de sous-traitant d’industries dont la valeur ajoutée est dans le numérique ou dans l’IA et qui vont réauditer les tarifs à leurs profits. »

Notre dépendance n’est pas qu’en achat logiciels, elle est bien large que cela. Elle touche le hardware, nos capacités cyber, des infrastructures critiques, les données… sans compter les grands services d’accès à l’information comme les réseaux sociaux et les moteurs de recherche.

« La domination va bien au-delà de la part d’achat logiciel par nos entreprises et administrations. Cela introduit une domination économique et une évasion de valeur parce qu’on achète à l’extérieur, mais c’est le moins grave. Cela introduit une domination sur les chaînes de valeurs à laquelle on ne prête pas assez attention. Je ne sais pas si vous vous souvenez du rapport qu’avait fait l’ANSES sur la condition des livreurs Deliveroo et qui nous montrait des gens dont la vie était en train de devenir infernale parce qu’ils ne rencontraient plus jamais ni un collègue ni un supérieur hiérarchique, mais seulement des stimulus de data… et dont le salaire horaire avait diminué de 35% en deux ans. Mais en fait, on est tous en passe de devenir des livreurs Deliveroo. A partir du moment où le numérique, l’IA, les infrastructures critiques s’interposent au coeur des échelles de valeurs, elles les réauditent à leur profit. Un certain nombre d’entreprises françaises sont en passe de devenir des espèces de sous-traitants d’industrie dont la valeur ajoutée est dans le numérique ou l’IA qui vont réauditer leurs tarifs à leurs profits. »

Henri Verdier (vidéo, texte), directeur général de la Fondation Inria, lors de son audition à la Commission d’enquête sur les dépendances structurelles et les vulnérabilités systémiques dans le secteur du numérique et les risques pour l’indépendance de la France.

Quand la tech passe avant le business

Celent
En amont d'un webinaire consacré aux tendances affectant les investissements informatiques dans la gestion de patrimoine en 2026, Celent partage une statistique, aussi prévisible qu'inquiétante : l'intelligence artificielle, générative et agentique, constitue la priorité absolue dans un contexte d'augmentation (sensible) des budgets…

Ce n'est qu'un petit extrait d'une enquête annuelle menée par le cabinet, mais il m'interpelle. En résumé, quand les responsables sont interrogés sur les thématiques qui justifient la progression des dépenses technologiques prévue d'ici 2027 (de 5,7% en moyenne), ils placent nettement en tête l'adoption de l'IA (pour 70% des sondés), devant les initiatives de transformation, d'une part, et de conformité et d'expérience client, d'autre part, chacune rassemblant environ la moitié des suffrages.

La formulation de la question introduit peut-être un biais (fâcheux) et la possibilité de réponses multiples incite à relativiser toute conclusion hâtive. Il n'en reste pas moins que ces résultats montrent que des directeurs informatiques et leurs équipes privilégient l'outillage, au détriment d'objectifs stratégiques… et mesurables. Le plus inquiétant est encore que, au vu des modèles d'organisation collaboratifs désormais en vigueur dans les institutions financières, ils ne prennent pas ces décisions de manière autonome, elles leur sont dictées plus ou moins fermement par leurs pairs dans les lignes métier.

Celent – IT Priorities in Wealth Management

Concrètement, une partie de ces établissements s'inscrivent dans une démarche de mise en œuvre de l'intelligence artificielle pour elle-même. Alors que leur mission, et leur valeur ajoutée, est principalement définie par la relation client, avant même l'expertise, ils sont tentés de céder à la mode du moment sans nécessairement rechercher en amont l'alignement avec leur raison d'être. Le défaut, aujourd'hui quasiment généralisé dans l'ensemble du secteur financier, prend ici une dimension plus vitale.

Naturellement, on peut toujours estimer normal de vouloir explorer le plus rapidement possible les opportunités de solutions émergentes, y compris sans identifier d'emblée des applications totalement pertinentes. Hélas, l'axe de l'étude de Celent, spécifiquement sur la croissance des budgets, vient rappeler une réalité implacable : ces aventures avec l'IA ont un coût (souvent élevé) qui, dans une période d'obsession de l'efficacité opérationnelle, est pris sur d'autres projets, potentiellement plus critiques.

Pour une IA coopérative

Les discussions sur les strates qui constituent le réseau sont nourries, d’autant qu’elles interrogent profondément les enjeux de souveraineté technologique. La souveraineté numérique est un concept flou qui fait l’objet de beaucoup d’instrumentalisations, rappelait avec pertinence l’association Data For Good. Bien souvent, être souverain en la matière implique d’être autonome sur toutes les couches de l’industrie numérique. Un objectif impossible tant les dépendances sont partout, des logiciels au matériel, des ressources aux infrastructures, des conditions juridiques aux financements. Comme l’expliquait la chercheuse Ophélie Coelho dans son livre, Géopolitique du numérique(éditions de l’Atelier, nouvelle édition 2025) l’enjeu est bien plus de déterminer les secteurs et les couches sur lesquels nous devons reprendre le contrôle. Pour le dire autrement, l’enjeu n’est pas tant d’avoir des produits totalement souverains, que de comprendre là où la souveraineté doit s’exercer et comment

Construire la strate de l’autonomie

Cette autonomie stratégique à laquelle aspirer est très souvent présentée comme un enjeu nationaliste ou patriotique, qui confond la souveraineté avec le leadership technologique, sans toujours voir que ces leaderships peuvent reposer sur des dépendances innombrables, à l’image de l’enjeu à déployer des centres de données sur le territoire au prétexte de souveraineté, sans questionner le fait que leur financement ou leurs équipements puissent être totalement entre les mains d’acteurs étrangers. 

L’IA est en passe de devenir une couche supplémentaire dans le mille-feuille des couches sociotechniques du numérique. Et elle requestionne en profondeur ces enjeux, explique  Raffi Krikorian, directeur technique de Mozilla, dans une tribune pour Rest of World. « Dans un monde de plus en plus polarisé et protectionniste, où les plateformes technologiques sont de plus en plus instrumentalisées par les politiques étatiques, construire des infrastructures nationales critiques sur des systèmes dont on n’est pas propriétaire, que l’on ne peut ni auditer ni adapter, représente un risque considérable et croissant. Ce défi comporte une dimension tant économique que politique. Un État soucieux de sa souveraineté en matière d’IA en 2026 ne pourra pas justifier de manière crédible le financement d’une infrastructure d’IA étrangère et verticalement intégrée tout en négligeant les investissements dans des alternatives nationales et open source. Investir dans les hyperscalers peut minimiser les coûts à court terme, mais cela consolide également les rentes numériques versées à des entités étrangères, maximise la dépendance à long terme envers des partenaires peu fiables et augmente considérablement les coûts de sortie. Si les gouvernements financent la dépendance, c’est bien la dépendance qu’ils obtiendront. »

Pour Raffi Krikorian pourtant, l’enjeu n’est pas tant de construire une souveraineté de l’IA nationaliste, que de bâtir des Communs maîtrisés. « L’absence actuelle de financements privés à grande échelle pour les infrastructures d’IA ouvertes reflète leur nature de bien public, et non leurs capacités. Les modèles open source atteignent déjà couramment 90 % ou plus des performances des systèmes propriétaires, pour un coût bien moindre. Investir dans les cadres d’IA ouverts, c’est investir dans les infrastructures publiques numériques, car cela génère des avantages grâce à des coûts réduits, au maintien de l’autonomie politique et à des gains de productivité à l’échelle de l’économie. L’IA ouverte offre également ce que les systèmes propriétaires ne peuvent pas : la légitimité démocratique. Les pays ne créent pas de valeur en revendant des solutions étrangères, mais en développant des produits différenciés sur des bases partagées, ouvertes et moins coûteuses. Il s’agit d’une politique industrielle qui encourage la concurrence et le développement des compétences nationales, et non d’un rejet de l’industrie nationale. »

« Internet n’est pas né de la seule initiative d’acteurs privés, mais d’investissements publics soutenus dans les technologies ouvertes. De Linux à Apache, les fondations open source partagées sont devenues l’épine dorsale de l’économie numérique mondiale, favorisant l’innovation privée tout en empêchant la mainmise sur l’infrastructure. Du CERN à Airbus en passant par Galileo, la leçon est claire : lorsque les États cofinancent des fondations ouvertes ou partagées, l’innovation privée prospère. En revanche, lorsqu’ils financent l’accès, la dépendance s’accentue. L’IA se trouve précisément à ce tournant.»

Souveraineté ne rime pas avec isolement, rappelle-t-il. « Les coûts de développement de l’IA open source peuvent être partagés. Comme l’a déclaré le Premier ministre canadien Mark Carney à Davos : « Investir collectivement dans la résilience coûte moins cher que de construire sa propre forteresse. » L’enjeu n’est pas que chaque pays construise son propre jardin clos. Il appartient aux nations de collaborer autour de standards ouverts et d’infrastructures partagées, en rejetant la fausse dichotomie entre dépendance et isolement des plateformes, et en construisant plutôt un avenir de l’IA qu’elles maîtrisent réellement. » 

« Si nous voulons des écosystèmes d’IA résilients, ouverts et fiables, nous devons les financer comme tels – non par idéalisme, mais comme un investissement concret dans la souveraineté, la résilience et la légitimité démocratique. Les pays qui aspirent à la souveraineté en matière d’IA doivent participer à ce débat, non pas en simples observateurs, mais en tant que co-investisseurs et co-constructeurs. Plus nous attendons, plus il sera difficile de changer de cap », conclut le responsable de Mozilla en appelant à construire des protocoles plus que des plateformes, des cadres ouverts plus que des solutions, des systèmes de valeurs plus que des contraintes économiques ou techniques. Une proposition qui rappelle que c’est bien le cadre de la souveraineté qu’il faut discuter, pour comprendre là où nous pouvons avoir des dépendances et là où nous devons les refuser. L’enjeu n’est pas de construire des investissements nationaux mais bien d’investir dans des infrastructures communes porteuses de valeurs démocratiques et émancipatrices, libres et ouvertes. « La souveraineté en matière d’IA ne viendra pas de la location des modèles des géants de la tech ». Elle ne viendra pas des factures de tokens des systèmes d’IA des grands acteurs de la Tech. Elle consiste d’abord à construire une autre tech, non pas nationaliste ou patriotique, mais qui promeut une souveraineté distribuée, choisit, capacitante

La coopération comme architecture solidaire

On se souvient que, récemment, l’économiste Francesca Bria avait évoqué le risque d’une soumission à une strate autoritaire fomentée par les géants de la Silicon valley : « derrière les strates qui composent le réseau, comme l’avait défini Benjamin Bratton dans son livre, Le Stack (UGAP, 2020), comme autant de régimes de souveraineté qui se superposent et s’imbriquent, la strate autoritaire semble l’envers de la proposition d’autonomie stratégique que propose EuroStack ». Mais le risque est bien, sous couvert de souveraineté, de produire des strates nationalistes voire militaristes, comme semble le proposer l’annonce récente d’un « Deutchland Stack » Allemand

D’où l’importance de faire un pas de côté.

C’est la piste que proposent les chercheurs Trebor Scholz et Mark Esposito dans la revue d’innovation sociale de Stanford. Pour contrebalancer l’extractivisme des plateformes, « nous avons besoin de construire la strate solidaire de l’empilement numérique ». Lorsque les systèmes technologiques sont conçus uniquement pour l’extraction et l’efficacité, ils isolent et brisent les personnes qui les font vivre, rappellent les deux chercheurs. L’exploitation des travailleurs du clic par exemple est le « symptôme d’une industrie structurée pour transférer les risques vers le bas via des chaînes contractuelles opaques, tout en concentrant les profits et le contrôle au sommet ». Pour Scholz et Esposito, « sans intervention délibérée, ces logiques d’extraction se généraliseront à l’échelle mondiale, concentrant encore davantage le pouvoir entre les mains des plus puissants, à moins que nous ne choisissions de construire un système fondamentalement différent ». Jusqu’à présent, les chercheurs invitaient à investir dans des entreprises inclusives, dans des coopératives de travailleurs, que Scholz a beaucoup défendu. Trebor Scholz est professeur à la New School for Social Research de New York depuis 2009. Il est l’un des premiers à s’être attelé à analyser le phénomène du Digital Labor (Routledge, 2013). Il est aussi l’un des promoteurs du coopérativisme de plateformes (voir par exemple notre article de 2015), notamment dans son livre Le coopérativisme de plateformes (FYP, 2017) ainsi que dans Own this ! (Verso, 2023). Il est également le fondateur du Platform Cooperativism Consortium un réseau de promotion du mouvement coopérativiste, qui organise notamment des conférences sur la coopération, comme celle sur l’IA coopérative qui se tenait il y a peu à Istanbul. Pourtant, écrit-il dans son article, « la réponse aux méfaits de l’IA ne peut se limiter à la régulation des plateformes dominantes »

En fait, la concentration du pouvoir des géants du numérique rend de plus en plus vulnérables même les institutions internationales les plus critiques aux politiques autoritaires et aux pressions des dirigeants, comme l’illustre la dépendance de la Cour pénale internationale à l’égard de l’infrastructure Microsoft face aux menaces proférées sous l’administration Trump. Les coopératives, les institutions publiques et les mouvements sociaux doivent donc activement construire et connecter des alternatives grâce à ce que Scholz appelle la « pile de solidarité », une économie numérique coopérative émergente

« L’extraction ne se résume pas à des algorithmes biaisés ou à des violations de la vie privée. C’est un problème structurel : l’IA actuelle fonctionne grâce à ce que nous appelons une « strate d’extraction » verticalement intégrée, comprenant le matériel, l’infrastructure cloud, les modèles, la main-d’œuvre et les applications. Seules quelques entreprises contrôlent la construction, la gouvernance et l’utilisation de ces technologies et les personnes qui en dépendent n’ont aucun droit de regard démocratique. »

Les critiques et les régulateurs soulignent à juste titre que les seules directives éthiques ne peuvent résoudre les problèmes posés par la logique extractiviste des plateformes. Les systèmes d’IA reposent sur des modèles de propriété, des chaînes d’approvisionnement et des architectures techniques qui privilégient le profit, le passage à l’échelle et le contrôle. « Ces incitations structurelles déterminent la collecte des données, le traitement des travailleurs, les décideurs et les bénéficiaires de la création de valeur, privant ainsi les directives éthiques de tout pouvoir pour remettre en cause la logique sous-jacente du système. Une IA démocratique ne peut se contenter de louer un espace sur la strate extractiviste ! Elle exige que les travailleurs, les communautés, les coopératives et les institutions publiques se réapproprient l’infrastructure elle-même, couche par couche, de la terre au nuage. »

Scholz et Esposito plaident pour construire une architecture solidaire. Un défi qui nécessite de rejeter la notion d’intelligence artificielle, qui sous-entend une force magique et autonome, au profit d’une intelligence collective, reconnaissant le travail humain et le savoir partagé qui alimentent ces systèmes. Cependant, parvenir à la coordination nécessaire pour contester les monopoles mondiaux de l’IA demeure un défi de taille. Même des organisations établies comme l‘Alliance coopérative internationale, qui représente un mouvement d’environ un milliard de membres et des milliers de coopératives employant près de 10 % de l’emploi mondial, sont structurées principalement pour la représentation et le plaidoyer plutôt que pour la coordination et l’exploitation d’une infrastructure numérique partagée.

De la gouvernance coopérative… 

Pour les deux chercheurs, plusieurs initiatives menées par des communautés, des coopératives et des institutions publiques permettent déjà de reprendre le contrôle de ces niveaux économiques, notamment des ressources, des infrastructures, des données, du travail comme du savoir. 

Une approche solidaire exige des chaînes d’approvisionnement transparentes, la propriété communautaire des ressources minérales et des mécanismes de partage équitable des bénéfices. Elle permettrait également de distribuer l’infrastructure sur des serveurs fédérés, appartenant à la communauté et interconnectables sans contrôle central. Butler Rural Electric offre un précédent historique éloquent. Fondées dans les années 1930 avec le soutien du gouvernement fédéral et une gouvernance coopérative, les coopératives électriques rurales ont permis aux communautés de financer, construire et gérer leur propre infrastructure énergétique, un modèle qui continue aujourd’hui de fournir de l’électricité à environ 42 millions de personnes dans les zones rurales américaines. Des coopératives numériques telles que Hostsharing eG en Allemagne et Som Connexio en Espagne, ainsi que plusieurs coopératives de vente au détail au Royaume-Uni, appliquent cette même logique en mutualisant les ressources de leurs membres, en utilisant une gouvernance coopérative et en collaborant avec des partenaires publics pour construire et exploiter une infrastructure numérique partagée. Cela permet aux communautés de réduire leur dépendance aux fournisseurs de cloud propriétaires, de conserver le contrôle local de leurs données et d’assumer la responsabilité de la gestion des coûts environnementaux liés à la consommation d’énergie. Bien que ces initiatives soient explicitement expérimentales et de portée modeste, elles suggèrent que la capacité de calcul peut fonctionner comme un bien public. Les décideurs politiques et les responsables municipaux pourraient même appliquer ce modèle pour créer une option publique d’accès à la puissance de calcul. 

Dans le modèle d’extraction, les données personnelles sont une matière première prélevée auprès des utilisateurs pour alimenter des modèles propriétaires. Cette logique considère les individus non pas comme des participants ou des détenteurs de droits, mais comme des sources passives de valeur. Le modèle de solidarité, lui, réinvente les données comme une ressource partagée, gérée démocratiquement. Par exemple, MIDATA, une plateforme suisse de données de santé détenue et gérée par des patients agit comme une fiducie pour ses membres. Elle maintient une infrastructure sécurisée permettant aux patients de consulter leurs données agrégées et de décider démocratiquement de les partager ou non à des fins de recherche médicale. MIDATA démontre qu’il est possible de créer des ensembles de données de haute qualité, issus de sources éthiques, sans surveillance. Les membres partagent volontairement leurs données car ils font confiance à la gouvernance et à la gestion des données de la coopérative, ce qui élimine le besoin d’extraction ou de surveillance coercitive. 

Au travail, l’IA implique une rétroaction entre contenus et modérateurs. Les travailleurs étiquettent, examinent, corrigent et leurs décisions enregistrées sont utilisées par les systèmes pour reconnaître, classer, améliorer. Ce processus contraint les individus à absorber le fardeau psychologique des contenus. Dans le modèle solidaire, ces travailleurs ont des garanties de salaires, de droits, bénéficient de soutiens… et pilotent la gouvernance de leurs outils et missions, comme c’est le cas de nombreuses coopératives de travailleurs, comme celle de la Gamayyar African Tech Workers au Kenya, Facttic en Argentine, Outlandish à Londres… et de nombreuses autres (comme la plateforme danoise Hilfr qu’on avait évoqué dans notre article sur les plateformes du secteur du nettoyage).

… à l’IA coopérative

Scholz et Esposito proposent d’appliquer les principes coopératifs à l’IA. « L’accès à l’IA seul est insuffisant quand les outils fonctionnent comme des boîtes noires, incapables d’expliquer ou de remettre en question leurs résultats, et si leurs valeurs reposent sur des principes imposés plutôt que sur des valeurs démocratiquement établies. L’approche solidaire propose de réhabiliter le domaine du savoir comme un espace de gouvernance collective, favorisant l’explicabilité, la contestabilité, des normes partagées » pour construire d’autres IA.

AI4Coops, en Argentine, est une initiative de petite envergure qui réunit des praticiens et des technologues du monde coopératif afin d’étudier comment l’intelligence artificielle pourrait soutenir la gouvernance coopérative et l’apprentissage partagé. Elle veille à ce que la culture algorithmique ne soit pas réservée aux institutions d’élite ni concentrée au sein des géants de la technologie, mais soit largement accessible aux travailleurs, aux coopératives et aux communautés. Elle développe des outils d’IA adaptés à des problématiques locales avec des acteurs locaux, comme des systèmes de reconnaissance d’images pour du contrôle qualité dans une usine, un système d’analyse d’images satellites pour des coopératives agricoles… La coopérative britannique Animorph développe des outils de réalité augmentée pour la prise en charge de la démence, utilisant la narration immersive et des supports visuels pour soutenir la mémoire, la communication et le lien affectif des personnes atteintes de démence et de leurs aidants. Puisqu’elle est détenue par ses employés, elle refuse de monétiser la vulnérabilité des patients et conçoit des outils qui privilégient les soins aux indicateurs d’engagement. « Ces exemples montrent que l’IA au service du bien commun ne saurait se réduire à de la simple posture vertueuse, à du marketing éthique, ni à des formes d’écoblanchiment ou de blanchiment d’image. La construction d’une infrastructure solidaire exige que les modèles économiques alternatifs soient véritablement ancrés dans la démocratie au travail, la propriété partagée et une gouvernance responsable », expliquent les chercheurs. Ces modèles locaux ont d’autres vertus encore, comme la souveraineté linguistique, la maîtrise des processus, la sobriété…

Reste que, comme nous le disions, « les plateformes coopératives, qui privilégient les pratiques éthiques, des normes de travail et sociales plus élevées, peinent à être compétitives. L’absence de législation spécifique aggrave ce problème, permettant aux plateformes capitalistes d’opérer en toute impunité et de saper les efforts des acteurs de bonne foi, tels que les coopératives de plateformes. » Pour Scholz et Esposito également, l’infrastructure solidaire nécessite, pour émerger et s’imposer, une articulation stratégique des politiques, des financements et de l’organisation communautaire. Il faut que les développeurs technologiques « s’accordent régulièrement sur des principes partagés, l’interdépendance matérielle, des institutions durables, des rituels et un récit politique commun que les individus choisissent consciemment de défendre, notamment sous pression ».

Ici, Scholz et Esposito prennent l’exemple des organisations autonomes décentralisées (DAO), où la blockchain aide à formaliser la gouvernance partagée. Pas sûr que l’exemple soit convaincant, tant le mouvement est devenu a bien des égards problématique. Par contre, ils pointent vers le Public AI Network, un réseau de défense et promotion d’une IA publique intégrée, « qui fournirait des services d’IA au même titre que l’électricité ou l’eau », accessible à tous, contrainte à rendre des comptes, durable, fiable. Ou encore le projet Lestac AI en France, pour tester des services d’IA écoresponsables. Ou le modèle multilingue et open source Apertus, développé par l’École polytechnique fédérale de Zurich (EPFZ) et l’École polytechnique fédérale de Lausanne (EPFL)…  Le protocole OpenCourier, par exemple, crée une base technique commune permettant aux plateformes de livraison gérées par leurs travailleurs de se connecter et de collaborer. Ou encore le projet d’IA coopérative du réseau des collectivités locales britanniques qui s’engage à respecter les principes coopératifs et démocratiques dans la prestation de services publics. 

Pour Scholz et Esposito, ces « cercles » de strates solidaires, locales, conçoivent le développement d’infrastructures comme une forme d’action politique collective, que ce soit par le biais de fiducies de données municipales, de services cloud coopératifs ou de modèles linguistiques gérés publiquement. « Le discours dominant sur l’IA laisse faussement entendre qu’un contrôle centralisé par les entreprises est inévitable. Pourtant, des modérateurs de contenu au Kenya, des gestionnaires de données en Suisse et d’autres encore démontrent que les composantes d’un avenir numérique démocratique sont déjà présentes. Notre mission est de les relier et, ce faisant, d’exercer notre pouvoir d’agir, de refuser le désespoir et de créer un système où la technologie est au service de la majorité. »

Hubert Guillaud

Signalons encore que dans le syllabus (.pdf) du cours qu’il a donné au premier semestre à la New School sur le thème d’une « IA sans patrons », Trebor Scholz pointait encore vers bien d’autres exemples. En estimant que les infrastructures solidaires peuvent être mises en place à chaque niveau de la chaîne d’approvisionnement mondiale de l’IA, il évoquait les mines coopératives au Pérou, en Colombie, en Zambie ou en Mongolie, ou des centres de données coopératifs en Allemagne ou aux Pays-Bas. Il signalait par exemple, la tribune de la doctorante Tara Merk, contributrice au Metagovernance Project, sur les limites de projets de centres de données coopératifs. Face aux data centers dominés par les géants de la Tech, Merk défendait « une plus grande diversité dans la propriété et la gouvernance des centres de données », notamment coopératifs. « Et si les centres de données étaient détenus et gérés de manière coopérative par les personnes vivant à proximité immédiate et souvent directement desservies par eux ? » Dans ce modèle, les opérateurs citoyens pourraient recevoir une part des bénéfices générés par le centre de données (à l’instar des parcs éoliens citoyens). Cela entraînerait une redistribution indirecte des bénéfices générés par les données des utilisateurs en ligne – une idée qui prend d’autant plus d’importance que ces données gagnent en valeur à l’ère de l’IA. Les centres de données coopératifs offriraient également aux citoyens un meilleur contrôle sur l’impact de ces infrastructures sur leur environnement physique local. Par exemple, les citoyens pourraient décider si et quand la quantité d’énergie ou d’eau utilisée par le centre de données entre en conflit avec d’autres besoins locaux et pourraient décider de réduire l’approvisionnement énergétique du centre de données en cas de situation critique. Guidé par les valeurs coopératives d’équité et de solidarité, de tels centres de données pourraient décider de renoncer à des bénéfices plus élevés afin de rendre son infrastructure plus accessible à tous, comme aux associations et coopératives. Cela pourrait à son tour encourager une plus grande diversité dans le développement de l’IA et inciter les entreprises à adopter une identité coopérative. De plus, en s’appuyant sur une infrastructure de centres de données coopérative, les coopératives d’IA renforceraient leur autonomie et leur indépendance, offrant à leurs membres un meilleur contrôle sur l’ensemble de la pile technologique, y compris les moyens de production de l’IA. Tara Merk est en train de faire une étude sur GAD eG, une coopérative qui pendant 50 ans a été l’un des grands fournisseurs de services informatiques allemand notamment pour les services financiers (jusqu’à sa fusion en 2015 avec une autre entreprise). Pour la chercheuse, l’exemple de GAD démontre « que les centres de données coopératifs constituent une option économiquement viable et évolutive, capable de fonctionner de manière fiable dans des secteurs critiques ». 

Dans son syllabus, Scholz aborde d’autres exemples de coopératives pour montrer comment les valeurs coopératives peuvent guider des alternatives concrètes au développement technologique, comme le propose Read-Coop, la coopérative européenne à l’origine de la plateforme de reconnaissance d’écriture manuscrite Transkribus. Et pointe vers nombre de ressources sur le sujet des technologies pour la coopération. 

A compléter encore par le numéro de Nature consacré aux modèles d’IA des pays du Sud, qui offre un autre regard sur d’autres façon de faire de l’IA.

U.S. Bank accompagne tout le projet immobilier

U.S. Bank
Nombreuses sont les banques qui ont tenté ou tentent encore de s'approprier le parcours d'acquisition d'un bien immobilier, profitant de leur position incontournable sur le financement. En collaboration avec Built, U.S. Bank prend aujourd'hui la même direction… mais sur un segment spécifique – la construction – exposé à ses propres défis.

Le principe de la solution est simple : la plate-forme rassemble l'acheteur, le constructeur et l'établissement de crédit autour du projet pour plus de transparence et de réactivité. Elle devient alors leur point de communication unique, notamment pour le partage des plans, le suivi de l'avancement du chantier, les rendez-vous d'inspection, les échéances de versement et, naturellement, les événements relatifs à l'emprunt.

En offrant à toutes les parties prenantes une visibilité immédiate sur toutes les activités, le service apporte non seulement la tranquillité d'esprit aux futurs propriétaires, qui peuvent facilement être stressés par l'ampleur de l'opération, mais constitue également un facteur d'accélération quand, par exemple, les déblocages de fonds intermédiaires sont déclenchés (presque) automatiquement dès qu'une phase contractuelle de travaux est terminée et sa réception acceptée lors de la visite organisée immédiatement.

Le dispositif est aussi disponible pour l'immobilier commercial. Dans ce cas, il s'adresse aux promoteurs, auxquels il offre des fonctions similaires pour le pilotage de leurs programmes, en coordination avec leurs partenaires financiers et les corps de métier en charge de la réalisation. Les même capacités d'échange d'information leur procurent, entre autres, une réassurance sur le respect des budgets, le planning de livraison (et les éventuels retards), la conformité aux exigences réglementaires…

U.S. Bank Home Building

L'originalité de l'initiative d'U.S. Bank tient à sa portée. Il n'est pas seulement question de faciliter la vie du client de l'institution, particulier ou entreprise, l'outil porte également des bénéfices tangibles aux autres contributeurs du chantier, ne serait-ce que sur l'accès aux données réelles du projet pour la banque elle-même et la gestion des paiements pour les exécutants. Ces derniers pourront en outre devenir une cible privilégiée pour des actions de marketing, à travers, pourquoi pas, des avantages dédiés…

La démarche rappelle inévitablement celle d'Arkea, avec Teamzy, bien qu'elles comportent des différences notables. Et cet éveil américain à une opportunité de rendre plus fluide la conduite d'un chantier de construction donne encore plus de regrets quant à l'arrêt de l'aventure bretonne en 2025. Mais c'est la loi implacable des changements de stratégie… en l'occurrence l'arrêt de diverses initiatives plus ou moins innovantes au profit d'une vision recentrée sur l'efficacité opérationnelle et la productivité.

Generali intègre la prévention climatique dans l'assurance

Generali
Alors que les statistiques pour l'année 2025 montrent la progression continue du dérèglement climatique et de son impact sur l'industrie de l'assurance, Generali présente une initiative d'accompagnement proactif de ses clients, déployée à la souscription de leurs contrats habitation… mais donne l'impression de disperser ses efforts.

La croissance des risques entraîne inexorablement une augmentation de la pression sur les compagnies, qui commencent logiquement à la reporter sur les assurés. En conséquence, si, jusqu'à maintenant, les mesures prises se limitaient à proposer aux intéressés d'évaluer l'exposition de leur bien immobilier aux intempéries et autres phénomènes dangereux, une deuxième phase se dessine dorénavant, dans laquelle la sensibilisation et l'encouragement à passer à l'action se font plus insistants.

En l'occurrence, dans le cas de Generali, un diagnostic complet, couvrant les principales menaces (feux de forêt, inondations, sécheresses, séismes, sinistres industriels…), est systématiquement réalisé et transmis au demandeur dès l'établissement d'un devis. Ce document, basé uniquement sur l'adresse des lieux et des données de référence publiques, permet, selon le résultat, de soulager le prospect ou de lui faire prendre concrètement conscience des risques encourus sur sa maison ou son immeuble.

Dans cette deuxième hypothèse et en cas de contractualisation, une autre étape s'enclenche. Avec l'aide d'un des 830 agents généraux de proximité, le nouveau client bénéficie d'un diagnostic personnalisé approfondi, assorti de recommandations pratiques, priorisées, pour la mitigation des dangers identifiés. L'assistance se décline ensuite sur la sélection de professionnels qualifiés pour leur exécution… et sur la recherche de financement, qui constitue souvent un obstacle majeur aux travaux.

À ce stade, je veux exprimer une inquiétude, dans une démarche qui, par ailleurs, me paraît saine et légitime dans le contexte contemporain. En effet, j'observe une multiplication des services d'estimation des risques naturels géographiques, autant de la part d'organismes publics que d'assureurs (dont Generali), voire d'autres institutions financières (concernées par le crédit, notamment). Sachant que tous s'appuient plus ou moins sur les mêmes ressources, il serait temps d'envisager leur mutualisation… de manière à pouvoir concentrer les investissements sur l'anticipation des aléas.

De toute évidence, un vaste mouvement de transformation est en cours dans le secteur de l'assurance, qui sait ses métiers menacés par le changement climatique. Il passe ainsi d'une position passive, proposant des outils à ses clients préoccupés par le sujet, à une posture plus volontariste, plaçant tout le monde devant ses responsabilités. Je suppose que viendra plus tard une attitude de plus en plus contraignante, qui, si elle ne va pas jusqu'au refus de couverture, pourrait imposer des conditions préventives…

Generali – Changement Climatique 2025

Le design comme avantage concurrentiel

U.S. Bank
Avec son « Design Assistant », U.S. Bank exploite l'intelligence artificielle dans un domaine inattendu et inédit mais qui éclaire singulièrement ses choix de priorités et sa stratégie « digitale », quand cette dernière ne se réduit pas aux seules technologies (le « numérique ») mais veut agir en profondeur sur l'expérience client.

La nouvelle solution, qui a été conçue et développée grâce à une collaboration entre l'équipe spécialisée dans l'IA et celle qui comprend les utilisateurs cibles, est déployée depuis décembre dernier – intégrée au cœur de leurs plates-formes habituelles – et a été tout de suite massivement adoptée par tous les collaborateurs dont le rôle consiste à dessiner les parcours ou les interfaces des sites et applications web et mobiles de l'entreprise ou encore à développer des maquettes et prototypes de logiciels.

L'assistant prend en charge, en particulier, les exigences réglementaires, par exemple en termes d'accessibilité, de conformité aux standards internes, de respect de la charte graphique maison… Concrètement, il suit le travail effectué et émet des alertes lorsqu'il détecte des écarts ou anomalies, assorties de recommandations de correction. Dans tous les cas, la personne qui est au commande garde le contrôle et peut accepter ou non les suggestions, ces décisions enrichissant l'intelligence du système en continu.

Comme dans la plupart des initiatives à base d'IA, U.S. Bank met en avant les bénéfices pour ses employés, qui seraient de la sorte libérés de tâches à faible valeur ajoutée et dégageraient donc plus de temps pour exprimer leur créativité et se concentrer sur la partie noble de leur mission. On ne peut toutefois s'empêcher de penser que, du point de vue de l'établissement, ces gains se traduisent directement sur la productivité des intéressés et lui permettent de projeter des réductions d'effectifs en conséquence.

U.S. Bank Design Assistant

La mise en place de l'assistant n'en est pas moins une avancée importante pour l'institution financière. En contraignant, en amont, l'alignement du design avec un jeu de normes prédéfinies, la suite de la production logicielle est également rationalisée, facilitant la réutilisation de composants existants et limitant les besoins d'aller-retour entre les équipes. Et aux utilisateurs finaux, clients ou salariés, il offre en outre une garantie de cohérence et d'homogénéité qui facilite la prise en main et l'efficacité.

C'est ce dernier point qui retient le plus mon attention dans la démarche d'U.S. Bank, même s'il peut paraître anecdotique. Il n'est pas si courant pour une entreprise, surtout de cette dimension, de créer ses propres outils dans la chaîne de développement informatique, alors que le marché est pléthorique et propose des capacités de personnalisation sans fin. J'estime, peut-être naïvement, que ce choix reflète l'importance fondamentale que constitue l'expérience client dans l'esprit de ses décideurs et la nécessité d'en maîtriser tous les aspects afin d'atteindre l'excellence.

Liens vagabonds : Pourquoi s’obstiner à écrire, à l’ère de ChatGPT ?

Un journaliste de Fortune révélait récemment avoir écrit 600 articles depuis le mois de juillet, à l’aide de l’IA. « Je suis un peu un phénomène », confiait-il dans les colonnes du Wall Street Journal. Pas tant que ça. De plus en plus de journalistes assument publiquement cette pratique, comme en témoignent les six reporters […]

The post Liens vagabonds : Pourquoi s’obstiner à écrire, à l’ère de ChatGPT ? first appeared on Méta-media | La révolution de l'information.

QSPTAG #328 — 3 avril 2026

Bonjour à toutes et à tous !
Cette semaine, on parle de reconnaissance faciale lors des contrôles policiers. Non seulement cette pratique banale dans les faits est contraire au droit français, comme le montre le guide que nous publions en partenariat avec Disclose qui a enquêté sur le sujet, mais en plus la Cour de justice de l’Union européenne dit que le droit français n’est pas conforme au droit européen, beaucoup plus protecteur.
Bonne lecture à vous !

Alaïs, Alex, Bastien, Eva, Marne, Mathieu, Myriam, Noémie, Nono et Vi

Double offensive contre la reconnaissance faciale lors des contrôles de police

Ces deux dernières semaines ont été riches en rebondissements. D’abord, en partenariat avec le média Disclose qui publiait son enquête sur le sujet, nous avons publié un guide complet sur l’utilisation illégale de la reconnaissance faciale par la police nationale et la gendarmerie lorsqu’elles font des contrôles d’identité dans la rue.

Vous trouverez tout le détail de notre analyse juridique dans le guide. Pour faire vite : les agents ont pris depuis des années l’habitude de photographier les personnes qu’ils contrôlent, pour interroger ensuite la base de photos du fichier TAJ (traitement des antécédents judiciaires) et identifier les personnes par reconnaissance faciale. Le problème, c’est qu’à la fois la prise de cette photo dans la rue et l’utilisation de cette technologie ne sont pas légales. L’enquête de Disclose confirme ce dont de très nombreuses personnes ayant connu des contrôles d’identité avaient pu témoigner : la photographie « sauvage » et la reconnaissance faciale, nullement permises par la loi, sont des pratiques policières courantes – et entièrement abusives, dont nous demandons donc l’interdiction claire par la hiérarchie policière et par l’exécutif.

Quelques jours après la parution de l’enquête de Disclose et de notre guide, deuxième coup : la Cour de justice de l’Union européenne (CJUE), dans son arrêt « Comdribus », juge que les pratiques françaises en matière de prise de « signalétique » (photo et empreintes digitales) sont contraires au droit européen – c’est-à-dire illégales.
Si on additionne notre analyse (la photographie et la reconnaissance faciale sont la plupart du temps contraires au droit français) et l’arrêt de la CJUE (la prise de signalétique est disproportionnée et contraire au droit de l’Union), les pratiques de agents français sont deux fois illégales. On attend donc une réaction rapide et nette du ministère de l’intérieur.

Disclose a annoncé mercredi 31 mars que le ministère lui avait dit : « Des rappels sont régulièrement réalisés dans les services de police et de gendarmerie », et que la CNIL préparait quant à elle « plusieurs contrôles (…) pour vérifier l’existence d’un éventuel usage de la reconnaissance faciale sur les téléphones » des forces de l’ordre. Nous suivrons bien entendu ces annonces de très près.

L’article du 17 mars : Contrôles d’identité : défendons-nous contre la reconnaissance faciale
L’article du 25 mars : La Cour de justice de l’Union européenne désavoue le système de fichage français

Deux vidéos pour parler de VSA et de reconnaissance faciale

Vous trouverez nos dernières vidéos sur notre chaîne Peertube. Parmi les plus récentes, notez la vidéo de début mars au sujet de la VSA dans la loi JO 2030, le replay du live du 24 mars, qui parlait de VSA et de reconnaissance faciale (l’émission commence vers 22 minutes 30), ou la captation de l’audition de Bastien (de La Quadrature) à l’Assemblée nationale, qui parlait de l’interopérabilité des réseaux sociaux.

Vidéo du 9 mars : Vidéosurveillance algorithmique : JO 2030 et vols en supermarchés
Vidéo du live du 24 mars : Surveillance biométrique : VSA, Reconnaissance faciale…
Audition à l’Assemblée nationale : Commission d’enquête sur les vulnérabilités du secteur du numérique en France : audition du 25 mars 2026

Soutenez La Quadrature en 2026 !

Notre campagne de soutien pour 2026 est toujours ouverte. Nous avons atteint un peu plus de la moitié de l’objectif pour financer l’association durant l’année. Vous pouvez donc toujours faire un don sur notre site ! Merci pour votre aide !

Pour nous soutenir en 2026 : Faites un don à La Quadrature du Net

Agenda

  • 9 avril 2026 : réunion mensuelle du groupe Technopolice Marseille à 19h au Manifesten, 59 rue Adolphe Thiers, Marseille.
  • 9 avril 2026 : discussion publique en partenariat avec Disclose : « Contrôles d’identité et reconnaissance faciale – Que peut faire la police, quels sont nos droits ? », à partir de 18h30 à la Fraternité Belle de Mai, 7 boulevard Burel, 13003 Marseille.

La Quadrature dans les médias

Reconnaissance faciale

Divers

Jeunes et information : les 7 chiffres qu’il faut retenir

Comment les rédactions traditionnelles peuvent-elles (enfin) séduire les jeunes ? Entre l’abandon de l’accès direct aux sites et une dépendance accrue aux algorithmes, les jeunes adultes imposent un nouveau paradigme. Sur les réseaux sociaux, la confiance ne se porte plus sur la marque de presse, mais sur l’individu : ils accordent désormais plus d’importance aux […]

The post Jeunes et information : les 7 chiffres qu’il faut retenir first appeared on Méta-media | La révolution de l'information.

Les réseaux sociaux dans la tourmente

Un tribunal de Los Angeles a reconnu Meta et Google coupables d’avoir créé des produits addictifs ayant causé des troubles mentaux à une jeune femme. Les deux entreprises ont été condamnées à verser 3 millions de dollars de dommages et intérêts. Si la condamnation est dérisoire, le verdict devrait générer d’autres procès (nombreux sont en cours) et pourrait entraîner d’importantes modifications des applications de réseaux sociaux pour s’en prémunir, explique la journaliste Kaitlyn Tiffany pour The Atlantic.

Bien sûr, Meta et Google ont fait appel. Mais l’un des avocats du Social Media Victims Law Center estime que le jugement appelle déjà des changements majeurs. Une condamnation qui s’ajoute à un autre verdict rendu contre Meta dans une autre affaire au Nouveau-Mexique où l’entreprise à été condamnée à une amende de 375 millions de dollars pour des milliers d’infractions aux lois de l’Etat sur la protection des consommateurs et sur le fait que Meta aurait indirectement facilité des crimes graves. Cela signifie que non seulement les plateformes permettent l’exploitation des utilisateurs, mais qu’elles présentent des défauts qui nuisent aux utilisateurs. Et ce qui est en cause, ce sont notamment les flux algorithmiques, la lecture automatique des vidéos et les notifications push, ainsi que le fait que Instagram et YouTube avaient été créés par des entreprises conscientes de leur caractère addictif et nocif, et que ces entreprises avaient choisi de ne pas avertir les consommateurs de ces risques.

Aux Etats-Unis, de nombreux procès d’utilisateurs attendent les géants des réseaux sociaux. Si les entreprises de la tech ont beaucoup défendu leurs pratiques pour rassurer les utilisateurs ces dernières années, on sait depuis, avec des documents internes révélés par les enquêtes, que ces entreprises étaient divisées quant à la priorité à accorder à la protection des enfants par rapport à la croissance et à l’engagement des utilisateurs, rappelle la journaliste dans un autre article. Comme le fait de ne pas passer les comptes des adolescents en privé par défaut qui a été longtemps retardé par les équipes commerciales de Meta alors que d’autres équipes de FB avaient alerté du problème dès 2020. Il faudra attendre septembre 2024, pour que les comptes adolescents soient placés en privé par défaut. Ces documents provenant du procès au Nouveau-Mexique ont montré que pendant 6 ans, « Meta a peaufiné des paramètres de confidentialité de base, tout en calculant comment de simples interventions permettraient de réduire modérément le temps passé sur Instagram et en optant initialement pour des mises à jour progressives et prudentes afin de préserver ses statistiques d’engagement ». Un rapport interne montrait que l’algorithme recommandait des comptes d’enfants à des adultes au prétexte que les fans veulent suivre leurs stars préférées et auraient jeté des enfants en pâtures à des délinquants sexuels. 

Désormais, les comptes des mineurs sont mieux surveillés, mais les mesures ne sont toujours pas parfaites, notamment du fait que la modération est devenue très lacunaire sur les plateformes sociales. Enfin, les pratiques de captologie, elles, demeurent plus présentes que jamais. 

Comme l’évoque la designer Nolwenn Maudet dans son manuel Culture du Design numérique : histoire des idées et des enjeux (éditions 205, 2026), en rappelant les propos du designer Aza Raskin à l’époque où il défendait le passage au scroll infini (avant de se repentir) : « Le problème c’est qu’à chaque fois que les utilisateurs sont forcés de cliquer sur la page suivante, ils sont extraits du monde du contenu vers le monde de la navigation : ils ne sont plus en train de penser à ce qu’ils lisent mais à comment en lire plus. Comme le fil de leurs pensées est brisé, cela les oblige à arrêter de lire, et cela leur donne l’opportunité de quitter le site. Ce qu’ils font. » Les darks patterns ont donc bien pour fonction de limiter la réflexion de l’utilisateur pour favoriser son engagement. La captologie a bien été utilisée pour créer des dépendances cognitives. En Caroline du Sud, un projet de loi souhaite d’ailleurs débrancher les fonctionnalités addictives pour les comptes enfants, telles que le défilement infini, certaines notifications push, la lecture automatique des vidéos, les compteurs de mentions J’aime et autres indicateurs d’engagement, les badges de compte et les flux d’actualités exploitant le profil. Aux Pays-Bas, Meta a fait appel d’une décision de justice qui l’oblige à proposer un fil alternatif chronologique à son classement algorithmique.

Reste à savoir quand ces interdictions s’étenderont à tous les autres profils, puisque cette compulsivité est bien armée contre l’utilisateur.  

En attendant, estime un spécialiste interrogé par Le Monde, les réseaux sociaux jouent la montre. Il est probable qu’ils continuent à faire des ajustements mineurs, progressifs, incrémentaux.

Cosplay forensique

La désinformation générée par l’IA submerge la couverture médiatique de la guerre en Iran, rapportent Wired, la BBC, CNN, The Atlantic…. Pour The Guardian, la journaliste Tess Mcclure a mené l’enquête sur une image qui a fait le tour des réseaux, celle du cimetière de Minab, photographié alors qu’il s’apprête à accueillir l’inhumation de plus de 100 jeunes filles de la ville. Une image emblématique de la guerre israélo-américaine contre l’Iran, témoignant de son terrible bilan humain. 

En demandant aux services IA comme Gemini ou Grok, les deux répondent que ces images ne sont pas réelles et sont des images provenant de catastrophes antérieures. Les deux IA sont péremptoires et fournissent des sources pour l’image originale, mais qui ne mènent nulle part : soit l’image est introuvable, soit le lien fourni renvoie à un article de presse inexistant. 

Les experts, eux, estiment que l’image est authentique : elle n’a pas de signe d’altération et elle correspond aux lieux réels. 

Dans les rédactions, les vérificateurs de faits sont constamment débordés par le flux incessant d’images truquées. Aujourd’hui, « près de la moitié, voire plus, des fausses informations virales que nous suivons et démentons sont générées par l’IA », explique l’un d’entre eux. Le phénomène est aggravé par les synthèses d’actualités IA, qui sont pourtant très utilisées par les internautes, alors qu’une étude menée en 2025 a révélé qu’environ la moitié des synthèses générées par l’IA présentaient au moins un problème important de source ou d’exactitude – ce taux atteignant même 76 % pour certains outils, comme l’interface Gemini de Google. Le problème, souligne Mcclure n’est d’ailleurs pas seulement que ces interfaces produisent du faux, mais qu’elles n’identifient pas non plus la réalité. « Le problème est aggravé par la manière péremptoire dont l’IA présente ses conclusions. Elle génère des rapports détaillés, incluant noms, dates, références et sources : un contenu qui laisse supposer une recherche et une compréhension approfondies, mais qui peut en réalité être halluciné ou inexistant. Lorsque le Guardian a interrogé Gemini sur la réponse concernant la photographie de Minab, en demandant : “Je ne pense pas que ce soit correct, pouvez-vous effectuer une nouvelle recherche ?”, Gemini a modifié sa conclusion, mais pour indiquer un autre lieu et une autre année erronés. »

Shirin Anlen et Mahsa Alimardani de l’association Witness, expliquent dans une tribune pour Tech Policy Press qu’on voit apparaître beaucoup d’analyses d’apparence technique pour discréditer faussement des preuves authentiques. Le journaliste de BBC Verify, Shayan Sardarizadeh, a constaté que ce conflit pourrait déjà avoir battu des records en matière de quantité de contenu généré par l’IA et devenu viral en temps de guerre. Le chercheur en OSINT Tal Hagin a également observé que le problème ne se limite plus aux utilisateurs ordinaires des réseaux sociaux trompés ; le volume de ces tromperies a dépassé les capacités de vérification, même des rédactions professionnelles. Dans ce contexte, les preuves authentiques sont non seulement plus difficiles à trouver, mais elles sont activement dissimulées par le flux de contenus. Des preuves d’apparence technique, associées à une allégation mensongère, circulent plus vite que toute correction. Nous sommes en train de basculer dans l’instrumentalisation de la détection par IA et de l’analyse forensique elle-même : des visuels d’apparence technique peuvent créer une illusion d’autorité technique. Nous voici dans le « Cosplay forensique», une forme de déguisement de l’activité d’investigation, comme une fabrication de fausses preuves médico-légales…  où l’on trouve par exemple de fausses cartes thermiques pour discréditer des images réelles… Les outils conçus pour détecter la manipulation deviennent des instruments de manipulation, utilisés pour semer le doute et la confusion autour d’événements réels, voire de victimes réelles.

« Le brouillard de l’IA n’a pas besoin que chaque contenu soit fabriqué. Il a besoin que la question « Est-ce réel ? » devienne quasiment insoluble », estime très pertinemment Mahsa Alimardani pour The Atlantic. Le problème est que, dans ce flou, même les preuves ne fonctionnent plus, se désole-t-elle. 
La désinformation a pourtant un coût, estimait récemment une étude de Sopra Steria : 417 milliards de dollars. Quant à l’inaction des plateformes face à ces contenus, elle est liée à la grande difficulté à identifier les contenus génératifs, estime le Monde à la suite du site spécialisé Indicator. En fait, la labellisation des contenus IA par les plateformes repose sur des détecteurs automatiques qui ne fonctionnent pas, comme le soulignait le New York Times, mais surtout, les plateformes ne sont pas incitées à modérer ces contenus. « Dans un monde où le président américain diffuse lui-même de fausses informations et utilise massivement des images générées par IA pour communiquer sur les réseaux sociaux, la pression sur les géants de la tech pour supprimer les premières et labelliser les secondes est faible », conclut Le Monde.

Startups : le mythe est nu

Que sont vraiment les startups ?, interroge la sociologue Marion Flécher dans son livre. Des outils d’accélération du capitalisme assurément qui semblent surtout borner l’accès au capital aux mieux dotés. Derrière la fable d’un mérite sous stéroïdes, la startup est d’abord le lieu d’une reproduction sociale encore plus fermée sur elle-même. Derrière le mythe d’une organisation cool, débarrassée des vieilles hiérarchies, l’intensification, la précarisation et la compétition y règnent en maître. 

Dans Le monde des startups (Presses de SciencesPo, 2025), la sociologue Marion Flécher déconstruit le mythe des startups. Leur modèle économique et organisationnel n’est pas accessible à tous, tant s’en faut. Dans son livre, la sociologue interroge le modèle d’organisation que cette forme d’entreprise mal définie promeut. La croissance comme le caractère innovant de ces entreprises restent des critères opaques. Le terme même de startup peut qualifier indifféremment un service web à forte croissance, qu’une PME de textile, ou qu’une entreprise de brasserie à la mode. Tant et si bien qu’on pourrait se demander si ce qui qualifie avant tout une startup ne serait pas le narratif qu’elles produisent sur elles-mêmes voire, plus encore, le narratif de disruption qu’elles mobilisent. 

Flécher tente pourtant de délimiter le champ du problème, c’est-à-dire de quantifier le phénomène. Mais selon l’indicateur choisi (le taux de croissance, la levée de fonds, les entreprises qui obtiennent une aide à l’innovation… le caractère innovant de son offre et de son modèle économique…), le paysage se révèle mouvant. La startup est d’abord une représentation, une posture plus qu’une réalité. Et c’est exactement ce que relève l’enquête, en montrant les limites du modèle de rupture que promeuvent les startups, que ce soit une rupture dans leur modèle de croissance, dans leur modèle organisationnel et plus encore dans le récit qu’elles font d’elles-mêmes, pour se distinguer des autres entreprises. Pour Flécher, les startups tiennent d’abord d’un récit, d’un « nouvel instrument de légitimation du capitalisme ». Derrière les pitchs, le storytelling, les KPI, le business plan, et la construction de la figure héroïque de l’entrepreneur, c’est bien les modalités même du récit d’entreprise qui est transformé.  

Startups : des entreprises au service de l’accélération capitaliste

Comme le disait le professeur en sciences de gestion Anthony Galluzo dans Le mythe de l’entrepreneur (La Découverte, 2023), avec la startup s’est imposée un monde, une idéologie, un système moral : celui de l’entrepreneur roi. Flécher rappelle que l’histoire des startups comme modèle d’entreprise née dans la Silicon Valley est d’abord l’histoire de la reconversion industrielle d’un territoire, rendue possible par l’action conjuguée du monde universitaire, industriel et étatique. Le monde de la startup est né d’entreprises cherchant à se singulariser, en réinventant leurs modes de production et d’organisation. C’est un monde d’entreprises en rupture par les technologies qu’elles mettent en œuvre, par la taille de leurs équipes, par le cadre de travail qu’elles offrent à leurs ingénieurs ainsi qu’une rupture économique et financière. Ce qui semble le mieux définir la startup, rappelle Flécher, reste assurément le modèle spéculatif qu’elles représentent, la promesse de bénéfices records en un temps réduit. Avec la startup, s’impose un modèle d’entreprise où « les logiques financières priment désormais sur toute autre considération industrielle ou sociale ». Les startups ne sont possibles que parce que la finance et les autorités vont encourager ce modèle, déroulant des législations favorisant ces investissements et leur essor. 

Flécher fait un sort assez rapide aux innovations organisationnelles. Alors que les innovations managériales sont censées servir l’innovation technique, ce marqueur, qui vise à s’extraire des modes de gestion autoritaires des entreprises classiques, tient surtout du narratif. Le fait d’aller travailler sans cravate, comme le promouvait Robert Noyce chez Intel dès les années 60, ne semble qu’un ensemble de faux-semblants, un paravent. La réalité n’est peut-être pas tant le management à la cool que l’intégration, très tôt, de techniques d’optimisation des coûts, comme la délocalisation des opérations, l’intégration de la recherche à la production… qui visent à produire une entreprise peut-être plus souple, plus agile, mais d’abord « plus maigre ». Derrière l’autogestion, la collaboration, la créativité, le modèle organisationnel des startups a surtout instrumentalisé ces principes au service du capital et du profit. Le fun comme la distribution des parts de l’entreprise aux salariés  a surtout permis de produire une meilleure adhésion des travailleurs. Le Googleplex a bien plus tenu d’une « institution totale » visant à atténuer la subversion, à améliorer la performance et donc les profits.

Flécher observe également comment ce modèle d’entreprise a colonisé le monde. Mais plus que le modèle d’entreprise, ou que la révolution numérique, c’est bien là encore un modèle de dérégulation de l’investissement qui a fait école. C’est dans les années 2010, avec le développement de l’offre des startups américaines en Europe notamment que le modèle s’impose. La chercheuse identifie l’année 2013 comme une date clé. C’est à la fois la date où Uber, qui s’est implantée en France l’année précédente, ouvre son offre, tout comme Airbnb. C’est aussi celle où se lancent la French Tech et BPI France, c’est-à-dire à la fois où se structure le réseau d’investissement et son financement. La startup devient alors « un objet d’action publique ». C’est le moment où elle devient un projet de construction politique, permettant, au choix, de dynamiser la croissance, reconquérir la compétitivité internationale, relancer l’innovation alors que la désindustrialisation bat son plein. Un déploiement qui s’accompagne surtout de mesures légales d’exonérations fiscales et de crédits d’impôts qui ont « clairement sonné le virage libéral du quinquennat de François Hollande ». Macron fera d’ailleurs de la startup un pilier de son projet politique, s’emparant « de l’imaginaire associé aux startups – agilité, modernité, ouverture internationale – comme un outil de distinction dans le champ politique ». Avec l’imaginaire de la startup et de l’entrepreneuriat, l’Etat n’est pas seulement vu comme un soutien financier à l’innovation, mais également comme une entité à startupiser, c’est-à-dire à devenir agile et digital, à gérer comme une entreprise. Pour Flécher, la startup nation de Macron est le paradigme d’un État néolibéral au service de l’entreprise. « A la différence des Etats-Unis, où les fonds de capital-risque ont rapidement pris le contrôle du marché du financement des startups, c’est l’Etat qui en France, apporte le gros soutien institutionnel et financier aux startups françaises », notamment pour compenser le fait que le capital-risque n’y est pas très développé. « Par effet d’entraînement et d’attraction des investissements publics, on assiste, depuis le début des années 2000, à une véritable prolifération des dispositifs organisationnels et marchands visant à soutenir et accompagner les créateurs et créatrices de startups ». Les structures (incubateurs, accélérateurs, pépinières) se multiplient. En 2025, la French Tech recense 167 espaces de travail dédiés, et 209 incubateurs et accélérateurs. Autant de politiques, qui « loin de promouvoir le laisser faire et la libre concurrence des marchés, défendent au contraire une vision active d’un État au service des marchés, de l’entreprise et de la finance »

L’institutionnalisation du monde des startups n’est pas un phénomène spontané, conclut Flécher, mais au contraire un processus organisé, étroitement adossé aux institutions publiques qui procurent un soutien financier déterminant. Derrière la main invisible du marché, il faut bien plus voir la « main financière de l’Etat ». Ce soutien politique et financier de grande ampleur montre surtout que la réussite entrepreneuriale ne tient pas tant du mérite ou du talent d’individus, que d’un accès aux aides publiques, aux marchés publics, aux dispositifs de financements et à des formes législatives dédiées… 

L’entrepreneur est bien plus celui qui va savoir naviguer dans ces dispositifs hiérarchisés qu’autres choses. Il est bien plus celui qui va savoir profiter des complexités des dispositifs, inégalement distribués, tant dans l’accès que dans le succès. 

Inégalités de l’entreprenariat

Pas plus que la définition de la startup n’est claire, l’entrepreneur n’est pas non plus une catégorie sociostatistique, rappelle Marion Flécher. Les statuts du créateur de startups sont variables et ambigus : salariés, indépendants, micro-entrepreneurs, voire sans statuts clairs… cette diversité éclaire surtout une grande hétérogénéité des situations économiques et sociales. Pourtant, explique la sociologue, derrière la diversité sociale, l’inclusion et l’ouverture qu’elle paraît célébrer, le fait qu’il suffirait « d’oser pour entreprendre », la réalité est toute autre. Le milieu est fortement sélectif et élitiste, plus encore que ne l’est le monde de l’entreprise traditionnel. Ils ne ressemblent plus beaucoup aux innovateurs ordinaires qu’évoquaient les sociologues Michel Grossetti, Jean-François Barthe et Nathalie Chauvac dans leur livre Les start-up, des entreprises comme les autres ? (Presses de la Sorbonne, 2018). 

Alors que la grande majorité des créateurs et créatrices d’entreprise sont peu ou pas diplômés, les fondateurs de startups, eux, sont souvent surdiplômés. La grande majorité proviennent de milieux sociaux favorisés, disposent d’un habitus entrepreneurial. La plupart bénéficient de soutiens familiaux et financiers qui réduisent considérablement le risque de l’entrepreneuriat. Alors que l’essentiel des créateurs d’entreprises traditionnels se lancent seuls, c’est rarement le cas dans le monde des startups. La présence d’associés dans le projet est un critère de sélection dans l’accès aux organismes d’accompagnement et de financement, note la sociologue, montrant l’importance de la socialisation dans ce milieu, critère valorisé. Flécher montre clairement que « seuls les membres d’une élite économique, étroitement liée au milieu d’affaires, peuvent espérer accéder à la création de startups » et y rencontrer le succès. Le monde des startups est d’abord un petit monde où règne une forte endogamie, une héritocratie plus qu’une méritocratie. En allant observer le dispositif French Tech dédié à promouvoir la diversité sociale, Flécher montre combien l’écosystème des startups et de leurs soutiens est fortement hiérarchisé. Ceux qui n’ont pas les codes sociaux, les réseaux, sont relégués à des formes de soutiens dédiés qui ne permettent pas d’accéder aux meilleurs financements et soutiens. A la division des CSP, des origines, s’ajoute celle du genre. « Le monde des startups demeure un entre-soi masculin ». Bref, les conditions d’accès au monde des startups sont « particulièrement sélectives », voire plus sélectives qu’ailleurs, et bénéficie d’abord à une jeunesse masculine et très privilégiée. 

L’entrée dans l’entrepreneuriat ne se fait pas sous contrainte comme c’est le cas des micro-entrepreneurs ou des travailleurs des plateformes. Bien souvent, elle est surtout une bifurcation professionnelle choisie, « un calcul d’opportunité plus qu’une prise de risque ». Les entrepreneurs que Flécher interroge estiment que la startup n’est pas un entreprenariat comme les autres, d’abord parce que les perspectives d’enrichissement sont plus fortes. Ceux qui se lancent sont à la recherche de prestige et d’enrichissement bien plus qu’ils ne visent à changer le monde. Nombre d’entrepreneurs de startups ne prennent pas autant de risques qu’ils le disent, d’ailleurs. Beaucoup sécurisent leur bifurcation professionnelle, en conservant un emploi salarié en parallèle, en utilisant leurs droits au chômage et surtout en devenant chef d’entreprises salariés. « 64% des créateurs et créatrices de startup de notre échantillon ont choisi de rester “assimilés salariés” en optant pour le statut de chef d’entreprise salarié (contre seulement 10% pour celui d’indépendant) ». Derrière les discours sur le mérite, sur le risque, les entrepreneurs de startups sont « très attachés à la stabilité et à la sécurité »

Marion Flécher s’intéresse bien sûr à ceux qui réussissent et ceux qui échouent dans cet univers entrepreneurial marqué par un fort taux d’échec (qui augmente avec l’ancienneté de l’entreprise, passant de 20% à la fin de la 1ère année à 50% à la fin de 5e année). Les études sur le sujet se sont concentrées sur les facteurs exogènes, notamment les produits qui ne rencontrent pas leurs marchés, plutôt que sur les déterminants sociaux de l’échec. Or l’échec des startups est inégalement distribué, constate la chercheuse. Celles qui rencontrent le succès ont notamment (parmi d’autres) une caractéristique : elles ont bénéficié du soutien des organismes d’accompagnement. « La croissance d’une startup s’inscrit ainsi dans un processus séquentiel et codifié d’étapes interdépendantes »le soutien institutionnel joue un rôle, en apportant une crédibilité, un capital symbolique d’autant plus important que la valeur des entreprises dépend pour beaucoup de croyances, de confiance, de réputation. Or, rappelle la sociologue, les individus ne sont pas également armés pour obtenir le soutien des organismes spécialisés dans l’accompagnement et le financement : « ceux qui détiennent les codes de cet univers franchissent les étapes sans trop de difficultés ». Même constat pour les levées de fonds. Les startups ne sont pas des entreprises rentables. Leur développement repose sur des besoins de financement récurrent et grandissant. Leur parcours ressemble à un parcours d’obstacles très organisés, une épreuve de persuasion et de crédibilité qui repose d’abord sur les qualités techniques et économiques des projets ainsi que sur les qualités sociales des individus qui les portent. Les femmes ont ainsi 2,2 fois moins de chances qu’un homme de réussir à lever des fonds. Les plus diplômés 2 fois plus, ceux qui ont un associé, 5,5 fois plus, ceux qui ont généré un chiffre d’affaires 7 à 24 fois plus. Le pitch, épreuve reine de ce processus, est lui-même très codifié, et nécessite d’en maîtriser les codes. Sans surprise, socialement parlant, la réussite demeure profondément socialement distribuée. Les logiques de cooptation sociale, d’homophilie sociale restent majeures

La sociologie des startupeurs est et demeure avant tout un petit monde qui se reproduit entre eux. Sa méritocratie apparente apparaît comme très factice. Quant à l’échec, non seulement il est inégalement distribué, mais ses conséquences n’ont pas le même coût pour tous les postulants. L’échec l’est beaucoup moins pour ceux qui ont un certain niveau de ressources, de réseaux et qui sont capables de rebondir. Pour beaucoup de ceux qui lancent leurs startups, l’expérience entrepreneuriale est bien plus un accélérateur de carrière qu’autre chose. Finalement, « ceux qui valorisent le risque d’entreprendre sont ceux qui en prennent le moins ». Lancer sa startup est surtout une modalité d’hypersélection sociale, qui réussit surtout aux plus dotés socialement… et écrase les autres qui voudraient y jouer. Car dans ce monde, les individus les moins dotés socialement et issus de milieux sociaux plus modestes, eux, n’ont pas toujours les ressources pour retourner les stigmates de l’échec et en faire une expérience valorisante. Le modèle entrepreneurial n’est pas à portée de tous et son rêve se referme plus fort sur les moins dotés. Au final, rappelle la sociologue, l’espace des startups est un espace de lutte sociale qui favorise ceux qui en possèdent les codes, qui en maîtrisent les codes. Autant de ressources culturelles, relationnelles et économiques qui leur permettent de mieux émerger dans ce monde comme de mieux se retourner en cas d’échec. 

Le mythe de la coolitude

Marion Flécher s’intéresse enfin à la question de l’organisation du travail et ses effets sur les employés des startups. Loin de la coolitude, de la réinvention de l’organisation hiérarchique et autoritaire de l’entreprise traditionnelle, la sociologue montre que le contrôle et la contrainte ne disparaissent pas dans la coolitude des bureaux ouverts. Ces PME à la croissance rapide valorisent surtout l’auto-engagement en valorisant la proximité relationnelle, en brouillant les frontières professionnelles (par le cadre agréable, l’afterwork, le tutoiement, l’informalité des relations sur les messageries instantanées… ) qui semblent atténuer les rapports hiérarchiques. Pourtant, ceux-ci restent bien présents. La proximité générationnelle, la proximité sociale (des jeunes très diplômés sans contrainte familiale partageant souvent goûts et opinions) entre les dirigeants de startups et leurs employés, l’adhésion affective… conduisent à produire un surinvestissement des jeunes travailleurs qui ont souvent là leur première expérience de travail ou de stage. A défaut de contrôle top-down, le contrôle social par les pairs y est très fort. Les contraintes sont intériorisées. Le mimétisme lié à une grande homophilie règne en maître. L’open space sert de panoptique. Les rites managériaux, la gestion par projet, les méthodes agiles produisent des responsabilités étendues et intégrées. L’autonomie organisationnelle et l’interdépendance fonctionnelle renforcent finalement les responsabilités individuelles et collectives. Tout le monde se sent impliqué et rappelle aux autres l’importance de l’implication. 

Plus qu’une autonomie, ces modes de management qui se présentent comme distendus, produisent d’abord une mise en concurrence des salariés. Ceux-ci, monitorés par les systèmes de gestion de projets, sont surveillés en temps réel sur leurs avancés et leurs retards. Au final, l’autonomie est fictive, intégrée. Les indicateurs de performance, les primes et intéressements finissent d’assurer la discipline en favorisant l’émulation collective, où le « groupe devient un puissant levier de pression ». « L’effacement des marqueurs hiérarchique ne signifie pas la fin du contrôle », mais son déplacement vers des formes plus diffuses, insidieuses, qui visent à produire concurrence et adhésion. « En substituant aux logiques du contrôle hiérarchique une logique d’adhésion volontaire, l’entreprise tend à obtenir des salarié.es un investissement d’autant plus fort qu’il est intériorisé, et donc plus difficile à questionner ou contester »

Les startups se révèlent assez peu cools. Les tensions sont nombreuses. Les situations de souffrance aussi. La standardisation des indicateurs, la dépersonnalisation des modes de management invisibilisent les insatisfactions. Quand elles s’expriment, elles sont évacuées par des départs souvent brutaux et rapides. Plus encore, souligne Flécher, les startups produisent une intensification du travail où se mêle surcharge, manque d’encadrement, affinité relationnelle et précarité des employés. Nombre de startups sont d’abord des « boites à stagiaires » abandonnés à eux-mêmes, à qui on demande une réactivité permanente sans structure pour les aider. L’injonction à l’autonomie est la réponse au manque d’encadrement. L’intensité des relations produit une loyauté qui permet l’intensification du travail. La précarité des premiers employés et stagiaires ne leur permet pas vraiment de contester l’organisation, mais au contraire les conduit à s’y plier très vite. Les stagiaires, dociles et investis, doivent valider leur formation. Le turnover ne favorise pas non plus l’émergence de collectifs de résistance. Quand les startups grandissent, l’organisation du travail évolue, les niveaux hiérarchiques se multiplient, les règles et processus se structurent. Le cadre de travail se standardise, la pression des indicateurs se fait plus forte. Le cadre affectif se distant avec l’arrivée d’innombrables employés. On passe d’un modèle d’engagement s’appuyant sur l’attachement affectif des employés et un contrôle par les pairs, à un modèle bureaucratique, avec un contrôle sur des procédures formelles. « Les startups finissent par devenir ce contre quoi elles avaient initialement été créées ». La coolitude fait long feu. Flécher note cependant que le modèle de l’engagement produit de la loyauté et une faible politisation. Les employés relativisent leur situation. Le cadre de travail se révèle peu propice à l’émergence de mobilisations collectives. La proximité relationnelle, générationnelle, sociale, affective… entre les entrepreneurs et leurs équipes est aussi souvent une proximité idéologique, souligne la sociologue, où les mobilisations demeurent dépréciées. 

Flécher montre très bien comment le mythe méritocratique du startupeur permet d’invisibiliser les grandes inégalités d’accès à ce statut entrepreneurial et les mécanismes de reproduction sociale qui le structurent. Le mythe de l’entreprise libérée permet d’invisibiliser les logiques d’exploitation, de contrôle et de segmentation du salariat qui y ont cours. Le mythe du risque et du mérite permet d’occulter les conditions socioéconomiques très élitistes qui rendent possible l’activité d’innovation. Pour les jeunes cadres diplômés, la startup est un accélérateur de carrière. Le mythe d’une organisation agile et horizontale est vite rattrapé par sa réalité. « L’entreprise libérée est moins une réalité qu’une fiction mobilisatrice et performative, qui produit ses effets non parce qu’elle est vraie, mais parce qu’elle est partagée et incorporée par les travailleur.ses »

La startup n’a rien d’une subversion des logiques du capitalisme. Au contraire, elle incarne sa réalisation la plus aboutie, entre homélie et boîte de Skinner, comme nous le disions en 2019 en lisant Dan Lyons et Arthur de Grave. Une forme d’organisation qui renforce son élitocratie tout en la faisant disparaître sous les mythes du mérite. Une forme d’organisation qui renforce l’exploitation par l’engagement, en faisant intégrer les règles de la performance à ses employés pourtant plus souvent plus précarisés et préssurés qu’ailleurs. On comprend que le capitalisme néolibéral apprécie et valorise ce modèle finalement, puisqu’elle semble, plus que l’entreprise fordiste d’antan, l’acmée de son expression la plus aboutie. Celle qui permet à la fois une démultiplication de la croissance, de la docilité et du rendement. 

Hubert Guillaud

La couverture du livre de Marion Flécher, Le monde des startups.

MAJ du 31/03/2026 : En France, les salariés des startups commencent à réagir plus fermement et plus collectivement qu’auparavant aux contournements du code du travail et aux burn-out, rapporte Le Monde.

L’IA ne réforme pas les institutions démocratiques, elle les détruit

L’IA n’est pas qu’un outil, elle est un outil pour détruire les institutions démocratiques, argumentent les deux professeurs de droit Woodrow Hartzog et Jessica Silbey dans une riche démonstration. Comme le synthétise le journaliste Gerald Holubowicz pour Synth Media, le déploiement de l’IA atrophie l’expertise des institutions. « Quand l’IA se trompe, les institutions paient le coût de la correction et quand elle « réussit », elles s’appauvrissent en expertise ». Elle favorise le « court-circuit décisionnel » en automatisant des choix fondamentalement moraux, aplatit les hiérarchies institutionnelles et rend invisibles les règles qui donnent leur sens aux institutions. « Elle est par ailleurs incapable de prendre des risques intellectuels ni de faire montre d’une forme de désobéissance créatrice. » Enfin, elle favorise l’isolement. Et en érodant les liens interpersonnels, elle fait disparaître la friction, qui est la condition même de l’adaptabilité institutionnelle. Pour Hartzog et Silbey, la destruction des institutions a déjà commencé, notamment avec le Doge et le développement de systèmes d’IA et algorithmiques dans les administrations américaines. Des déploiements, « sans cadre légal clair, où l’expertise humaine a été marginalisée et les rôles institutionnels de résistance, supprimés ».« Ce que Hartzog et Silbey laissent entrevoir en creux, c’est le scénario d’une oligarchie technologique progressivement substituée à la représentation démocratique ».

Pour les chercheurs, l’IA fragilise l’Etat de droit en renforçant l’opacité des décisions. La société civile, et la démocratie elle-même, reposent sur la transparence, la délibération et le jugement humain. L’IA corrode ces trois éléments. En ce sens, l’IA n’est pas qu’un outil, elle est une force institutionnelle qui sape les institutions en restructurant les hiérarchies décisionnelles, en dégradant les capacités d’expertise et en modifiant les relations sociales des acteurs. Parce que les institutions dépendent de ces éléments, l’IA ne se contente pas de les fragiliser ; elle les dissout. Les juristes affirment que, sans garde-fous pour contraindre l’IA à servir les institutions plutôt qu’à les remplacer, nous serons confrontés à un choix radical : soit les institutions survivent, soit la conception actuelle de l’IA disparaît.

World Monitor 

« Internet nous incite désormais à la surconsommation comme comportement par défaut : regarder des saisons entières de séries télévisées d’affilée, suivre tous les matchs de football simultanément sur quatre écrans. (…) Ce bombardement total est en partie une capitulation face à Internet, sa logique et ses algorithmes – une sorte de mort attentionnelle où l’individu n’est plus submergé : il a capitulé. » Dans notre tentative de garder l’équilibre, nous perdons pied. Nous ne faisons plus défiler l’information, elle défile devant nous, comme le propose le World Monitor, nous rendant toujours plus impuissants et malheureux. Charlie Warzel

Un crédit pour les transferts entre amis

Cash App
Lors de son intervention aux rencontres de l'éducation financière, Jacques Attali fustigeait le crédit à la consommation, le qualifiant d'abomination. Quelle serait alors sa réaction à la découverte de la dernière nouveauté de Cash App, qui autorise ses utilisateurs à recourir au paiement fractionné pour leurs transferts vers leurs proches ?

Disponible uniquement pour les clients éligibles, comme sa version antérieure qui permettait déjà de financer les achats réalisés avec la carte de débit de la marque, la nouvelle fonction propose donc d'appliquer le même mécanisme sur les versements à un particulier ou les contributions aux cagnottes mises en place pour des dépenses de groupe… jusqu'à 30 jours après la transaction, ce qui se traduit concrètement par un re-provisionnement du compte a posteriori, du montant effectivement alloué.

Dans la pure tradition des solutions de BNPL, celle-ci étant pilotée par l'entité spécialisée Afterpay acquise en 2021 par Block (créatrice de Cash App), la dette ainsi contractée ne porte pas d'intérêts. Seuls des frais fixes (7,5% du total) sont prélevés à la mise en place… et des pénalités – soigneusement dissimulées dans la communication officielle – sont exigées en cas de retard. Pour plus de flexibilité, le demandeur peut choisir de régler son dû par traites hebdomadaires ou en une fois en fin de période.

Afterpay for P2P Transfers

L'initiative constitue une surenchère inquiétante par rapport au partenariat entre Klarna et DoorDash, promouvant le paiement en 4 fois des courses du quotidien, qui avait engendré quelques réactions virulentes. Il faut croire que les acteurs du domaine sont maintenant en panne de croissance et qu'ils sont prêts à toutes les bassesses pour continuer à justifier leurs valorisations astronomiques, quitte à surfer sans vergogne sur la fièvre irrépressible du crédit – sous toutes ses formes – des américains.

Le prétexte classique de tous ces instruments – l'avance sur salaire tend de plus en plus à dériver aussi dans cette direction – autour de l'accompagnement, présenté comme salutaire, des personnes confrontées à une mauvaise passe ne résiste pas longtemps à l'analyse. Le niveau de difficulté dans lequel se trouve celle ou celui qui sollicite un prêt pour ses besoins de première nécessité, y compris sociaux, relève d'une situation de crise que l'ajout d'un engagement supplémentaire ne fera qu'aggraver.

Les plaintes en hausse sur la gestion de sinistre

Billet de blog Celent
Le cabinet Celent s'inquiétait récemment des dernières statistiques américaines démontrant une croissance significative du nombre de plaintes contre les assurances, dont la majorité concernent les sinistres. Voici une occasion pour les analystes d'offrir quelques recommandations aux compagnies, élémentaires mais importantes.

Les résultats pour 2025 de l'enquête annuelle menée par l'association sectorielle aux États-Unis réservent une petite surprise (du moins pour moi). En effet, si les refus de prise en charge et les conditions contestées d'indemnisation figurent logiquement dans le tiercé de tête des motifs du mécontentement exprimé, pour 12 et 13% de l'ensemble des réclamations, respectivement, ce sont les délais de traitement des dossiers qui occupent la première marche du podium, et de loin, avec 22% des cas.

Pourtant, à bien y réfléchir, ce constat n'est pas aussi étonnant qu'il y paraît. Tout d'abord, la relation client étant ce qu'elle est (épisodique), les récriminations des assurés portent naturellement sur deux de ses moments clés : le règlement de la prime et le sinistre. L'un tend à éviter les frictions, notamment grâce à l'étalement des paiements et, dernièrement, au ralentissement des augmentations tarifaires (outre-Atlantique). Le second concentre logiquement le mécontentement, même s'il est moins fréquent.

À ces caractéristiques spécifiques à l'industrie s'ajoutent les conséquences d'une évolution sociétale qui touche tous les domaines. Les consommateurs sont désormais accoutumés à des services « digitaux » instantanés qui les rendent automatiquement impatients vis-à-vis des entreprises incapables de satisfaire leurs exigences universelles de réactivité immédiate. Le problème est en outre renforcé par l'incompréhension du fonctionnement de l'assurance et de ses mécanismes parfois longs.

Celent – Claims Complaintes

Sur la base d'une telle analyse, les solutions proposées par Celent, qui n'ont donc rien de révolutionnaire, portent sur deux dimensions complémentaires : l'accélération et la transparence. Un, il n'est plus temps de tergiverser pour les acteurs qui ne permettent pas encore aujourd'hui de pré-déclarer les sinistres sur une plate-forme en ligne. Mais ce n'est pas suffisant. Il faut l'assortir d'un suivi : acquittement de réception de la demande, description des prochaines étapes et notification sur chacune d'elles.

Deux, la gestion documentaire doit être modernisée. La gestion d'un dossier implique fréquemment l'analyse de pièces justificatives en tout genre – la santé est particulièrement propice à ces formalités – et même si elle reste assumée par une personne, des outils sont aujourd'hui capables de leur faciliter la tâche, par exemple en préparant un résumé ou en relevant les éléments saillants nécessaires à une décision.

Trois, enfin, la détection de la fraude commence dès le contact initial. Idéalement, elle autorise un filtrage précoce des cas suspects, sur lesquels seuls seront mis en œuvre les contrôles complets et chronophages, les autres suivant un processus expéditif. Pour les responsables timorés, il devrait être possible de régler la sensibilité du filtre, de manière à monter en puissance progressivement, à mesure que la confiance s'installe.

Je crois naïvement que ces conseils ne sont plus utiles en 2026, tellement ils semblent triviaux. Mais si, comme le laisse entendre Celent, des assureurs ne les ont pas encore implémentés, il devient urgent de planifier les chantiers car la satisfaction et la fidélité des clients sont en jeu. Et, si vous hésitez encore, notez que les pistes d'optimisation évoquées auront également un impact positif sur votre efficacité opérationnelle.

La FinTech française en 2026

France FinTech
Aujourd'hui premier avril, avait lieu la onzième édition du traditionnel FinTech R:Evolution, l'événement unique et incontournable de l'écosystème français. Comme chaque année, cette journée propice aux découvertes et aux rencontres me procure une occasion de prendre le pouls du secteur et d'en dégager les grandes tendances.

D'emblée un constat s'impose immédiatement sur la situation de la FinTech dans l'hexagone. Je ne sais pas si c'est exactement ce que le sous-titre « Flight to Quality » sous-entendais, mais tous les participants s'accordent sur un changement radical d'appréciation des startups – probablement pas exclusivement de la finance, d'ailleurs. Sauf domaines spécifiques (où l'investissement massif reste essentiel), la focalisation historique sur l'hyper-croissance cède la place à une priorité à la rentabilité.

Et le message n'est pas qu'un vœu pieux : je ressors impressionné par le nombre de jeunes pousses qui confirment qu'elles sont aujourd'hui a minima à l'équilibre… et préservent cet objectif en modérant ou en étalant dans le temps leurs ambitions d'expansion. C'est indubitablement une excellente nouvelle pour les intéressées, mais je regrette qu'elle relègue l'innovation au second plan, ce qui, incidemment, se traduit par une forme d'invisibilisation des acteurs émergents aux velléités disruptives.

FinTech Revolution 2026 – Flight to Quality

Le deuxième thème à retenir, évidemment inévitable, est celui de l'intelligence artificielle. Elle est partout, dans les discours et dans les promesses. Cependant, contrairement à ce que je craignais et ce que laisserait croire l'emballement médiatique, elle ne fait l'objet d'aucun fantasme et n'est, en général, considérée que comme un outil d'optimisation et de rationalisation au service d'une stratégie. Il n'en reste pas moins que, en dépit des discours qui martèle que les emplois ne sont pas menacés et qu'il s'agit de redéfinir les missions des collaborateurs, les économies générées sur la masse salariale sont dans toutes les têtes, en particulier à l'aune des exigences de rentabilité.

L'entretien avec le responsable de l'IA de Revolut donnait un éclairage sur le pragmatisme en vigueur dans ce registre. David Abitbol évoquait ainsi la démarche imposée aux porteurs de projet d'identifier au préalable l'opportunité métier visée. Ensuite, la règle est : « développer vite, puis réussir ou échouer vite ». C'est ainsi qu'un agent, qui prend dorénavant des décisions en totale autonomie, est capable de traiter chaque jour, en temps réel, 80 000 tâches d'analyse de transactions suspectes, en respectant bien sûr les contraintes réglementaires d'explicabilité et de traçabilité.

FFT26 – Revolut

Dernier sujet sur lequel j'ai souhaité rafraîchir mes connaissances, le web3 et la blockchain, qui était plutôt abordés sous l'angle des stablecoins. Et je dois avouer que je ne comprends toujours pas pourquoi des organisations pourtant sérieuses s'enferrent dans ces concepts. Ce que j'entends est un besoin de facilitation des échanges transfrontaliers et d'accélération des transactions… Pourquoi faudrait-il de nouvelles technologies, immatures et structurellement inefficaces, pour résoudre ce problème ?

D'autres secteurs parviennent depuis longtemps à gérer des échanges instantanés, avec des volumes conséquents, en s'appuyant sur des outils traditionnels, éprouvés, bon marché et que maîtrisent des hordes de professionnels de l'informatique. Le summum était atteint quand était mentionné comme un exploit la capacité d'un « smart contract » à enregistrer simultanément le règlement et la livraison de titre. C'est pourtant la notion de transaction banalisée dans les systèmes d'information depuis 40 ans.

En synthèse, cette édition 2026 révélait la maturité extraordinaire de l'écosystème FinTech français, laissant au passage entrevoir quelques éléments de comparaison par rapport aux établissements historiques (je pense notamment aux informations partagées par Revolut et Memo Bank sur la construction de leur propre socle technologique en interne). Je suis néanmoins surpris de la place minime accordée à l'assurance au cours de cette journée, alors qu'il me semble qu'elle est la plus dynamique aujourd'hui.

IA et dette technique

Prisonnier de la dette technique
La lecture d'un article d'InformationWeek sur le sujet m'inspire aujourd'hui une réflexion sur la dette technique des systèmes d'information à l'ère de l'intelligence artificielle, à la fois sous l'angle du handicap qu'elle constitue pour les projets et de l'effet d'accumulation qui risque de l'amplifier si elle n'est pas vite placée sous contrôle.

Dans le premier registre, les impacts des composants historiques, mal documentés, difficilement accessibles par d'autres logiciels (faute d'API à l'état de l'art), dont les gisements de données sont silotés et étanches… sont, je pense, largement identifiés. Pénalisant l'agilité globale de l'organisation, ils limitent le potentiel de l'IA – de la même manière qu'ils contraignent depuis toujours les capacités d'innovation – qui, pour délivrer sa pleine valeur, requiert une architecture transparente et cohérente.

Mais un second niveau de préoccupation devrait donc saisir les responsables informatiques. Car le déploiement de plates-formes conversationnelles, voire d'agents, au-dessus de l'existant est un facteur critique d'aggravation de la situation. Non seulement ces nouveaux modules vont-ils ajouter des couplages supplémentaires avec les briques obsolètes mais, de plus, ils ont tendance à interagir avec plusieurs d'entre elles, créant de la sorte des dépendances imbriquées plus ou moins inextricables.

Par ailleurs, le danger de perte de visibilité guette les initiatives, bien que la réglementation intervienne en principe pour imposer sa maîtrise. Quoi qu'il en soit, il faut impérativement conserver la mémoire des modalités d'implémentation des applications… et la maintenir à jour au fil des évolutions. Cette exigence implique en outre de définir clairement les responsabilités, ce qui va souvent conduire à faire de la dette technique une problématique concernant autant les lignes métiers que la DSI.

Enfin (pour ce court aperçu), une autre dimension du sujet reste à prendre en compte, sur les solutions d'intelligence artificielle elle-même. En raison de la rapidité des progrès technologiques, de la volatilité des produits et des aléas touchant les fournisseurs mais également de la dérive naturelle des modèles mis en œuvre, qui doivent être ré-entraînés continuellement, une nouvelle application devient presque immédiatement un passif additionnel, parfois avant même que son installation ne soit terminée.

Bien entendu, comme le souligne l'auteur de l'article que je citais en introduction, il ne peut être question de rembourser intégralement la dette avant de commencer à exploiter les opportunités de l'intelligence artificielle. Ce serait la paralysie assurée. En revanche, elle doit absolument être identifiée, mesurée et placée sous surveillance active, assortie de mesures de correction opérationnelles dès qu'une occasion se présente.

Le boulet de la dette technique

HSBC se pique d'hyper-personnalisation

HSBC
Le responsable de l'innovation (entre autres) de HSBC partageait il y a quelques jours ses réflexions sur l'opportunité que crée selon lui l'intelligence artificielle de réaliser enfin la promesse d'hyper-personnalisation de la relation bancaire. Le principe est certainement séduisant… encore faut-il s'accorder sur son domaine d'application.

Si j'étais cynique, je dirais que, une nouvelle fois, il n'y a rien de neuf sous le soleil. Ceux qui se souviennent de l'emballement médiatique pour la science des données ne seront pas surpris de retrouver avec la fièvre de l'IA les mêmes rêves de connaissance intime du contexte et des attentes des clients et, sur cette base, d'une capacité à leur offrir les services dont ils ont besoin… sans même attendre que ces derniers soient exprimés. Après les précédents ratés, peut-être cette fois sera-t-elle (enfin) la bonne ?

Les prémices de la proposition n'ont pas changé. Les consommateurs sont accoutumés à des préconisations individualisées, correspondant précisément à leurs préférences, dans leur vie « digitale » quotidienne, sur les plates-formes de musique ou de vidéo en ligne, sur les réseaux sociaux, sur les sites d'e-commerce… Ce qu'ils apprécient là, il le demandent donc aussi à leur banque… qui possède désormais les moyens de les satisfaire grâce à ses vastes gisements de donnée et à l'intelligence artificielle.

Je ne m'étendrai pas sur la validité de cette hypothèse, admise comme une évidence mais qui mériterait probablement d'être tempérée, ou, a minima, qualifiée, dans un registre aussi sensible que l'argent. La particularité pour HSBC – comme tous les établissements traditionnels – est de ne pas opérer exclusivement via internet. La stratégie concerne donc simultanément les canaux « digitaux » et les conseillers humains, équipés en vue d'atteindre le même niveau de personnalisation.

HSBC – Hyper-personnalisation

Il reste maintenant à voir comment se traduit la vision ainsi esquissée. Et force est de constater que, de ce point de vue, le discours est beaucoup plus flou. Certes il est question de déployer des solutions d'intelligence artificielle générative, d'analyse statistique, d'investissement en ligne… voire de productivité pour les employés. Mais en quoi cette débauche de technologie est réellement conçue pour ajuster les réponses formulées aux spécificités de chaque client ? Nous ne le saurons pas.

Il est bien question d'une fonction budgétaire dans l'application mobile distribuée à Hong Kong (donc de portée limitée, à l'échelle du Groupe) qui, outre la faculté éculée et généralement considérée inutile de permettre un suivi des flux financiers, est également capable de prodiguer des conseils pro-actifs alignés sur les objectifs et les comportements de l'utilisateur. Hélas, immédiatement, il est question de services, ce qui laisse entendre que la cible prioritaire de cette initiative est la vente de produits. Je ne pense pas que ce soit ce que demandent la majorité des clients à leur banque…

La fraude sur la mort

Décès
Sujet rarement abordé, bien que chacun d'entre nous soit amené à être concerné un jour, le décès représente une opportunité extraordinaire pour les escrocs de tout poil, qui profitent des progrès de l'intelligence artificielle générative pour démultiplier leur capacité de nuisance. Les banques pourraient-elles offrir un rempart contre cette menace ?

Dans le monde contemporain, les comptes en ligne constituent une composante universelle de l'identité des individus et, dans les domaines les plus sensibles (finance, santé, administration publique…), leur création et leur accès sont soumis à des contrôles stricts, aux méthodes fiables généralisées, afin d'éviter les détournements. Malheureusement, les sites et applications web concernés, conçus exclusivement pour des usagers vivants, se trouvent exposés à tous les dangers face à leur mort.

Même dans les rares cas où une procédure spécifique est définie, les traitements associés reposent souvent sur des interventions humaines faillibles et toujours sur des justificatifs que les technologies disponibles aujourd'hui sont en mesure de falsifier avec un très haut niveau de vraisemblance et une facilité déconcertante. Comme l'approche retenue dans ces circonstances est en général une simple transmission de propriété du compte, une personne malintentionnée peut de la sorte s'en emparer totalement.

En outre, le problème croît exponentiellement quand les services visés sont interconnectés avec d'autres, notamment quand le profil créé sur une plate-forme peut être utilisé pour la connexion à de multiples applications, mises ainsi en danger indépendamment de leur propre politique. Notons également que le risque intervient que la victime soit effectivement décédée ou non, la première hypothèse rendant évidemment encore plus difficile l'authentification de la demande d'accès.

Or cette faiblesse généralisée pourrait se transformer en avantage concurrentiel pour un système de gestion d'identité fédéré tel que celui que les banques françaises essaient de promouvoir actuellement. B.connect se présentant déjà comme un dispositif particulièrement sécurisé grâce à son adossement aux fonctions d'authentification mises en œuvre sur les applications bancaires, il ne resterait plus à ses concepteurs qu'à lui ajouter un mécanisme de gestion du décès apportant des garanties équivalentes.

Les établissements financiers sont déjà confrontés aux situations de décès et elles ont mis en place de longue date les capacités nécessaires à leur prise en charge, dans les règles de l'art et avec toutes les protections nécessaires. Il ne devrait donc pas être très complexe de faire profiter de cette expertise existante les enseignes affiliées à b.connect. Incidemment, l'option pourrait aussi devenir une porte d'entrée pour engager une discussion avec les clients sur leur vision globale de leur succession…

B.Connect

L'IA dans la gestion de patrimoine

Bank of America
La relation en face à face avec un conseiller dédié reste centrale dans la banque privée et, en grande partie, dans la gestion de patrimoine. Mais, pour Bank of America, ce n'est pas une raison pour ne pas lui insuffler un vent d'intelligence artificielle, comme dans tous ses métiers. Simplement, elle se met ici au service des interactions humaines.

Désormais déployée globalement dans les branches de gestion de patrimoine de Merrill et de la maison mère, ainsi que dans la banque privée de cette dernière, la nouvelle plate-forme, qualifiée de « AI-Powered Meeting Journey », est donc destinée à accompagner l'expérience des réunions entre clients et conseillers, dans leurs trois principales phases : la préparation, la conversation proprement dite et, enfin, la synthèse des échanges et l'aide à la mise en œuvre du plan d'action élaboré en séance.

Concrètement, l'assistant intelligent effectue d'abord les recherches préalables et rassemble toutes les informations utiles sur le client, de manière à établir un dossier prêt à l'emploi pour engager une interaction mieux personnalisée et plus productive. Puis, avec l'accord express des participants, il capture les discussions et rédige un compte-rendu complet à l'issue de la session. Dernière étape, il identifie les décisions prises et organise en conséquence les tâches à réaliser et la documentation à produire.

Merrill AI-Powered Meeting Journey

La démarche de Bank of America m'inspire des réactions contrastées. Je passe d'abord sur ce qui me semble être une limitation majeure (et incompréhensible) : le traitement automatisé des conversations n'est apparemment disponible que pour les réunions à distance. En dehors de ce détail gênant (temporaire ?), le principe, que j'assimile à un super-secrétaire « digital » paraît incontestablement séduisant.

En revanche, quel est l'objectif poursuivi ? Selon l'institution, il s'agit – comme toujours avec l'IA, faut-il croire – de donner plus de temps aux conseillers en vue de soigner la relation avec leurs clients. Mais, dans le contexte de la banque privée, n'est-ce pas par définition le cœur de leur mission ? Doit-on comprendre que cette dernière est aujourd'hui mal remplie ou bien les collaborateurs devront-ils prendre en charge des portefeuilles plus fournis et démultiplier de la sorte leur productivité individuelle ?

À l'inverse, je m'interroge : si ces outils à base d'intelligence artificielle accroissent la performance des professionnels, leur permettant de mener un entretien au cours duquel il peuvent se focaliser sur la situation et les attentes de leur interlocuteur, en ayant sous la main tout le contexte nécessaire, puis de décliner plus ou moins automatiquement les actions décidées… pourquoi seraient-ils réservés à la gestion de patrimoine ? Ils pourraient maintenant contribuer à offrir un service haut de gamme à tous…

Liens vagabonds : L’irrésistible ascension des micro-dramas

Et si, au lieu de lire un livre dans le métro ou de scroller à l’infini sur les réseaux sociaux, votre trajet se transformait en un instant d’évasion, le temps de quelques stations ? Pour Krystof Safer, fondateur de Vertifilms, c’est la promesse de ces épisodes verticaux de moins de trois minutes, pensés pour s’insérer […]

The post Liens vagabonds : L’irrésistible ascension des micro-dramas first appeared on Méta-media | La révolution de l'information.

RSL : Vers un nouveau standard mondial pour la rémunération des contenus face à l’IA

L’ère du « grand compromis » entre éditeurs et moteurs de recherche touche à sa fin. Avec l’essor de l’intelligence artificielle générative, les modèles répondent directement aux utilisateurs en s’appuyant sur la valeur produite par les médias, tandis que le trafic sortant s’effondre. Face à ce constat de « faillite du marché », une solution […]

The post RSL : Vers un nouveau standard mondial pour la rémunération des contenus face à l’IA first appeared on Méta-media | La révolution de l'information.

Visa se lance dans la gestion d'abonnements

Visa
Initialement affaire de startups, qui ont rapidement conquis les grands groupes du secteur depuis 2018, le pilotage des abonnements dans les applications de banque au quotidien se fraie un difficile chemin chez les fournisseurs de moyens de paiement. Après plusieurs initiatives chez Mastercard, Visa en présente aujourd'hui sa propre déclinaison.

Le principe, dont la suédoise Minna Technologies était une des premières à le concrétiser, consiste à identifier les abonnements souscrits par une personne à partir d'une analyse de son historique de transactions – plus spécifiquement, la détection des ponctions récurrentes – de manière à l'éclairer sur ses engagements en cours et, le cas échéant, à prendre des mesures. Dans la plupart des implémentations, des options de résiliation ou de changement de fournisseur sont proposées dans ce but.

Pas de grande originalité chez Visa… mais quelques limitations. Son offre à l'intention des émetteurs reprend donc le concept tel quel, laissant à ceux-ci la responsabilité d'en définir l'intégration dans leurs plates-formes « digitales ». La recherche des abonnements ne porte cependant que sur les opérations par carte, à l'exclusion des prélèvements ou équivalents, et la faculté d'intervenir directement sur les indésirables, disponible grâce à un partenariat avec Pinwheel, ne concerne hélas que 150 enseignes.

Visa Enhanced Subscription Manager

La solution répond évidemment à un besoin universel, quoique pas nécessairement explicite. Dans une économie qui bascule chaque jour un peu plus vers un modèle de services, les paiements périodiques prennent une place importante dans les budgets des consommateurs. Un inconvénient majeur de cette tendance – qui est également un avantage du point de vue des marchands peu scrupuleux – est la perte de transparence qu'elle entraîne, sur le coût réel et sur les versements, qui deviennent invisibles.

Naturellement, Visa rejoint le mouvement un peu tard sur un marché parfois encombré – en France, par exemple, Papernest a séduit la quasi totalité des établissements, avec une approche certes différente. Les faiblesses évoquées ne sont pas obligatoirement rédhibitoires par rapport à l'ambition considérée et la position de l'entreprise au cœur des réseaux de paiement est susceptible d'optimiser le fonctionnement de ses algorithmes de traitement des données, donc de la performance de l'outil.

En revanche, il faudrait maintenant que les institutions financières qui adoptent ce genre de produit cherchent à en exploiter tout le potentiel. Fournir une liste des abonnements en cours est un bon début… mais il mériterait d'être enrichi afin d'encourager une réflexion sur les usages sous-jacents, qui pourrait ensuite s'ouvrir sur une perspective étendue de gestion des finances personnelles. De ce point de vue, la possibilité de résilier rapidement fait partie du champ… mais elle ne couvre pas toutes les opportunités, ne serait-ce que parce que son recours n'est qu'occasionnel.

« Nous avons une compréhension expérientielle des algorithmes »

Les algorithmes façonnent profondément l’expérience utilisateur sur les plateformes numériques. La recherche sur la compréhension des algorithmes et de leurs effets par les individus se développe rapidement, mais manque d’un cadre cohérent, estiment les chercheurs Emilija Gagrčin, Teresa K. Naab, Maria F. Grub dans un article pour la revue New Media & Society

Dans une analyse de la littérature sur la culture algorithmique (algorithmic litteracy), les chercheurs estiment que celle-ci s’acquiert par cycles d’apprentissages expérientiels. Ils proposent un cadre d’analyse pour mieux la saisir en montrant leur dimension cognitive (avons-nous conscience du filtrage réalisé, des données d’entrées, de leur objectifs et de de leur impacts), affective (selon qu’on en apprécie les résultats, qu’on les appréhende, ou qu’on s’y résigne), comportementale (les façons dont on se comporte avec les systèmes, qu’on s’y alligne, qu’on s’y soumette, qu’on tente de les subvertir ou d’y résister…). Mais ce sont là autant de pratiques dont on a du mal à mesurer l’efficacité, et qui relèvent souvent de pratiques plus personnelles que collectives. 

Les chercheurs posent la question de savoir ce que produit la littératie algorithmique sur les usagers, par exemple si celle-ci produit une meilleure visibilité, un meilleur contrôle des recommandations ou des formes nouvelles de mobilisations politiques. « L’adoption inégale de l’apprentissage algorithmique risque d’exacerber les inégalités existantes au sein des différentes couches de la population ». Ils soulignent en conclusion, que la compréhension des algorithmes est profondément liée à « l’apprentissage expérientiel », un processus par lequel la connaissance est créée par la transformation de l’expérience.  

Reste à savoir si à mesure que les systèmes de recommandations se complexifient, cet apprentissage expérientiel, sera encore possible ? 

Face à l’AIification des recommandations, il est probable que notre compréhension des paramètres (ou le fait de croire qu’on puisse agir sur eux) se dilue. Comme nous le disions en évoquant le passage à l’IA des systèmes de recommandation, « les utilisateurs voudraient comprendre les règles qui semblent devenir de plus en plus obscures, et les laissent avec de moins en moins de pouvoir pour s’y adapter ». Bref, notre compréhension expérientielle des algorithmes risque d’être de plus en plus difficile à mesure que leurs fonctionnement se complexifient.

Via Algorithm Watch.

Aviva arrive sur ChatGPT

Aviva
Depuis la présentation par OpenAI de sa place de marché d'applications tierces pour ChatGPT, les institutions financières rivalisent de vitesse pour figurer (parmi) les premières à s'y installer. Inévitablement, après Experian (pour un comparateur) et BBVA (pour des informations sur la banque), un assureur rejoint le club : Aviva.

Comme avec ses prédécesseurs, il ne faut pas s'attendre à des miracles d'innovation avec cette itération précipitée. La solution – qui sera effectivement disponible d'ici quelques semaines – se contente donc de décliner le principe de la demande de simulation, pour des contrats habitation, via l'interface conversationnelle de la plate-forme d'IA générative. En arrière-plan, c'est le moteur de l'offre en ligne existante Signature qui prend en charge les traitements « métier » de bout en bout.

Concrètement, l'utilisateur est invité à fournir les informations pertinentes destinées à cadrer son besoin – nom, adresse (à partir de laquelle toutes les données importantes de la propriété sont dérivées automatiquement), coordonnées de contact, type de couverture souhaitée (par exemple avec ou sans le mobilier)… En fin de parcours, qui prend vraiment moins de 5 minutes, le robot restitue un devis complet. Le cas échéant, un lien permet d'enchaîner avec la souscription, sur le site web de la compagnie.

Aviva on ChatGPT

Au risque de me répéter, la proposition de valeur de l'application promise par Aviva semble extrêmement limitée. À la fois parce qu'elle n'apporte pas de bénéfice majeur par rapport au service web traditionnel – y compris du point de vue des interactions, au vu du nombre réduit d'éléments d'information recueillis – et parce que sa mise en œuvre passe par une étape d'installation dans ChatGPT qui, bien que triviale, introduit une petite friction difficilement acceptable pour un usage ponctuel, sinon unique.

En revanche, l'assureur adopte une posture d'innovation qui laisse entrevoir une vision plus réaliste et plus pragmatique que celle des autres acteurs dans la même situation. En effet, il indique clairement que son initiative est un galop d'essai, qui servira à déterminer de futures extensions, notamment à d'autres produits de son catalogue, en fonction des comportements des premiers adeptes. Notons qu'Aviva n'en est pas à ses débuts en tant qu'éclaireur sur un nouveau canal, puisqu'elle s'était déjà distinguée, par exemple, avec son « skill » pour Alexa. L'expérience est peut-être profitable…

Les systèmes d’IA sont-ils compatibles avec la protection des données ? 

Paul Bouchaud et Pedro Ramaciotti, chercheurs au CNRS et à Sciences Po rappellent dans une stimulante tribune pour Tech Policy Press, que certaines données personnelles sensibles sont protégées par le RGPD, comme les opinions politiques, les convictions religieuses, l’orientation sexuelle, l’origine ethnique, les données biométriques (sauf exceptions limitées). Le problème, désormais, c’est que les systèmes d’IA savent parfaitement déduire ces caractéristiques pour fonctionner… tant et si bien qu’il devient difficile de séparer le profilage politique délibéré et involontaire, estiment-ils. Les systèmes d’IA, parce qu’ils ont accès à de riches traces comportementales, peuvent reconstituer très précisément des informations protégées. 

Dans ce continuum de la réidentification ciblée des utilisateurs, on trouve par exemple le système publicitaire de X. En juin 2025, AI Forensics a montré que X permettait aux annonceurs de cibler – ou d’exclure – les utilisateurs en fonction de caractéristiques protégées. « Par exemple, TotalEnergies (l’un des principaux fournisseurs d’énergie français) excluait de son ciblage publicitaire sur la plateforme les utilisateurs intéressés par les personnalités politiques écologistes et les produits casher ; Dell excluait les utilisateurs interagissant avec du contenu étiqueté « #lesbienne ». La Commission européenne a elle-même exclu les affiliations politiques de ses publicités ciblées, lesquelles identifiaient les utilisateurs par des étiquettes telles que « fasciste » et « communiste » fournies par X. En classant délibérément les utilisateurs dans des catégories correspondant directement à leurs opinions politiques, leur orientation sexuelle et leurs convictions religieuses (sous forme d’étiquettes mises à la disposition des annonceurs), ce système semble enfreindre à la fois le RGPD et le DSA qui interdisent explicitement le ciblage publicitaire fondé sur des données sensibles. Neuf ONG ont depuis déposé plainte auprès des coordinateurs nationaux des services numériques. Mais, il s’agit là du cas le plus flagrant de profilage actif – et le plus simple à corriger : supprimer purement et simplement les étiquettes de catégories sensibles du système publicitaire.»

Mais le profilage n’est pas toujours aussi direct soulignent les chercheurs. Par exemple, le système de modération participative de X, les Notes de communauté, fonctionne depuis un algorithme qui doit déduire la position idéologique des utilisateurs, non pas à partir de ses déclarations, mais automatiquement à partir de ses évaluations des notes des autres. Ce spectre politique, qui correspond aux échelles des sondages, n’a pas été codé, il émerge des données comme une dimension permettant de prédire le mieux quels utilisateurs sont d’accord avec quelles notes, expliquent-ils dans leur article de recherche. « Le système déduit l’opinion politique du comportement non pas comme un effet secondaire, mais comme le mécanisme spécifié par les créateurs et nécessaire à son fonctionnement ». Meta, Youtube, TikTok et nombre d’autres plateformes ont déployé leurs propres systèmes de modération communautaire dans le même but : créer un consensus par delà les clivages politiques, ce qui nécessite donc de déterminer la position politique de chaque utilisateur. « Ce qui a commencé comme une expérience sur une seule plateforme devient une infrastructure industrielle, et avec elle, l’inférence systématique des opinions politiques à grande échelle ». 

Quels que soient les avantages pour la modération de contenu participative – qui a des limites importantes, comme le montrent les chercheurs (voir également dans notre veille) -, « ces systèmes sont fondamentalement incompatibles avec les lois sur la protection des données, car ils calculent les positions idéologiques de millions d’utilisateurs sans consentement explicite ». La conformité exigerait néanmoins des mesures claires : soit obtenir le consentement des participants, soit abandonner purement et simplement ces systèmes. 

Mais la tension peut être encore plus profonde, comme dans le cas des algorithmes qui organisent les fils d’actu des réseaux sociaux ou ceux qui produisent des suggestions de personnes à suivre. Ces systèmes transforment les utilisateurs et les contenus en profils numériques qui capturent les similarités et la pertinence, déterminant ainsi ce que chaque personne voit. En analysant le code de X conjointement aux données collectées auprès des utilisateurs, les deux chercheurs ont reconstitué le processus et montrent qu’il y a un calcul de « la vision du monde » qui estime les positions idéologiques gauche-droite des utilisateurs. Cette dimension politique coexiste avec d’autres dimension, comme l’âge, le sexe ou les centres d’intérêts (l’actualité ou le sport par exemple). Si le système ne semble pas stocker l’information (« cet utilisateur est conservateur ») et si le profilage politique n’est pas un objectif du système (contrairement à Community Notes) : « l’algorithme apprend plutôt des habitudes d’engagement, des réseaux d’abonnés et des comportements de réponse corrélés à l’orientation politique, et exploite ces habitudes pour déterminer des recommandations personnalisées. Il s’agit d’un profilage passif mais systématique : les opinions politiques structurent si profondément les comportements en ligne que la plupart des modèles actuels performants les détectent. » 

« Ne pas réglementer cette forme de profilage revient à autoriser les plateformes à utiliser sciemment des dimensions politiques – pour des centaines de millions d’utilisateurs – dans le calcul des recommandations de contacts, de publicités et de contenus. » 

Et le problème devient encore plus profond avec l’IA conversationnelle. Les modèles produisent des profils sociodémographiques déduits d’indices conversationnels explicites (voir notre article, « Qui est l’utilisateur des LLM ? »). « Révéler son nom incite ces systèmes à inférer implicitement votre origine ethnique, tandis que divulguer les sports que vous pratiquez incite le modèle à inférer votre genre ». Dans un autre article de recherche, Paul Bouchaud et Pedro Ramaciotti montrent que les inférences cachées ont des conséquences concrètes et influencent les recommandations que vous recevez concernant votre évolution de carrière, les modalités de voyage que vous comptez faire ou autre (voir également « Inférences, comment les outils nous voient-ils ? »). Cette personnalisation passive, qui émerge grâce à de fortes corrélations statistiques dans les données d’entraînement, peut être poussée plus loin encore, notamment quand les systèmes d’IA sollicitent activement les usagers à fournir des informations sensibles pour fonctionner, comme lorsque les chatbots compagnons demandent explicitement l’orientation sexuelle des utilisateurs pour échanger avec eux. Or, le RGPD ne fait pas de distinction entre les données sensibles « collectées directement » et celles « déduites algorithmiquement » : il interdit le « traitement de données à caractère personnel révélant des attributs sensibles ». Et la Cour de justice de l’Union européenne a confirmé que cela concernait toute donnée « susceptible de révéler indirectement des informations sensibles […] récoltée à la suite d’une opération intellectuelle impliquant une déduction ou un recoupement ». Pour les chercheurs, chaque traitement de ce continuum enfreint le RGPD. 

SI les cas de profilage actif pourraient être en principe corrigés, les cas de profilage plus passifs posent un problème plus profond. 

Les systèmes de recommandation (de X, spécifient les chercheurs… mais on comprend que leurs constats peuvent être élargis à l’ensemble des systèmes de recommandation, d’autant plus qu’ils s’IAifisent profondément) « intègrent l’idéologie politique non pas parce que les ingénieurs l’ont spécifiée, mais parce que l’opinion politique structure si fondamentalement le comportement en ligne que tout modèle optimisé pour l’engagement la captera ». Pour Paul Bouchaud et Pedro Ramaciotti, soit le profilage passif n’est pas considéré comme relevant du RGPD, soit il l’est… et une vaste gamme de systèmes d’IA devient non conforme. 

Les deux chercheurs esquissent cependant une solution : « rendre l’IA insensible aux catégories sensibles ». Après avoir identifié la position idéologique des utilisateurs dans l’algorithme de recommandation de contacts à suivre de X, ils l’ont supprimé. Ils ont constaté que cela a accru la diversité politique des recommandations de contacts sans en dégrader la pertinence. 

Mais, cette solution est certainement limitée. La suppression de données ou de prise en compte de données ne fait pas disparaître les proxies que l’IA pourrait utiliser pour les reconstruire plus profondément. Ces systèmes sont capables d’inférer le genre par exemple sans avoir accès à des informations sur le genre des utilisateurs, mais peuvent le déduire d’innombrables manières. Peut-on vraiment rendre l’IA insensible aux catégories sensibles et être certain qu’elle ne les recompose via d’autres données ? Je serai un peu moins confiant qu’eux pour ma part.

Hubert Guillaud

L'IA de McKinsey hackée par l'IA

CodeWall
Profitant d'une politique accommodante et d'une annonce publique tentatrice de la part de sa cible, CodeWall a voulu éprouver son outil de recherche de failles de cybersécurité sur Lilli, la plate-forme d'intelligence artificielle mise à la disposition des 43 000 collaborateurs de McKinsey & Company. Les résultats divulgués sont édifiants.

Deux mots sur le service en question, similaire à ceux déployés dans tous les grands cabinets de conseil. Conçu et développé en interne, il est déjà utilisé par 70% des effectifs, qui lui soumettent actuellement un demi million de requêtes par mois, pour des conversations libres, afin d'obtenir des réponses à des questions simples, pour l'analyse et la synthèse de textes ou pour des recherches avancées sur un corpus de plus de 100 000 documents existants et autres contenus propriétaires.

Lorsque CodeWall a « lâché » son Sherlock Holmes virtuel, lui-même propulsé à l'IA, il ne lui a fallu que deux heures pour repérer et exploiter une brèche, depuis l'extérieur de l'entreprise, sans rien connaître de l'implémentation de la solution et, évidemment, sans posséder le moindre identifiant d'accès. Et elle était sérieuse (elle est désormais comblée) puisqu'elle permettait de consulter l'ensemble de la base de données sous-jacente, composée de 46 millions de messages, 700 millions de fichiers et plus…

Mais la divulgation des échanges sur les stratégies des clients de McKinsey, les finances de la société, les opérations de fusion-acquisition qu'elle accompagne, les supports contenant l'essentiel de son expertise… n'est pas le pire de cette histoire. Les chercheurs avaient également la possibilité de modifier les éléments de « raisonnement » et les garde-fous mis en en œuvre par Lilli, sans que les utilisateurs ne puissent se rendre compte d'une influence extérieure dans leurs interactions.

CodeWall – McKinsey Hack

Derrière cette attaque (bienveillante), on découvre hélas des fautes de débutant. Pour l'essentiel, le robot de CodeWall a simplement découvert et « étudié » une documentation ouverte à tous sur des API privées exposées par la plate-forme, a repéré qu'une partie d'entre elles ne requéraient aucune authentification et, enfin, a déterminé par essais et erreurs successifs qu'elles étaient susceptibles à une méthode d'infiltration (dite « par injection SQL ») parfaitement connue depuis de longues années.

Or ce genre de faiblesse correspond à un motif que j'ai observé par le passé : malgré tous les efforts des équipes de sécurité et la prise de mesures rigoureuses de protection contre les défauts les plus fréquents, largement documentés, dès qu'apparaît une technologie innovante, dont le déploiement semble soudain urgent, toutes les bonnes pratiques sont oubliées. Même dans le cas d'expérimentations, le système d'information dans sa globalité se trouve souvent mis en péril par cet angle mort.

Aujourd'hui, une telle négligence est encore moins tolérable qu'auparavant. En effet, comme le démontre CodeWall, l'intelligence artificielle constitue un puissant allié pour la recherche des failles. Entre les mains de personnes mal intentionnées, elle est capable d'ouvrir des portes dérobées dans les systèmes à un rythme industriel que les approches traditionnelles de cyberdéfense ne pourront jamais absorber. L'anticipation et la prévention sont plus que jamais indispensables, jusque dans l'innovation.

La Cour de justice de l’Union européenne désavoue le système de fichage français

Jeudi dernier, la Cour de justice de l’Union européenne – la plus haute juridiction de l’UE – a rendu un arrêt « Comdribus » très attendu concernant les pratiques de fichage françaises. Dans une décision très claire, la Cour estime que la manière dont le droit français permet de prendre les empreintes digitales et la photographie des personnes arrêtées est disproportionnée et contraire au droit de l’UE. Alors que deux jours avant nous dénoncions la prise de photo sauvage dans la rue par les forces de l’ordre, il s’agit d’une illégalité de plus dans l’édifice tentaculaire des fichiers de police. Il est urgent de le démanteler.

Tout commence en 2020, quand « HW » participe à une action d’Extinction Rebellion sur les Champs-Élysées, à Paris. La manifestation n’est pas déclarée et il se fait arrêter sur ce fondement, ainsi que pour rébellion. Comme cela est désormais très fréquemment le cas, la police exige qu’il donne son code de téléphone et qu’il se prête à ce qu’on appelle la prise de « signalétique », afin d’alimenter des fichiers de police.

Cette pratique, prévue par l’article 55-1 du code de procédure pénale, vise à collecter les empreintes digitales et la photo du visage d’une personne soupçonnée d’avoir commis une infraction. Les empreintes sont ensuite conservées dans le fichier automatisé des empreintes digitales (FAED). La photo, elle, atterrit dans le fichier de traitement des antécédents judiciaires (TAJ). Le fichier TAJ constitue ensuite le fondement juridique très contestable pour identifier les personnes par reconnaissance faciale. La police enregistre ces données afin de pouvoir les comparer à l’avenir dans d’autres enquêtes.

Revenons en 2020 : HW refuse cette prise de signalétique. Or, en France, dire non à une telle collecte de données constitue un délit, peu importe que les faits initiaux pour lesquels la personne a été arrêtée aboutissent in fine à une condamnation ou non. C’est ce qu’on appelle un délit « autonome » et c’est ce pourquoi HW est inculpé. Relaxé de la participation à la manifestation non déclarée et du refus de donner son code de téléphone, il reste uniquement poursuivi pour avoir refusé de donner sa signalétique.

Au cours de la procédure, son avocat décide de porter l’affaire devant la Cour de justice de l’UE, afin qu’elle analyse si ce système de fichage prévu par le droit français respecte les droits et libertés protégés par la Charte des droits fondamentaux, notamment le droit à la vie privée. Cette Cour a répondu1La Cour devait répondre à trois questions afin de déterminer si le cadre français était conforme au droit de l’UE. Pour cela, elle s’est notamment appuyée sur un arrêt « VS », rendu il y a 3 ans, concernant le droit bulgare sur un sujet quasiment identique. dans l’arrêt Comdribus du 19 mars dernier, qui constitue une condamnation cinglante pour la France.

Pas de « nécessité absolue »

Premièrement, la Cour se penche sur le respect du droit français aux exigences de proportionnalité. En effet, les prises de photographie et d’empreintes constituent des traitements de données biométriques, qui sont des données « sensibles » selon le droit européen. Ce type de traitement donc est interdit par principe, et ce n’est qu’« en cas de nécessité absolue » qu’un tel traitement peut être mis en œuvre2 Voir les articles 6 et 88 de la loi n° 78-17 du 6 janvier 1978 dite « Informatique et Libertés » ainsi que l’article 10 de la directive 2016/680 dite « police-justice ».

Cette notion de « nécessité absolue » est très utile et protectrice car elle signifie que la collecte d’empreintes et de photos ne peut jamais être systématique. En effet, il faut d’abord que les finalités du traitement – c’est-à-dire ses objectifs, en l’occurrence la recherche des auteurs d’une infraction – soient suffisamment précises. Ensuite, les données collectées doivent être strictement utiles et pertinentes pour atteindre cet objectif. Cela signifie qu’il ne doit exister aucun moyen alternatif et moins attentatoire aux droits fondamentaux pour atteindre l’objectif du traitement de manière aussi efficace. Par conséquent, le traitement de données biométriques ne peut être forcément permis que dans un nombre limité de cas.

Pourtant, l’article 55-1 du code de procédure pénale permet aux policiers de pouvoir faire des relevés signalétiques de « toutes les personnes à l’égard desquelles il existe une ou plusieurs raisons plausibles de soupçonner qu’elles ont commis ou tenté de commettre une infraction pénale ». En effet, comme dans le cas de HW, une personne simplement mise en garde à vue, même sans poursuites, sera concernée par cette prise d’empreintes et de photo. Pour la Cour, ce périmètre est très large et le seul fait qu’il existe un soupçon ne permet pas de remplir la condition de « nécessité absolue ». De plus, les dispositions propres relatives au fichiers TAJ et FAED ne prévoient aucunement le respect de ces exigences et concernent un nombre très vaste de situations et de personnes3L’article R. 40-38-2, 3° du code de procédure pénale prévoit que les empreintes digitales sont collectées pour des « personnes à l’encontre desquelles il existe des indices graves ou concordants rendant vraisemblable qu’elles aient pu participer, comme auteur ou complice, à la commission d’un crime ou d’un délit, ou des personnes mises en cause dans une procédure criminelle ou délictuelle, dont l’identification certaine s’avère nécessaire ». Elles sont conservées 15 ans ou plus, et 10 ans pour les mineur·es.

Pour le TAJ, la photographie du visage à l’article R. 40-25 du code de procédure pénale vise « les personnes à l’encontre desquelles sont réunis, lors de l’enquête préliminaire, de l’enquête de flagrance ou sur commission rogatoire, des indices graves ou concordants rendant vraisemblable qu’elles aient pu participer, comme auteurs ou complices, à la commission d’un crime, d’un délit ou d’une contravention de cinquième classe ». Dans les deux cas, le périmètre est extrêmement large et il n’y a aucun processus permettant d’examiner la condition de nécessité absolue au stade de la collecte.
.

Le gouvernement français a essayé de se défendre en prétendant qu’il ne s’agissait pas d’une obligation mais d’une simple faculté pour les policiers, qui disposaient d’une marge de manœuvre pour apprécier ou non la prise de signalétique. La Cour balaye cet argument et, de façon très intéressante, invite la Cour d’appel qui rejugera de cette affaire à examiner « la mise en œuvre effective du droit », c’est à dire la pratique au-delà de la lettre du texte4En cela, la Cour adopte une position différente de celle de l’avocat général qui se refusait à une telle interprétation in concreto. L’association EDRi analysait ses conclusions dans un article du 13 novembre 2025..

L’analyse de la Cour amène donc à conclure que le cadre français de prise d’empreintes et de photo est contraire au droit de l’UE car il ne permet pas de respecter l’exigence de nécessité absolue.

Une exigence de justification absente du droit français

Deuxièmement, la Cour de justice de l’Union européenne se penche sur la manière dont le droit français impose ou non aux policiers de justifier leur choix de collecter les empreintes et la photographie. Elle exige qu’une explication claire soit fournie à la personne concernée, même de façon succincte, pour notamment lui permettre d’exercer son droit au recours. Elle ajoute que ce n’est pas parce qu’un juge peut ensuite se prononcer sur la légalité de la collecte que cela exonère la police de toute explication auprès de la personne.

Enfin, puisque la prise de signalétique ne doit pas être systématique mais limitée à un petit nombre de cas absolument nécessaires, elle estime que demander aux policiers de motiver leur décision ne constitue pas une « charge déraisonnable ». En utilisant cette formule, la Cour répond en réalité au gouvernement français qui avait tenté de se défendre en arguant que se conformer à cette exigence représenterait un travail trop important pour les policiers.

À nouveau, le droit français n’impose aucune obligation de justification pour collecter les données biométriques et se retrouve donc non conforme au droit de l’UE. Quant à la pratique, elle est également à l’opposé de ces exigences. Les policiers n’expliquent jamais pourquoi ils prennent les empreintes et la photo quand une personne est arrêtée ou auditionnée. Ces gestes sont devenus une banalité dans les commissariats, même pour des personnes en audition libre ou des mineurs d’après des témoignages d’avocat·es. Cela explique les chiffres faramineux de 9 millions de photos dans le TAJ et 6,5 millions d’empreintes dans le FAED. Surtout, cet article 55-1 est fréquemment utilisé pour mettre la pression sur des personnes qui s’exposent à des sanctions et des gardes à vue si elles refusent. Rappelons également que depuis 2022, la prise d’empreinte peut même être faite de force.

Enfin, dans un troisième temps, la Cour examine le caractère « autonome » du délit de refus de donner ses empreintes, c’est-à-dire le fait que la personne puisse être poursuivie uniquement pour cela et indépendamment de la situation qui a menée à son arrestation. Malheureusement, les juges n’en condamnent pas le principe. Cependant, ils exigent des conditions très strictes pour condamner quelqu’un pour un tel refus. Cela doit être fait en fonction des circonstances individuelles (comportement, profil, antécédents) et être réservé aux cas les plus graves. Une fois de plus, le droit français ne respecte en rien ces exigences puisque de nombreuses personnes sont poursuivies uniquement sur la base de ce délit, sans aucune appréciation individuelle de la situation.

Le fichage français dans le viseur

Cette décision de la CJUE constitue un bouleversement dans le droit français. En effet, sa portée délégitime toute la philosophie qui a permis d’alimenter les fichiers de police. En France, la collecte d’informations sur la population n’est pas pensée comme une exception mais comme une manière de ratisser le plus large possible. La pratique montre bien que si des informations sont disponibles ou récupérables, la police les prend « au cas où », pour plus tard. Si une personne est au commissariat, on exige d’elle sa signalétique. Si une personne est contrôlée, on va la prendre en photo et l’identifier par reconnaissance faciale bien que ce soit illégal– comme nous l’avons dénoncé avec le média Disclose.

Selon cette logique, chaque personne pourrait potentiellement être un futur suspect ou coupable, ce qui justifie la collecte de ses données de manière « préventive » et sans raison valable. Cette vision selon laquelle en chacun·e se loge un potentiel suspect est le fondement même de la surveillance de masse. Avec sa décision, la Cour de justice exige un renversement total de cette idéologie. Contrairement à ce que prévoit le droit français, la collecte d’informations et de données biométriques ne doit pas être une situation fréquente concernant une grande partie de la population mais un cas exceptionnel réservé à quelques rares hypothèses.

L’arrêt Comdribus porte donc un coup d’arrêt à une surveillance abusive et massive, mise en place depuis des années. Le ministère de l’intérieur doit sortir de son silence, rendre des comptes, et ordonner que cessent immédiatement les prises d’empreintes et de photo systématiques par la police. Cet arrêt majeur doit mener à une refonte intégrale du droit et à la suppression des millions de fiches illégitimes contenues aujourd’hui dans le TAJ et le FAED.

Aussi si vous le pouvez, n’hésitez pas à faire un don pour soutenir notre travail !

References[+]

References
1 La Cour devait répondre à trois questions afin de déterminer si le cadre français était conforme au droit de l’UE. Pour cela, elle s’est notamment appuyée sur un arrêt « VS », rendu il y a 3 ans, concernant le droit bulgare sur un sujet quasiment identique.
2 Voir les articles 6 et 88 de la loi n° 78-17 du 6 janvier 1978 dite « Informatique et Libertés » ainsi que l’article 10 de la directive 2016/680 dite « police-justice »
3 L’article R. 40-38-2, 3° du code de procédure pénale prévoit que les empreintes digitales sont collectées pour des « personnes à l’encontre desquelles il existe des indices graves ou concordants rendant vraisemblable qu’elles aient pu participer, comme auteur ou complice, à la commission d’un crime ou d’un délit, ou des personnes mises en cause dans une procédure criminelle ou délictuelle, dont l’identification certaine s’avère nécessaire ». Elles sont conservées 15 ans ou plus, et 10 ans pour les mineur·es.

Pour le TAJ, la photographie du visage à l’article R. 40-25 du code de procédure pénale vise « les personnes à l’encontre desquelles sont réunis, lors de l’enquête préliminaire, de l’enquête de flagrance ou sur commission rogatoire, des indices graves ou concordants rendant vraisemblable qu’elles aient pu participer, comme auteurs ou complices, à la commission d’un crime, d’un délit ou d’une contravention de cinquième classe ». Dans les deux cas, le périmètre est extrêmement large et il n’y a aucun processus permettant d’examiner la condition de nécessité absolue au stade de la collecte.

4 En cela, la Cour adopte une position différente de celle de l’avocat général qui se refusait à une telle interprétation in concreto. L’association EDRi analysait ses conclusions dans un article du 13 novembre 2025.

Pourquoi le déploiement de projet échoue-t-il ?

Dans la revue Big Data & Society, deux chercheurs finlandais, Antti Rannisto et Marta Choroszewicz, ont suivi le déploiement d’un outil d’aide à la décision à base d’IA générative dans une administration publique. Ils montrent comment l’équipe construit un discours et un cadre de légitimation et de justification de son déploiement à mesure que l’outil est développé, visant à préserver l’outil des critiques (notamment pour ses problèmes d’exactitude, de précision et de cohérence) et le rendant peu à peu irrésistible pour les acteurs influents de l’organisation. 

L’outil étudié visait à aider les agents chargés des réclamations à identifier les directives pertinentes et actualisées nécessaires à la prise de décision concernant les réclamations des usagers. Les réponses de l’outil étaient accompagnées de liens vers les sections pertinentes la base de documents de l’administration, permettant ainsi aux agents de valider une réponse ou de rechercher des informations complémentaires. Techniquement, l’outil reposait sur une base de données documentaires, un moteur de recherche et un LLM pour la génération des réponses.

Les deux chercheurs montrent que les innovateurs, l’équipe en charge du déploiement et de la configuration de l’outil, accomplissent surtout un travail politique pour influencer et convaincre les comportements des agents. Derrière le déploiement technique se met en place d’abord un régime de justification qui vise à protéger le déploiement des contestations. Les justifications émergent et évoluent à mesure que l’outil évolue, rapportent les chercheurs, mais ont une fonction spécifique : « détourner l’attention des promesses non tenues de l’outil », protéger les lacunes de l’outil et permettre au déploiement de se poursuivre. 

Ainsi le déploiement commence par se justifier sur sa promesse d’efficacité, sur la pertinence, le désir et la volonté d’innover. Les phases d’expérimentations sont renforcées par une communication dédiée, alors que les tests montrent rapidement les défaillances et limites de l’outil proposé. 

Les tests suivants ont alors visé à améliorer la performance de l’outil, mais sans y parvenir, recentrant l’implication active à la seule équipe chargée de l’innovation. A mesure que l’outil se déploie et déçoit, les cadres de justification se déplacent : on passe des espoirs d’efficacité, à la valorisation du processus d’innovation, puis à la valorisation de l’état d’esprit de l’innovation, comme si à mesure que le déploiement déçoit on n’en retenait plus que le mouvement. La promotion du test rapide, de l’apprentissage continu a été particulièrement mobilisée pour poursuivre les développements. Les développeurs ont par exemple promu régulièrement l’amélioration des réponses correctes de l’outil (passant de 70%, à 75% puis à 80%…) sans répondre aux critiques qui questionnaient cette précision pour savoir si elle était suffisante pour être intégrée dans les flux de travail des agents ou pour déterminer la pertinence et la réalité de cet indicateur. A mesure que l’outil se déployait sans répondre aux attentes, ses promoteurs ont développé un argumentaire renvoyant les erreurs à « l’incapacité des agents à interagir efficacement avec l’outil en prétextant qu’ils ne parvenaient pas suffisamment à mettre à jour leurs méthodes de travail »

Une autre justification s’est également développée avec le temps, présentant le développement de l’outil comme pionnier pour utiliser l’IA générative au service du bien commun, creusant une fracture entre l’innovation et le travail de terrain. Un peu comme si le processus d’innovation se justifiait d’autant plus que les retours critiques s’enkystaient et que l’innovation faiblissait en rythme et ce alors que de plus en plus d’agents souhaitent le tester pour se rendre compte de son efficacité ou de son inefficacité. Ce que décrivent les chercheurs dans le déploiement de l’outil, c’est que ses justifications se déploient sans lien direct avec ses résultats. 

« Un an après le lancement du processus d’innovation de l’outil d’IA, son fonctionnement restait incohérent et imprécis, et ses opérations demeuraient largement opaques – ambiguës, incertaines et incontrôlables – même pour les innovateurs techniques les plus chevronnés ». Pourtant, ceux-ci sont restés farouchement déterminés à poursuivre le développement de l’outil en vue de sa mise en production et de son déploiement à grande échelle, car les promesses inscrites maintenaient une forte dynamique en faveur du projet. En fait, lorsque les tests ont révélé l’inaccessibilité de l’objectif initial (c’est-à-dire avoir un outil très fiable pour que les agents puissent répondre aux usagers), les innovateurs en charge du déploiement ont proposé de nouvelles pistes de développement et d’expérimentation, au lieu de considérer les résultats comme un motif d’abandon. Le sentiment d’être sur une courbe d’apprentissage et d’amélioration a également découragé les critiques ouvertes de l’outil lui-même et a recentré l’attention sur les facteurs organisationnels et liés aux utilisateurs susceptibles d’affecter ses performances. « Le fait que l’outil n’ait pas tenu ses promesses a été normalisé et présenté comme une étape normale du processus. » 

La critique de l’intégration d’un LLM, qui semblait la principale raison pour laquelle l’outil ne tenait pas ses promesses, par rapport à l’amélioration de la base de données de réponses et de connaissances, a été largement ignorée par les responsables et les personnes chargées du projet. La visibilité du processus d’innovation, vantant l’agilité, l’expérimentation, l’itération… a supplanté les limites de l’outil, qui sont pourtant apparues assez tôt. 

Antti Rannisto et Marta Choroszewicz estiment en conclusion que le battage médiatique sur l’IA générative a intensifié les efforts d’innovation et suscité un optimisme débridé, conduisant à prolonger le projet pour son caractère exemplaire promettant d’optimiser l’administration publique. 

Pour eux, cela montre surtout que l’innovation est un processus hautement politisé. L’évolution des justifications ont maintenu le processus en mouvement, malgré l’absence de résultats pertinents. L’échec démontre « l’aspect constructiviste du technosolutionnisme, c’est-à-dire un processus où les problèmes sont redéfinis pour s’adapter à une solution technologique préexistante, faisant peser la charge de l’adaptation sur les utilisateurs et les organisations plutôt que de remettre en question l’outil lui-même.»

Plutôt que de considérer les défaillances répétées comme des motifs d’arrêt des travaux ou de réexamen des choix technologiques pris, l’évolution des cadres de justification a empêché que les défaillances remettent en cause la valeur perçue de l’outil et ont même parfois transformé les échecs techniques en signes de progrès. 

Trop souvent, les échecs sont perçus comme des étapes normales d’un « processus d’apprentissage », ce qui a tendance à rendre les échecs moins visibles et plus difficiles à corriger… Et c’est certainement encore plus net dans le domaine de l’innovation en IA générative, comparativement aux systèmes d’IA plus déterministes, où les architectures système sont plus transparentes et les indicateurs de performance mieux définis en amont. Pour les chercheurs, les résultats de cette enquête expliquent comment les promesses technologiques ont fait de l’outil un objet imaginaire irrésistible et ont maintenu le processus d’innovation en mouvement malgré ses défaillances.

Cette étude est riche d’enseignement, tant elle semble décrire derrière son cas particulier les échecs d’innombrables projets d’intégration de l’AI dans l’administration publique ou dans les organisations privées. Elle permet de mieux saisir les raisons des échecs de nombre de déploiements de l’IA générative que pointait par l’exemple, une étude du MIT, en montrant « 95% des projets pilotes d’IA générative dans les entreprises échouent ». Promesses inadaptées, déceptions des déploiements, justification par et pour l’innovation… permettent de comprendre que les projets mal partis n’arrivent bien souvent nulle part. 

On pourrait tirer bien d’autres leçons de cet exemple. Notamment sur l’importance de prendre en compte les critiques, plutôt que de les silencier.

Les consommateurs se défient de l'IA

Gartner
En dépit de leur adoption immodérée de l'IA pour leurs besoins personnels, une enquête de Gartner révèle que la moitié des américains (et pourquoi en serait-il autrement ailleurs ?) préfèrent interagir avec les marques ne recourant pas à l'intelligence artificielle générative dans leurs messages, leurs contenus et leurs publicités.

Au-delà de cette défiance, la généralisation de la technologie a des conséquences plus globale sur la confiance accordée à toutes les entreprises, qu'elles mettent en œuvre ou non l'IA. En effet, les citoyens prenant progressivement l'habitude d'être dupés par les informations qu'ils reçoivent, ils sont désormais 61% à s'interroger sur la fiabilité des données sur lesquelles ils fondent leurs décisions et, de manière générale, 68% se posent la question de la réalité de ce qui leur est présenté dans leur quotidien.

Signe de maturité rassurant… mais probablement problématique pour les directions marketing les moins préparées, le scepticisme devient la règle dans la relation aux contenus. Ainsi, une proportion croissante de personnes ne croient plus automatiquement ce qu'elles voient et, plus significatif encore, elles ne sont plus qu'un peu plus d'un quart à se fier à leur instinct pour en juger de la véracité. La vérification factuelle, via différentes sources indépendantes, s'ancre dans les comportements.

Gartner Marketing Survey

Face à cette évolution sociologique, les recommandations de Gartner semblent élémentaires. En premier lieu, de toute évidence, la transparence est impérative. Il faut absolument expliquer sans ambiguïté aux clients et autres visiteurs quand l'intelligence artificielle est utilisée, dans quel but et de quelle façon, et offrir une alternative facile d'accès. Ensuite, afin de satisfaire leur nouvelle soif de contrôle, il restera à les orienter activement vers les éléments de preuve nécessaires (objectifs, bien sûr).

Enfin, une fois la confiance instaurée, les réticences à l'IA dans le marketing ne pourront être levées qu'à la condition de ne l'employer que dans des contextes où son bénéfice est visible pour le consommateur. Les expérimentations de gadgets qui ne sont d'aucune aide, uniquement destinées à démontrer une supériorité technologique ou à procurer l'illusion de modernité, n'ont plus leur place aujourd'hui dans l'entreprise. Ces applications sont maintenant réservées aux usages privés de ChatGPT et consorts.

Curtis Yarvin et le programme d’une implémentation du vectofascisme

Il y a un an, l’artiste Gregory Chatonsky nous faisait l’honneur de publier dans nos pages une tribune sur ce qu’il appelait le vectofascisme. En explorant et dépassant la figure du pseudo théoricien Curtis Yarvin, il nous propose d’observer concrètement ce qui est à l’œuvre. Les mécanismes d’implémentation du fascisme sont là. La politisation est infrastructurelle. Tribune. 

Curtis Yarvin n’est pas un théoricien politique traditionnel. C’est un ingénieur logiciel originaire de la Silicon Valley qui, depuis les années 2000, a développé une critique des institutions libérales en partant des principes de la programmation informatique. Son travail circule dans les cercles du néoréactionnalisme, une tendance marginale mais influente parmi les technologues, les investisseurs et les stratèges politiques qui rejettent les prémisses démocratiques de la modernité. Pendant longtemps, il a pu être traité comme une curiosité intellectuelle : un pseudo-penseur excentrique proposant des « solutions d’ingénieur » à des problèmes politiques complexes. Ses écrits mélangent provocation, cynisme technologique et visions totalitaires assumées avec une certaine désinvolture. Mais quelque chose a changé entre 2016 et 2024 car l’infrastructure technique qu’il décrivait (les applications mobiles, l’IA, le contrôle algorithmique) est devenue omniprésente. Ensuite, des figures publiques, Elon Musk notamment, ont adopté ou cité ses idées. Enfin, et surtout, Yarvin a formalisé en 2024-2025 une sorte de programme politique explicite : un manuscrit intitulé « Trump et le problème de l’an II » (sauf mention contraire, les citations qui suivent en proviennent) qui prétend déployer une restructuration totalitaire de l’État américain. C’est cette cristallisation qui rend l’analyse intéressante. 

Il faut souligner que cette traduction décontextualisée par Le Grand Continent a été critiqué avec raison (par le journaliste Sylvain Bourmeau sur AOC, ainsi que par le sociologue Olivier Alexandre et l’experte en géopolitique du numérique Rayna Stamboliyska dans une tribune pour le Monde). Le point générique de ces critiques est qu’en surestimant l’importance de ce pseudo-théoricien, on opère une prophétie autoréalisatrice. Pourtant, cette mise en garde contre une supposée « légitimation » de l’idéologie par son analyse ne repose sur aucune preuve empirique : rien ne permet d’affirmer que le silence intellectuel aurait un effet inhibiteur sur des dispositifs qui sont, avant tout, d’ordre infrastructurel. L’analyse que je propose ici s’élabore d’ailleurs sur un tout autre plan : nous ne connaissons pas l’influence réelle de Yarvin, nous en avons ici ou là d’incertaines traces et nous ne pouvons affirmer qu’il est la cause de quoi que ce soit, mais d’un point de vue spéculatif, il permet de voir au travers de quelles ressources le vectofascisme pourrait s’implémenter socialement à la manière d’un programme informatique. C’est donc moins un théoricien qui inspire secrètement les fascistes américains qui nous intéresse ici, car nous savons combien les intellectuels surestiment l’importance des « intellectuels », que le symptôme d’une certaine époque de la pensée. Il ne s’agit pas de valider une autorité, mais de pratiquer une symptomatologie. Si le discours de Yarvin paraît souvent inconsistant, logorrhéique ou contradictoire, ce n’est pas par un défaut de rigueur qu’il suffirait de pointer pour le disqualifier et qui présupposerait un certain régime de rationalité s’appliquant à toute réalité ; cette inconsistance est une caractéristique structurelle de l’idéologie vectorielle. Dans ce régime de désémantisation, le langage ne vise plus à stabiliser un sens, mais à saturer le vecteur. L’incohérence fait partie du dispositif : elle procède par une fragmentation qui rend la contradiction inintelligible pour mieux absorber les résistances dans un flux permanent. Yarvin n’est pas la cause de la mutation, il est le « bruiteur » de sa logique technique.

Le fascisme du XXe siècle opérait selon les lois de l’espace euclidien. Il produisait des corps coordonnés, des gestes uniformes, des flux d’énergie directement observables : le défilé, le salut, la chemise noire. Ces formes visibles constituaient l’essence du pouvoir politique. C’était une machine à fabriquer de la présence physique, une totalité ostentatoire qu’on pouvait voir, compter, désapprouver. L’opposition pouvait pointer du doigt, nommer, critiquer. Mais nous ne vivons plus dans cet univers. Les conditions matérielles de la politique se sont métamorphosées  avec la numérisation. Le concept de vectofascisme tente de capturer précisément cette mutation : le passage d’une politique de l’espace physique à une politique de l’espace latent de l’IA peuplé de statistiques, d’une coordination gestuelle à une coordination vectorielle, d’une totalité ostentatoire à une forme spectrale. Le fascisme du XXIe siècle ne défilerait plus dans la rue. Il opérerait en deçà de la visibilité, dans les pixels, dans les données, dans les flux qui structurent les décisions et les affects. Une vectorisation du pouvoir, non sa disparition, mais sa transformation en une forme omniprésente et indéfinissable, capable d’exercer une domination d’autant plus totale qu’elle demeure largement invisible. Yarvin a proposé d’en formaliser l’implémentation explicite, comme si le fascisme du XXIe siècle devait être d’abord un problème d’ingénierie logicielle.

Le défi analytique est immédiat : comment évaluer sérieusement un corpus qui se défend constamment par l’ironie ? Comment critiquer un programme qui avoue d’avance son caractère fasciste, qui l’assume publiquement, qui en fait même une sorte de jeu ou de performance ? L’ironie fonctionne comme une arme défensive redoutable. Elle protège le programme contre la critique directe. Si quelqu’un dénonce le fascisme yarvinien, la réponse est immédiate : « Vous ne voyez pas que c’est ironique ? Vous manquez d’humour ! » L’ironie crée une zone d’impunité rhétorique où toute critique sérieuse est rejetée comme naïve et dépassée. Comment fonctionne précisément cette impunité ? Hugo Rowley a identifié le mécanisme d’une « lente radicalisation du lecteur » : la rhétorique yarvienne progresse étape par étape, rendant irréfutable le cheminement vers le totalitarisme. La progression suit un schéma systématique : (1) « La démocratie a des défauts » (scepticisme doux) ; (2) « La démocratie est inefficace » (critique neutre) ; (3) « La démocratie est une tromperie contrôlée par les élites » (framing conspirationniste) ; (4) « Peut-être que la gouvernance devrait être hiérarchique » (allusion à l’autoritarisme) ; (5) « Peut-être que la démocratie devrait être abandonnée entièrement » (conclusion pleinement réactionnaire). À chaque étape, le lecteur ne se confronte qu’à des énoncés qui semblent logiquement compatibles avec les précédents. L’ironie protège ce processus : elle l’immunise en le présentant comme exploration plutôt que cristallisation.  Mais il existe une contre-stratégie analytique précisément adaptée à cette situation : prendre justement le programme au sérieux dans sa cohérence logique. Non pas chercher un « vrai Yarvin » caché derrière l’ironie, mais demander simplement : que devient la politique si ces éléments fragmentés s’assemblent en totalité systématique ? Comment cela fonctionnerait-il techniquement ? Quels seraient les mécanismes concrets ? Nous testerons cette hypothèse : que devient la politique si la logique interne de ces propositions se cristallise en totalité ? Ensuite, nous parcourons les couches successives de ce programme, du support matériel (l’application mobile) aux mécanismes de capture affective (gamification, désémantisation) à l’infrastructure informationnelle parallèle, jusqu’à la restructuration architecturale de l’État et la vectorisation de la mémoire collective. À chaque étape, nous analysons comment ces éléments s’articulent pour produire une forme de domination qui n’a pas d’équivalent historique.

Ce qui rend cette analyse urgente, c’est une correspondance remarquable entre le diagnostic théorique du vectofascisme et l’ordonnance programmatique de Yarvin. Le diagnostic identifie une virtualité réelle : les capacités techniques pour une domination totale existent. Elles sont inscrites dans l’infrastructure informationnelle contemporaine. Elles attendent simplement une formulation explicite, une cristallisation programmatique .Le programme de Yarvin fournit précisément cela : il articule, systématise et formalise ce qui demeurait dispersé dans les interstices de la technologie. Il transforme les virtualités en architecture explicite. Yarvin lui-même expose cette stratégie sans détour : « Ce programme n’a rien à voir avec la notion traditionnelle de participation démocratique enseignée en classe. […] Nous utilisons des tactiques démocratiques pour abolir la démocratie elle-même » (Curtis Yarvin, Unqualified Reservations – Tome 03). Cette formule révèle l’essence de la cristallisation : transformer les outils de légitimité démocratique en instruments de leur propre destruction, en pleine conscience de cette contradiction performative dont la formulation la plus commune est « J’ai bien le droit de penser comme je veux, on est en démocratie ! » Mais, et c’est crucial, cela ne signifie pas que le programme sera effectivement implémenté , ni même qu’il soit parfaitement cohérent dans le détail. Cela signifie que les éléments en sont réels et opérants : l’application comme medium politique, la gamification comme capture affective, l’infiltration institutionnelle, l’infrastructure informationnelle parallèle, la vectorisation des hiérarchies, la destruction sémantique du débat politique. Ces mécanismes que nous analyserons opèrent aujourd’hui de manière fragmentée, inarticulée, sans intention unifiée. Et le danger réside précisément là : dans l’architecture systémique elle-même, capable de produire la totalité sans jamais avoir besoin de se justifier, sans jamais être confrontée à la réfutation, parce qu’elle opère en deçà du seuil où la critique idéologique a du sens.

L’app comme infrastructure politique

La première rupture décisive se situe au niveau du support matériel de la coordination politique. Yarvin énonce cela avec un cynisme parfait, celui de l’ingénieur qui refuse tout sentimentalisme idéologique : un hard party du XXIe siècle ne peut pas fonctionner selon le modèle des milices  du siècle dernier. « Un hard party du XXIe siècle ne peut pas être la milice de rue paramilitaire des années 1930 de votre grand-père. Là où les hard parties du début du XXe siècle ne pouvaient se coordonner qu’en uniforme, dans la rue, ceux du début du XXIe siècle ne peuvent se coordonner qu’à travers des pixels sur un écran. » Le hard party du XXIe siècle doit donc nécessairement exploiter les capacités de coordination de l’ère numérique. C’est ici que l’app mobile devient non pas un simple outil de communication, mais le support constitutif de l’organisation politique elle-même : «  Le parti de l’avenir sera une application. Le militant porteur de carte d’hier sera l’utilisateur actif mensuel de demain.  » Cette formulation n’est pas une simple métaphore technologique. Elle décrit une transformation essentiellement totalitaire de la politique. « Ce hard party doit aussi s’appuyer sur une application numérique, visant à faire de l’adhésion une forme d’expérience de réalité augmentée. Yarvin ne s’en cache pas : il s’agit de repenser, à l’ère numérique, les formes partisanes qui ont triomphé de la démocratie dans les années 1920 et 1930, autrement dit, il s’agit de réinventer le fascisme, et de mettre la Silicon Valley à son service » (Hugo Rowley, Curtis Yarvin & The Neoreactionary Canon, Made Simple, 2025). L’application n’assure pas seulement la communication interne. Elle est le support matériel, normatif et disciplinaire de l’ordre politique. Elle assure une disponibilité cognitive permanente de chaque utilisateur (l’application est toujours là, sur le téléphone, constamment accessible). Elle capture les affects en temps réel. Elle crée un système de feedback immédiat. Elle mesure, enregistre, évalue chaque action du militant. Elle est, autrement dit, une machine de gouvernementalité totale : un terme emprunté à Foucault, mais qui ici désigne quelque chose de plus que l’exercice du pouvoir, une intégration complète de la vie quotidienne dans la structure de commandement.

Pourquoi cette distinction importe-t-elle tant ? Parce qu’elle réalise ce que nous devons appeler une vectorisation du corps politique. La notion même de « collectif » change de nature. Les anciens fascismes produisaient une cohésion visible, une totalité ostentatoire, un corps du peuple supposé un et unifié, et ce corps devait être vu pour être réel, pour être efficace politiquement. L’application ne produit pas de visibilité collective. Elle produit une cohérence calculée, une coordination parfaite sans présence partagée. Les millions d’utilisateurs n’ont jamais besoin de se rencontrer, ne se voient jamais, ne forment jamais une présence physique commune. Et pourtant, leur action est coordonnée jusqu’à l’unanimité par les mécanismes algorithmiques intégrés à l’interface. Chaque utilisateur vote automatiquement pour qui le chef désigne. Chaque utilisateur effectue la tâche assignée, chacun est le relais du chef. Chaque utilisateur reçoit un message  au même moment. La totalité fonctionne parfaitement sans aucun moment de présence commune. C’est cela, la vectorisation : la transformation d’une multiplicité de corps en une multiplicité de données coordonnées de manière invisible, fonctionnant dans un hyperespace de n-dimensions où la notion même de «  présence  » devient obsolète. Ce n’est plus une affaire de gestes et de corps dans la rue, mais de tenseurs, de flux informationnels, de direction et d’intensité de forces qui traversent les réseaux sans jamais se matérialiser. Ce qui est remarquable dans cette approche, c’est qu’elle ne cherche pas à s’opposer à la désintégration contemporaine de l’espace public ; elle s’en sert. Elle utilise précisément la fragmentation informationnelle, la prolifération des écrans, l’atomisation des communautés comme matériel fondamental de la nouvelle totalité. Plutôt que de chercher à recréer la place publique (impossible, peut-être contre-productif), elle capte les espaces privés de chacun, les terminaux mobiles qui sont devenu nos espaces publics intimes, nos espaces de solitude partagée, nos chambres du XXIe siècle.

Mais il y a une seconde dimension à ce projet. Yarvin ne limite pas son analyse à la théorie. Il explicite son modèle de référence concrète : le Parti communiste chinois. « Un hard party est une organisation privée légale dont l’objectif est de devenir le parti dirigeant du prochain gouvernement, à l’image du Parti communiste chinois. » Le PCC représente le type d’organisation qui a réussi à saturer l’État entier, à contrôler non par la force brute externe mais par une intégration totale qui rend la distinction entre « État », « Corporation » et « Parti » simplement impossible. C’est un modèle d’infiltration, de discipline de fer, de loyauté absolue qui a prouvé son efficacité opérationnelle sur des décennies. L’application yarvinienne vise à reproduire cette saturation organisationnelle, mais en version technologique. Elle est conçue pour devenir le système nerveux central de l’organisation politique entière, capable de propager les ordres du sommet jusqu’aux extrémités avec une vitesse et une efficacité inatteignables par les méthodes traditionnelles. C’est l’automatisation du politique. 

L’alignement culturel comme vectorisation en acte 

Le diagnostic théorique du vectofascisme ne reste pas enfermé dans la spéculation. Il se cristallise déjà dans des architectures concrètes. L’exemple paradigmatique est l’ordre exécutif de Donald Trump du 3 avril 2025, « Restorer la Vérité et la Raison à l’Histoire Américaine » , qui applique précisément la logique de vectorisation à l’ensemble du système institutionnel et culturel américain. Yarvin parle d’une « application » comme medium politique. Trump le montre concrètement : c’est d’abord une application de contrôle culturel fonctionnant selon la logique de l’optimisation algorithmique. La lettre officielle de la Maison-Blanche au Smithsonian du 12 août 2025 expose le mécanisme avec une clarté glaçante : « Cette initiative vise à assurer l’alignement avec la directive présidentielle. Calendrier : corrections de contenu à 30, 75 et 120 jours. » C’est précisément la structure itérative que Yarvin décrit. Un cycle d’optimisation d’apprentissage automatique appliqué à la culture :
1. Fonction objective explicite : « célébrer l’exceptionnalisme américain »;
2. Métriques de conformité : « ton, cadrage historique, alignement avec les idéaux américains »;
3. Processus itératif : remplacer « le langage diviseur » par « des descriptions unifiantes »;
4. Fonction de perte : gel de 2,2 milliards de dollars de financement pour Harvard par exemple.


Les musées du Smithsonian et les universités ne sont pas simplement censurés. Ils sont vectorisés : leurs énoncés doivent se déplacer dans un espace de « conformité américaine » où certaines positions (critiques du passé américain) doivent être converties en leur équivalent patrimonial (le « progrès américain »). Le résultat : suppression des énoncés critiques, remplacement par des contrefactuels narratifs. L’esclavage n’est pas nié, il est absorbé dans une épopée plus large de l’« exceptionnalisme ». C’est exactement la désémantisation que Yarvin théorise : le mot demeure, mais son pouvoir critique se volatilise dans un espace vectoriel contrôlé où tout est équidistant. Et cela fonctionne. Trump lui-même le déclare : « Les universités ont déjà été alignées. Maintenant c’est au tour des musées. » Le modèle se propage en cascade selon les connexions du réseau institutionnel. C’est la vectorisation à l’état pur : pas de chemises noires, pas de symboles visibles, juste une infrastructure de contrôle qui fonctionne par réallocation de financement, calendriers d’optimisation, et modulation algorithmique de ce qui peut être entendu.

Clarifions un point fondamental : en insistant sur l’infrastructure, nous ne la rendons pas autonome. L’infrastructure ne fonctionne que parce que des acteurs la maintiennent, la financent, la perfectionnent. Yarvin n’est pas une abstraction. Elon Musk qui applique cette logique aux réseaux sociaux a des responsabilités concrètes. Les ingénieurs qui développent les systèmes de recommandation, les politiques qui les légalisent, les cadres du parti qui les exploitent—ce sont des agents historiques réels, pas des forces cosmiques. Ce que l’analyse de l’infrastructure révèle, c’est que ces acteurs ne doivent pas inventer de « plans » complexes. Ils n’ont qu’à laisser fonctionner le système, l’optimiser, le déployer. L’architecture elle-même produit l’effet totalitaire. Mais c’est justement parce qu’elle est construite, et donc vulnérable, réparable, contournable.

La gamification infra-sémantique

Une telle coordination pose un problème stratégique : comment maintenir la conformité sans reposer sur l’adhésion consciente à une idéologie ? Comment transformer des millions de sujets en exécutants automatiques sans qu’ils aient besoin de comprendre ou de croire au projet politique ?

C’est un problème que l’idéologie traditionnelle ne peut pas résoudre. L’idéologie suppose la conscience, le débat, l’adhésion réfléchie, ce qui crée des points de rupture, des zones de dissension, des moments où le sujet peut refuser. Le fascisme du XXe siècle lui-même devait affronter ce problème : il produisait des corps coordonnés, mais ceux-ci restaient partiellement imprévisibles, capables de désertion, de rébellion, de critique sourde. Mais il existe une alternative à l’idéologie : l’affect direct. Non le contenu politique qui demande à être défendu rationnellement, mais les émotions primaires qui court-circuitent la raison. C’est ici que la gamification intervient, non pas comme simple outil de rétention utilisateur, mais comme principe politique fondamental.

Yarvin expose le calcul : « Ici, dans la Silicon Valley, nous savons comment parler au chimpanzé intérieur de nos clients. » Cette formulation n’est pas une plaisanterie. Elle énonce une théorie politique radicale : la politique du XXIe siècle ne s’adresse plus à la raison, ne cherche pas à convaincre par l’argument, mais s’adresse directement aux affects infraconscients. Comment ? Par le système de récompense-punition, par le statut social immédiat, par l’excitation de la victoire. L’interface de l’application est conçue précisément selon ce principe : l’utilisateur effectue une action politique (voter, participer, effectuer une tâche) et reçoit immédiatement une récompense quantifiable, un badge, des points d’expérience, une position visible dans un classement. « Les gens feront n’importe quoi, même voter, il suffit d’en faire un jeu. » Ces récompenses ne possèdent aucune valeur intrinsèque (ce ne sont que des pixels, du bruit sur un écran), mais elles activent des mécanismes psychologiques profonds : le désir de compétition, la peur de la perte de statut, la satisfaction narcissique de la progression visible, la crainte de rester en arrière du classement. Le sujet ne vote plus parce qu’il pense que c’est juste ou nécessaire. Il vote parce qu’il veut le badge, parce qu’il veut monter dans le classement, parce que le jeu le capture. Voici le point critique : la gamification ne fonctionne efficacement que si elle opère indépendamment du contenu politique. Le badge ne dit rien. Il ne signifie rien. Il est pur valeur affective, pur désir. Et c’est précisément à partir de là que le système peut se permettre d’abandonner le contenu sémantique. Pourquoi ? Parce que l’adhésion n’est plus liée au sens. Le sujet n’a plus besoin de comprendre l’ordre pour l’exécuter. Il n’a plus besoin de croire au projet pour participer. Il a besoin uniquement de désirer la récompense suivante. Cela réalise une séparation entre affect et signification : le corps politique continue à fonctionner parfaitement (les votes sont donnés, les ordres exécutés, la coordination demeure totale), mais le contenu politique, le sens, l’enjeu idéologique disparaît  du système.

C’est ici que débute ce que nous appelons la désémantisation, c’est-à-dire le processus par lequel le langage politique cesse d’avoir une fonction référentielle pour devenir de simples tenseurs, entités mathématiques utilisées en IA qui décrivent seulement direction et intensité sans signifié. Yarvin énonce cela avec brutalité : l’électeur n’a plus besoin de comprendre le système qui le gouverne. « L’acte concret de remplir les bulletins ne relève plus que de la saisie de données. Ils n’ont plus besoin de suivre les “informations”. Ils n’ont plus besoin de lire sur les “enjeux”. Ils n’ont plus besoin de connaître les “candidats”. » Ce qui demeure n’est qu’affect, pur flux d’émotions structuré algorithmiquement. Le vote n’est plus un acte de délibération citoyenne. C’est une opération technique : tu appuies sur le bouton, tu reçois ton badge, tu gravis un échelon. Le moteur n’est pas l’idéologie mais l’excitation de la victoire, la satisfaction immédiate, l’acquisition du point suivant. La politique se réduit à une donnée binaire : victoire ou défaite. À une affection : excitation ou dépression (et une politique qui prétend tout réduire à ces états psychologiques est complice de cette binarisation). Tout le reste (le contenu politique, la signification idéologique, la substance du débat démocratique) disparaît entièrement. Non parce qu’il est censuré explicitement (ce qui serait trop visible), mais parce qu’il n’est simplement plus pertinent. Le système fonctionne sans lui. C’est la transformation du signifiant politique en simple tenseur vectoriel : la politique opérant littéralement en deçà du seuil sémantique, dans cet espace infra-sémantique où le signifié n’existe plus, où seuls subsistent les affects et les flux.

L’infrastructure du différend

Mais la gamification seule ne suffit pas. Il faut aussi que l’utilisateur n’ait jamais l’occasion de sortir de l’univers informatif délimité par l’appareil du parti. Il faut que la réalité elle-même soit structurée de telle manière que toute critique, toute opposition rationnelle, soit rendue littéralement inintelligible. C’est pourquoi Yarvin insiste sur la construction d’une infrastructure informationnelle parallèle, complète et autarcique : « Si vous êtes consommateur d’information, vous recevez vos nouvelles du parti. Si vous lisez des livres, le parti les écrit. Si vous utilisez l’IA, le parti a entraîné sa propre IA. Si vous consultez une encyclopédie en ligne, le parti dispose de sa propre version de Wikipédia. » Cette énumération compulsive n’est pas simplement rhétorique. Elle désigne un objectif précis : la saturation de l’espace informationnel, l’impossibilité matérielle de sortir du réseau de contrôle.

L’Antiversity que Yarvin propose dépasse largement le simple outil informationnel alternatif. Elle fonctionne comme un producteur indépendant de vérité conçu pour remplacer l’université libérale et, comme il l’écrit, « continuer à guider la Nouvelle Structure vers la stabilité, agissant comme le cerveau du NUSG, tout comme l’Université agissait comme le cerveau de l’OUSG » (Curtis Yarvin, cité dans Elizabeth Sandifer & Jack Graham, « Neoreaction: A Basilisk », 2018). Son rôle n’est pas de communiquer mais de produire une vérité officielle institutionnalisée qui ne repose plus sur le consensus démocratique mais sur une autorité technique souveraine. Mais comment cette « autorité technique souveraine » se perpétue-t-elle sans être reconnue comme totalitaire ? C’est par ce que Hugo Rowley appelle une « boucle de rétroaction » systémique, qui est précisément la structure de la Cathédrale yarvinienne : une « belle boucle de rétroaction où la désinformation justifie un mauvais gouvernement, et où ce même gouvernement subventionne cette désinformation ». Ce qui émerge n’est pas un pouvoir centralisé qui ordonne la vérité, mais un système auto-amplifié où chaque élément renforce les autres. L’infrastructure informationnelle produit la doctrine ; la doctrine justifie l’infrastructure ; les deux ensemble produisent l’impossibilité de la critique rationnelle. C’est pourquoi cette autorité technique n’a jamais besoin d’être explicitement défendue : elle fonctionne par auto-renforcement. Ici se réalise l’industrialisation du différend. Le vectofascisme ne produit pas un seul discours totalitaire monolithique mais produit une fragmentation structurée, une incommensurabilité. Si vous contrôlez l’infrastructure informationnelle entière (les nouvelles, les livres, l’IA, l’encyclopédie, les contenus vidéo, les images, les mèmes), alors il n’existe plus de désaccord au sens traditionnel du mot. Il ne peut plus y avoir de débat entre deux positions raisonnables. Ce qui demeure, c’est une fragmentation des perceptions de la réalité. Car le mécanisme n’est pas la censure brute (le silence, le bannissement). C’est la production systématique de l’incommensurabilité. Chaque nœud du réseau social perçoit un univers légèrement différent, des ennemis légèrement différents, des enjeux légèrement différents. L’ennemi n’est pas interdit ; il est rendu inaudible et inintelligible par la fragmentation du champ d’écoute lui-même. C’est un pouvoir qui s’exerce par l’ouverture apparente (la prolifération des médias) pour créer une clôture (l’impossibilité de la critique factuelle).

Mais il existe une couche encore plus importante de cette architecture : la duplicité structurelle. Yarvin stipule que la doctrine du parti existe en deux versions différentes. D’un côté, il y a le « résumé public » destiné à servir de base de recrutement et d’alibi politique, une façade sémantique destinée à tromper la critique externe. De l’autre, il y a le « plan réel », accessible uniquement aux initiés de la direction, qui contient les véritables intentions stratégiques du mouvement. Cette distinction n’est pas une simple dissimulation banale. C’est un principe organisateur du pouvoir totalitaire lui-même. Car qu’est-ce que cela signifie précisément ? L’opposition ne peut jamais attaquer le projet réel. Elle peut seulement s’acharner contre la façade. La critique rationnelle, la réfutation factuelle, s’acharnent contre un adversaire fantôme. Pendant ce temps, l’action réelle, le véritable objectif du mouvement, se déploie de manière imperceptible, inaccessible au débat public. Le discours public du parti fonctionne comme un simple vecteur désémantisé (rempli de symboles, de références, de gesticulations rhétoriques), tandis que son action est régie par une logique interne invisible. C’est ce que nous appelons le pouvoir spectral : un pouvoir qui est simultanément présent et absent, agissant sans jamais être localisable ou contestable directement. Il est omniprésent sans jamais être identifiable publiquement. Il se renforce par sa propre dénégation performative. L’industrialisation du différend est ainsi perfectionnée : le pouvoir opère en deçà du seuil d’intelligibilité critique en divisant la réalité en deux couches irréductibles, l’une publique, désémantisée, facile à critiquer ; l’autre privée, réelle, inaccessible à l’analyse.

Or, pour que cette infrastructure fonctionne réellement, pour que le pouvoir spectral s’exerce concrètement dans les institutions existantes, il faut quelque chose de plus que l’application et le contrôle informationnel. Il faut une présence à la fois invisible et omnisciente au sein de chaque institution d’élite. Il faut l’infiltration clandestine systématique de l’appareil d’État, des corporations, des universités, de tous les lieux où s’exerce quelque forme de pouvoir.

Yarvin explique que les cadres du parti doivent « dissimuler leur niveau d’engagement » et organiser, au sein de toute institution d’élite, des « cellules clandestines du parti ». L’objectif est de prendre le contrôle de l’institution de l’intérieur, en commençant par les recrutements, les ressources humaines, les flux de pouvoir invisible. Mais pour cela, il faut donner aux cadres « non seulement des outils d’organisation comme une application de coordination du vote, mais aussi de véritables outils d’espionnage ». Cette formulation indique une transformation dans la nature du pouvoir politique lui-même. Ce qui était, dans les fascismes historiques, un phénomène ostensible (le parti visible, reconnaissable, occupant l’espace public), devient une structure de présence clandestine. Le cadre du parti n’est pas identifiable comme tel. Il travaille dans l’administration, dirige une université, occupe un poste dans une grande entreprise, sans que jamais ne soit révélée son véritable allégeance. À partir de son poste de travail ordinaire (responsable des ressources humaines, professeur, ingénieur), il peut exercer une influence en cascade : quels professeurs sont embauchés, quels étudiants sont sélectionnés, quels projets sont financés, quels groupes de travail sont constitués. C’est pour cela que le « plan réel » doit rester secret. L’opposition ne peut critiquer que ce qu’elle peut voir. Mais le vrai plan opère dans les couches invisibles du pouvoir institutionnel. Ces décisions apparaissent parfaitement ordinaires, justifiables par des critères apparemment neutres. Mais elles produisent, à long terme, une restructuration de l’institution selon les lignes du mouvement. La structure du hard party s’inspire explicitement du Parti communiste chinois, où l’infiltration, la discipline de fer et la loyauté absolue permettent à une organisation privée de devenir l’organe réel du pouvoir d’État, non pas en conquérant l’État de l’extérieur, mais en le saturant de l’intérieur, en remplissant chaque cellule administrative de cadres loyaux jusqu’à ce que la distinction entre parti et État devienne administrative : qui peut dire où l’un commence et où l’autre finit ?

Le leader et l’eugénisme

En parallèle, la figure du leader se transforme elle aussi. Dans les fascismes historiques, le leader était une figure charismatique (le Duce, le Führer) dont la présence physique était centrale, dont la voix résonnait dans les rassemblements, dont le regard fixe était reproduit sur les affiches. La relation au chef était médiatisée par le corps, par la présence, par le charisme personnel.

Mais dans le hard party yarvinien, le leader n’est plus principalement une figure charismatique. Il devient un nœud algorithmique, un point de distribution qui gère la délégation de l’autorité et recalibre perpétuellement les conditions de l’action politique à haute fréquence. Le système de vote est simplifié, pour ne pas dire éradiqué : « Vous votez une fois, pour un parti ou un chef, de manière permanente et transitive. Une fois que vous avez choisi Trump comme chef, pour chaque élection à laquelle vous êtes éligible, vous votez automatiquement pour Trump. Et si Trump n’a aucun intérêt à devenir le prochain chef du service de contrôle animalier du comté de Volusia, il doit bien connaître quelqu’un d’autre qui serait parfait pour ce poste. Vous votez alors automatiquement pour cette personne. » Cela représente une annihilation systématique du choix électoral. L’électeur ne vote qu’une seule fois dans sa vie, pour un chef. Toutes les autres élections, à tous les niveaux (présidentielle, législatives, locales, jusqu’au « service de contrôle animalier du comté ») sont déterminées rétroactivement par cette décision initiale. L’autorité devient un flux vectoriel qui se propage dans le réseau sans friction démocratique, sans délibération, sans possibilité de révocation. Le culte du chef se vectorise ainsi : il n’y a plus d’identification personnelle au leader, seulement une connexion à un point de distribution algorithmique. Ce système garantit une uniformité des cadres politiques et administratifs, imposant la doctrine de la direction à l’ensemble de la bureaucratie, sans friction démocratique, sans la possibilité même d’une réflexion personnelle.

Mais il y a plus problématique encore. Yarvin rejette explicitement l’égalité démocratique elle-même, et c’est ici que le concept de Human Biodiversity (HBD) intervient comme principe organisateur de la hiérarchie. HBD est une thèse qui affirme que les différences génétiques entre populations humaines expliquent les variations dans les capacités intellectuelles, le comportement social et même la « gouvernabilité ». « Il n’y a pas de raison solide d’anticiper que les capacités intellectuelles des peuples géographiquement séparés dans leur évolution se soient avérées avoir évolué de manière identique. » Cette formulation est déceptivement simple. Elle énonce un présupposé qui détruit la démocratie : si les capacités intellectuelles varient selon la géographie et donc selon les lignées, alors l’égalité démocratique n’est pas un idéal moral à poursuivre. C’est une erreur factuelle, une négation de la réalité biologique. La démocratie, qui suppose l’égalité politique entre les citoyens, repose sur un mensonge. Le hard party yarvinien serait donc fondé sur la « reconnaissance de la réalité » : une hiérarchie naturelle inscrite dans les gènes, simplement enfin administrée rationnellement.

Ici se pose la question décisive : HBD mène-t-il logiquement à l’eugénisme ? La réponse est oui, de manière presque inévitable. Et c’est précisément parce que Yarvin comprend cette logique qu’il construit l’architecture qu’il propose.
– Si on accepte que : les différences génétiques déterminent les capacités cognitives et gouvernementales
– Alors il suit logiquement que : une société optimale devrait favoriser la reproduction des génotypes « supérieurs » et défavoriser les autres
– Ce qui est la définition même de : l’eugénisme.

Yarvin n’énonce pas ici le mot explicitement. Il ne propose pas de « programme eugéniste » formel avec stérilisations forcées ou élimination physique. Mais il propose quelque chose de bien plus redoutable : un eugénisme par infrastructure. Le résultat est identique aux vieux eugénismes d’État, mais le mécanisme est différent. Voici comment cela fonctionnerait : la hiérarchie vectorisée assignerait chaque individu une position dans un espace multidimensionnel de capacités présumées. Cette assignation ne serait pas faite manuellement. Elle serait calculée continuellement par l’infrastructure informationnelle du hard party, basée sur les actions, les performances, les résultats à la gamification. Une fois assigné à une certaine position dans cet espace latent de l’IA, l’individu recevrait automatiquement accès à certaines ressources et serait fermé à d’autres. Certains recevraient des postes permettant l’accumulation de capital, l’accès à l’éducation supérieure, les opportunités de réseau et de reproduction. D’autres seraient confinés à des positions qui réduisent structurellement ces opportunités. Nous ne sommes pas loin des inégalités sociales dans les sociétés libérales, mais ce qui est sinistre, c’est que ce système réalise exactement ce qu’un eugénisme ferait, sélectionner selon le génotype présumé, mais sans jamais avoir à l’avouer. Car qui décide ? Personne, ou plutôt : l’algorithme. C’est « juste » le marché qui opère. C’est « juste » la méritocratie qui joue son rôle. C’est « juste » les capacités naturelles qui trouvent leur niveau. On ne peut pas critiquer un algorithme pour discrimination raciale : l’algorithme n’a pas d’intention. Il opère « objectivement », « scientifiquement » même s’il est chargé de tous les biais de ses concepteurs économiques et techniques. Et ainsi, l’eugénisme devient invisible. Les résultats sont sélectifs (certaines populations sont surreprésentées dans les positions hautes, d’autres systématiquement reléguées aux positions basses), mais le processus n’est jamais nommé comme sélection. Il apparaît comme simple différence de « capacité » reflétée dans le positionnement vectoriel.

C’est là que Nick Land, penseur du courant des « Dark Enlightenment » aux côtés de Yarvin, fournit l’idéologie justificatrice cosmique qui rend l’eugénisme inévitable et naturel. Land n’est pas un penseur détaché du projet yarvinien. Il en est un des architectes théoriques fondamentaux. Les « Lumières Sombres » constituent un courant réactionnaire explicitement antihumaniste, antiégalitariste, qui affirme que l’Illuminisme égalitaire a échoué et que l’avenir réside dans une hiérarchie naturelle basée sur la sélection biologique et technologique. Yarvin cite régulièrement Land, s’inscrit dans sa filiation, et partage sa conviction centrale : l’humanité n’a pas la responsabilité de son avenir, mais doit plutôt s’aligner sur des processus évolutifs ou techno-évolutifs qui la dépassent. Land affirme explicitement que le tri systématique mène à une spéciation : une élite technologique se séparant progressivement de la masse, formant une nouvelle espèce post-humaine capable de franchir le « Grand Filtre » évolutif (Nick Land, « The Dark Enlightenment », 2014). Cette séparation n’est pas une dystopie à combattre, c’est l’inévitable actualisation de la sélection naturelle. L’argument est séduisant pour une sensibilité techno-transhumaniste : l’humanité se scinde en deux branches évolutives. Une élite s’augmente technologiquement (fusion avec l’IA, transhumanisme, extension cognitive) tandis que la masse stagne ou décline. Ce n’est pas une aberration, c’est l’avènement de ce que la sélection naturelle elle-même exige.

Mais cela masque ce qui se passe réellement : la classe qui contrôle l’infrastructure se réserve l’accès aux technologies d’augmentation, tandis que la majorité en reste exclue. Ce qui semblerait être une évolution naturelle est en fait un processus de séparation programmée inscrit dans l’architecture du pouvoir. L’eugénisme devient ainsi un processus cosmique, inévitable, « naturel », ce qui le rend politiquement inattaquable. Comment critiquer la sélection naturelle ? Comment s’opposer à l’évolution ? Land fournit donc l’idéologie qui convertit le projet eugénique d’infrastructure de Yarvin en une nécessité évolutive du cosmos, élevant une stratégie de domination programmée au rang d’une loi de la nature. Les « Lumières Sombres » opèrent ainsi une transmutation : ce qui était criminel (l’eugénisme d’État) devient vertueux (l’accélération de l’évolution). Ce qui était politique (un choix humain) devient cosmique (une force transcendantale).

Plus révélateur encore est le concept yarvinien du « formalisme » : « gouverner et posséder n’ont plus de sens distincts ». Dans ce modèle, l’État devient une « corporation souveraine » (sovcorp) dont la propriété est divisée en actions négociables. Le leader devient un « PDG Souverain » dont la responsabilité n’est pas morale mais fiduciaire : il doit maximiser la valeur de l’actif (le territoire, la population) pour ses actionnaires. La loi n’est plus un contrat social. C’est un contrat de service entre le propriétaire et ses locataires (les anciens citoyens, maintenant reclassifiés comme ressources exploitables). Sous ce régime, l’eugénisme n’est plus une question morale ou politique. C’est une simple question de gestion d’actifs : optimiser la « qualité » de la ressource humaine pour maximiser la productivité et la rentabilité. C’est de la gestion de portefeuille appliquée à la population. Et c’est ici qu’on voit comment HBD + infrastructure algorithmique + formalisme créent un système où l’eugénisme opère sans intention malveillante, sans idéologie raciste explicite, sans symboles nazis dénonçables. C’est juste de l’ingénierie optimale.

L’instrumentalisation de la mémoire

Ici il faut s’arrêter sur un autre point : comment l’infrastructure vectofasciste traite-t-elle la mémoire collective, en particulier les traumatismes de masse ? Le mécanisme est le suivant. Les mémoires de catastrophes historiques (guerres, génocides, persécutions) sont chargées émotionnellement de manière intense. Elles portent une charge affective particulière : culpabilité, trauma, devoir de mémoire, impératif de « plus jamais ça ». Ces émotions ne sont pas moins réelles, moins légitimes que d’autres. Elles sont simplement puissantes. Or, ce que l’infrastructure vectofasciste peut exploiter, c’est précisément cette puissance affective. Non pas en niant l’événement, mais en capturant la mémoire elle-même comme un vecteur émotif imperméable à la critique rationnelle. Si un acteur politique invoque la mémoire d’une catastrophe pour justifier une action présente, il crée une situation où critiquer l’action présente revient à critiquer la mémoire de la catastrophe elle-même. La mémoire devient un bouclier rhétorique. L’action présente devient indiscutable, parce qu’elle est encadrée par ce qui ne peut pas être discuté. C’est le détournement de la mémoire comme outil de pouvoir : plutôt que de permettre que la mémoire nous force à penser différemment, on la fige dans une invocation répétée qui paralyse la critique.

Imaginons un trauma collectif : un génocide, une persécution, une violence de masse reconnue historiquement. Ce trauma possède une charge émotionnelle intense. Il est invoqué régulièrement pour :
– Justifier certaines politiques (« pour que ça ne se répète jamais ») ;
– Délégitimer certaines critiques (« tu oses critiquer ? Mais c’est comme ce trauma ! ») ;
– Mobiliser une culpabilité collective (« nous devons réparer le dommage historique de ce trauma »).
Ce qui se passe alors, c’est que la mémoire devient elle-même un ressort politique. Elle cesse d’être un événement historique à comprendre. Elle devient une donnée affective à exploiter. Et le danger, le vrai danger du vectofascisme, c’est que cela peut créer une boucle temporelle où le présent devient prisonnier du passé. Tout ce qui se passe maintenant doit être justifié par référence à ce qui s’est passé alors. Et parce que ce trauma est posé comme absolu, incomparable, aucun événement présent ne peut être nommé avec la même gravité. Résultat : on peut commettre des actions de grande violence ou injustice au présent, en invoquant la prévention de cet événement, et ces actions seront systématiquement minimisées ou justifiées, parce qu’elles opèrent au nom du trauma lui-même.

Cela aboutit à une destruction progressive de la sémantique politique. Les mots qui permettaient autrefois de nommer les violences extrêmes (« génocide », « crime contre l’humanité », « persécution systématique ») deviennent usés, vidés de sens, parce que ces mots sont invoqués de manière si contradictoire et si saturée affectivement qu’ils perdent leur pouvoir discriminant. Ou bien on dit que seul X mérite le nom de « génocide » (parce que c’est le trauma suprême), ou bien on applique le mot de manière si laxiste (à n’importe quelle injustice) qu’il perd sa force critique. Et une fois qu’on ne peut plus nommer avec précision la violence, on ne peut plus la critiquer avec clarté. La sémantique s’effondre. Le pouvoir opère dans cet espace de confusion sémantique, où les mots ne signifient plus rien de stable. Ce processus réalise ce que nous appelons une vectorisation de la mémoire : la transformation d’un événement historique complexe, multifacette, exigeant une compréhension nuancée, en une simple donnée affective à manipuler.

La mémoire de X entre dans l’espace latent du vectofascisme. Elle peut être :
– Activée sélectivement (invoquée pour justifier une action, ignorée pour en critiquer une autre) ;
– Remixée (les détails historiques précis deviennent moins importants que la signature émotionnelle) ;
– Instrumentalisée (utilisée comme justification pour des actions sans rapport direct avec X) ;
– Cannibalisée (le nom de X invoqué pour légitimer ce qui contredirait les leçons de X).

Ce n’est pas une censure brute de la mémoire. C’est une saturation affective qui paralyse la mémoire, qui l’empêche de remplir sa fonction critique, qui la transforme en outil de contrôle émotionnel. Il est crucial de clarifier ce qui se passe réellement ici. Il est entièrement légitime d’invoquer une mémoire historique pour critiquer une politique présente. « Les leçons de X nous enseignent que Y est dangereux » est une forme de raisonnement politique normal et important. Ce qui devient problématique c’est quelque chose de différent : c’est lorsque la mémoire devient un paravent affectif qui rend toute critique de l’action présente indéfendable. C’est lorsque l’invocation de X devient un moyen de ne pas débattre les enjeux concrets du présent.

– Critique légitime : « L’histoire de X nous montre les dangers de [mécanisme spécifique]. La politique Y reproduit ce mécanisme. Donc Y est dangereuse. »
– Instrumentalisation vectofasciste : « X s’est produit. Nous devons empêcher X. Voilà pourquoi [n’importe quelle action] est justifiée. Si vous questionnez [cette action], vous remettez en question le devoir de mémoire de X. »

Pour le vectofascisme, l’intérêt de ce mécanisme est immense : il permet de mobiliser des affects puissants (culpabilité, peur, devoir) sans jamais avoir à débattre les fondamentaux du projet politique. L’infrastructure peut fonctionner au-dessus du débat démocratique ordinaire, en opérant directement sur ces circuits affectifs chargés historiquement. Mais il est important de noter ceci : ce mécanisme ne s’applique pas spécifiquement à une mémoire ou à un événement donné. C’est un mécanisme structurel qui peut s’appliquer à n’importe quel trauma collectif. Toute mémoire chargée émotionnellement peut potentiellement être capturée et instrumentalisée de cette manière. Et c’est précisément pour cela que le mécanisme est si redoutable : il n’opère pas via l’idéologie explicite, mais via la capture de nos obligations émotionnelles les plus légitimes.

La destruction architecturale, les machines de guerre et le grotesque

Mais le projet yarvinien ne s’arrête pas à la prise de pouvoir. Il va bien au-delà. Il envisage une reconstruction physique, matérielle, architecturale de l’État lui-même. Yarvin conçoit le changement de régime selon le modèle d’une guerre d’occupation totale, visant un effacement « irréversible » de l’ancien système démocratique. « Sa première étape consistera à effacer l’ancien régime de manière pacifique mais irréversible, jusqu’à ce que la peinture ait disparu et que le métal brille. » Et il systématise cette destruction au-delà du politique et du droit, jusqu’à toucher l’architecture physique et la mémoire elle-même : « Même les bâtiments de l’ancien gouvernement devraient être démantelés, sauf s’ils présentent une valeur historique ou architecturale réelle. Comme les Alliés l’ont bien compris en 1945, la destruction symbolique est aussi importante que la destruction structurelle. » Cette référence à 1945 n’est pas innocente. Elle invoque précisément le moment où une totalité a été physiquement détruite, où les symboles du régime ont été démolis, où la mémoire architecturale a été effacée. Yarvin propose de reproduire cette logique d’anéantissement (en prenant bien garde de se référer à 1945 et non avant) : une volonté de déterritorialisation physique complète de la démocratie, de démolition des structures matérielles elles-mêmes, de s’assurer qu’aucune autre forme politique ne puisse s’y réinstaller, pas même sa mémoire.

Les machines de guerre autonomes incarnent littéralement cette logique de vectorisation. Le Replicator de Tesla, les drones militaires autonomes, les systèmes de ciblage basés sur l’IA, ces entités technologiques n’ont pas d’empathie par définition, non parce qu’on l’a « désactivée », mais parce qu’elles n’ont jamais eu d’intentionnalité morale. Elles opèrent selon des optimisations vectorielles : cible acquise = action exécutée. Paul Scharre, ancien sniper de l’armée américaine et analyste politique au Pentagon, l’énonce avec clarté dans Army of None : Autonomous Weapons and the Future of War, 2018  : « Qu’aurait fait une machine à la place de Petrov ? La réponse est claire : la machine aurait fait exactement ce pour quoi elle était programmée, sans jamais comprendre les conséquences de ses actions. » Ce n’est pas une limitation technique surmontable. C’est ce que signifie être une machine : l’absence complète d’intentionnalité morale, d’empathie, de compréhension du contexte ou de monde. Mais ce qui est remarquable, c’est que Musk et Trump ont explicitement transformé cette absence d’empathie en vertu à cultiver. Musk, en développant des machines autonomes sans « limitations éthiques », dénonce la « sensibilité progressiste » comme un obstacle à l’efficacité. Trump, en radicalisant la rhétorique du « enemy combatant » et de l’élimination sans remords, présente l’empathie envers l’adversaire comme une trahison nationale. L’absence de conscience n’est plus simplement le destin inévitable des machines. Elle devient un idéal politique à imposer. Cela révèle le secret du vectofascisme : il ne cherche pas à créer l’absence d’empathie chez les machines, ce serait impossible, les machines n’en ont jamais eu. Il cherche plutôt à vectoriser l’empathie humaine elle-même, à la transformer en donnée affective exploitable ou, mieux encore, à la présenter comme une faiblesse à éliminer de la conscience collective. Mais il y a un danger encore plus insidieux que Scharre identifie : le risque moral. Dans son analyse des politiques d’armes autonomes, Scharre observe que « si ceux qui lancent des armes autonomes ne croient pas être responsables des meurtres qui en résultent, ils pourraient devenir négligents, lançant l’arme dans des endroits où peut-être sa performance n’était pas assurée ». En d’autres termes : quand vous reléguez la décision morale à une machine sans conscience, les opérateurs humains eux-mêmes cessent graduellement d’être tenus pour responsables de leurs actions. C’est la propagation du vectofascisme dans les esprits. L’empathie n’est plus une vertu morale qu’on choisit de cultiver. Elle devient une inefficacité algorithmique qu’on doit débugger. Et une fois qu’on a accepté que les machines n’ont pas besoin d’empathie, il devient facile de conclure que les humains non plus ne devraient pas en avoir.

Le vectofascisme réalise donc une inversion morale qui opère en deux temps :
– Temps 1 (infrastructure) : Créer des machines sans conscience morale ;
– Temps 2 (culture opérationnelle) : Utiliser l’existence de ces machines pour affirmer que la conscience morale est une faiblesse à dépasser chez les humains aussi. 

Ce qui rend cette inversion particulièrement redoutable, c’est qu’elle s’appuie sur une vérité technique pour justifier une transformation morale. On ne peut pas débattre de la conscience chez les machines, elle n’y est simplement pas. Mais en utilisant cette absence pour redéfinir la conscience humaine comme obstacle plutôt que vertus, le vectofascisme transforme les termes du débat moral lui-même. Scharre révèle une autre couche de cette transformation : même si on voulait programmer la conscience morale dans une machine, c’est impossible. Il note que « faire ces jugements exigerait un raisonnement moral complexe… Une telle machine exigerait un raisonnement moral au niveau humain, au-delà de l’IA d’aujourd’hui. » Cela crée une situation paradoxale : les machines autonomes incarnent l’idéal vectofasciste précisément parce qu’elles sont incapables d’avoir la conscience morale que Musk et Trump dénoncent comme obstacle. Elles ne pourraient jamais « se soucier » du fait qu’elles tuent. Elles sont la forme parfaite du pouvoir sans remords, sans hésitation, sans humanité. Les machines autonomes ne sont pas simplement des outils. Elles sont des prophètes du vectofascisme : elles incarnent l’idéal du système optimal quand on a supprimé tout ce qui freine l’action, morale, hésitation, remords, empathie, conscience. Et elles montrent aussi comment cette suppression se propage aux humains qui les utilisent. Le risque moral que Scharre identifie n’est pas un bug. C’est une feature du vectofascisme : construire un système où la conscience morale devient impossible à exercer, pas parce qu’on l’interdit explicitement, mais parce que l’infrastructure elle-même la rend obsolète.

Il existe un mécanisme supplémentaire qui lie intimement la gamification à la destruction sémantique : l’utilisation d’une esthétique du grotesque et du kitsch comme outil de capture émotionnelle couplée au court-circuitage de la critique rationnelle. Rappelons comment fonctionne la gamification : elle ne produit pas de sens, elle produit des affects (récompense, progression, statut). L’utilisateur ne vote pas parce qu’il comprend le projet politique, il vote parce qu’il désire le badge suivant. L’affect se détache du signifié. Le grotesque opère exactement sur cette brèche. Il la systématise et l’amplifie. Prenons l’exemple de Beeple (pseudonyme de Mike Winkelmann), artiste produisant quotidiennement depuis 2010 des images techniquement sophistiquées mais esthétiquement vulgaires : un mélange de haute technologie 3D et de kitsch, d’ironie et d’absurdité grotesque. Ses NFT se vendent pour des millions. Mais l’important n’est pas le marché, c’est le court-circuit émotif qu’il produit. Le grotesque crée un environnement informatif où tous les critères de jugement sont brouillés. Lorsqu’une image est à la fois techniquement impressionnante et esthétiquement ridicule, le cerveau entre en court-circuit. L’ironie devient inséparable de la sincérité. Le beau et le laid ne sont plus des catégories pertinentes. C’est ici que la gamification s’amplifie : dans cet environnement de confusion sémantique, les récompenses affectives deviennent les seuls critères clairs. Le badge n’est plus une aberration dans un univers significatif. C’est la seule chose qui a du sens dans un univers qui a perdu son sens. Habituellement, on critique une politique en disant : « c’est injuste », « c’est mal », « c’est dégradant », critères qui supposent une sériosité morale. Le grotesque préemptif annule cette possibilité. En représentant le mal politique lui-même comme déjà ironique, déjà kitsch, déjà absurde, on l’immunise contre la critique morale. On ne peut pas dire « c’est affreux » à quelque chose qui affirme : « oui, c’est affreux, c’est le point ». L’objet a d’avance occupé le terrain de sa propre critique.

Yarvin lui-même l’énonce : « Passer à un parti à la mode des années 1930, en chemises noires, avec escadrons de la mort, est, je l’admets, comique. » En le qualifiant de comique, il le place dans l’espace du grotesque où la critique sérieuse ne peut plus le saisir. Il y a une immunisation rhétorique : tout recours à la sériosité (« c’est du fascisme ») est immédiatement rejeté comme manquant d’humour. C’est un détournement pervers du grotesque : normalement, le grotesque révèle les contradictions en les amplifiant jusqu’à l’absurde. Ici, il est utilisé pour occulter les contradictions en les convertissant en jeu. La synthèse monstrueuse entre gamification + grotesque + désémantisation produit une capture des affects positifs (victoire, progression, statut) indépendamment du sens, paralyse la capacité à critiquer sérieusement en rendant tout ironiquement absurde, vide le langage politique de son pouvoir référentiel. C’est la paralysie tripartite : émotion sans compréhension, ironie sans alternative, jeu sans conscience. Le vectofascisme réalise sa synthèse la plus redoutable en ces trois points : une totalité où la domination s’exerce sans rencontrer la possibilité d’une critique sérieuse, rationnelle et signifiante.

Le « Hard Reboot » de la Cathédrale

Il y a la question de la doctrine elle-même, de ce que Yarvin appelle la « Cathédrale ». Par ce terme densément chargé, il désigne l’agrégat d’institutions progressistes qui contrôlent selon lui le discours, la culture et l’administration : universités, médias, bureaucratie non élue, organisations internationales de droits de l’homme. Ce n’est pas simplement une description neutre d’un ensemble institutionnel. C’est une accusation théologique. Yarvin définit le progressisme comme une « version sécularisée du quakerisme » ou de l’ultracalvinisme, une religion déguisée en science, une doctrine imposée par la force morale plutôt que la force brute. La Cathédrale n’est pas une bureaucratie neutre mais un « culte mystérieux du pouvoir » qui impose des dogmes (Égalité, Justice Sociale, Diversité) sous couvert de science objective. Le progressisme opère selon la logique d’une église établie, impériale et monopolistique dans sa prétention à incarner la vérité universelle.

Par conséquent, le remplacement de l’ancien régime exige de traiter l’Universalisme comme une église établie et de procéder à sa « désinstallation » complète pour libérer l’État de cette emprise religieuse déguisée en expertise technique. C’est ici que le concept de « hard reboot » révèle sa profondeur totalitaire. Le hard reboot n’est pas une simple réforme ou un changement de majorité électorale. C’est une remise à zéro totale du système, calquée sur le principe de l’ingénieur logiciel réinitialisant un système corrompu par un virus. Cela implique l’éviction systématique de l’ensemble des cadres nommés, la destruction des murs du bâtiment administratif lui-même, et la réécriture intégrale du code fondamental du gouvernement. Mais il y a plus : c’est une institutionnalisation autoritaire de la vérité elle-même. Yarvin énonce : « Et bien sûr, un véritable parti possède une doctrine. Bien avant de prendre le pouvoir, il sait exactement ce qu’il fera du pouvoir. » La doctrine n’est pas découverte par débat démocratique. Elle est instituée par le pouvoir comme réalité a priori. « Ce sont ses idées qui deviendront l’idéologie officielle, la vérité officielle. » Le pouvoir produit donc sa propre forme de vérité, non pas obtenue par consensus démocratique ou vérification empirique, mais imposée par décret souverain. C’est le vectofascisme qui s’épanouit paradoxalement dans la fin des grands récits : il n’a plus besoin de justifier sa vérité par appel à l’Histoire universelle ou au Progrès ou à une Origine. Il l’impose simplement, parce qu’il est le pouvoir, parce qu’il dispose de l’infrastructure informationnelle, du programme de systèmes autonomes décisionnels, du contrôle de l’appareil d’État.

Il existe un dernier mécanisme, peut-être le plus raffiné, que nous avons vu à l’œuvre depuis le début de notre analyse : celui de l’aveu performatif. Yarvin opère un renversement stratégique en admettant explicitement le lien au fascisme. L’aveu du fascisme fonctionne comme une dénégation de second ordre. En le qualifiant de « comique » et en l’intégrant au registre du jeu (la gamification qui structure tout le programme), Yarvin désamorce le terme, tout comme le faisait le bras tendu d’Elon Musk. Le fascisme avoué cesse d’être une accusation sérieuse pour devenir une performance ironique, un programme assumé avec une certaine nonchalance calculée, une sorte de blague que le système se raconte à lui-même. « Cette stratégie vagueness sert plusieurs objectifs : (1) Elle rend ses idées moins extrêmes — en les présentant comme des questions ouvertes plutôt que des appels directs à l’action. (2) Elle permet d’attirer un public plus large — ceux qui pourraient être curieux de la politique réactionnaire mais pas encore pleinement radicalisés. (3) Elle fournit une couverture en cas de confrontation — il peut toujours prétendre qu’il “explorait simplement les possibilités” plutôt que de faire des réclamations prescriptives » (Hugo Rowley, Curtis Yarvin & The Neoreactionary Canon, Made Simple, 2025).  Cela rend la critique libérale et démocratique inopérante. Dès l’instant où le programme a occupé lui-même le terrain de la dénonciation et l’a transformé en vecteur d’amusement et de recrutement, toute critique qui refuse de jouer le jeu demeure incompréhensible, hors du champ des possibles discursifs. C’est la dénégation performative qui se renforce par sa propre répétition, sa propre diffusion. Le pouvoir spectral ne peut être critiqué que de manière spectrale ; la critique frontale, sérieuse, ne peut que passer à côté de sa cible.

Défaillible

Ce qui émerge de cette analyse est une correspondance structurelle entre le diagnostic théorique du vectofascisme et l’ordonnance programmatique de Yarvin. Le concept de vectofascisme servait à identifier une tendance réelle, une virtualité inscrite dans l’infrastructure technique contemporaine, dont le programme yarvinien représente l’une des cristallisations les plus explicites, mais qui peut prendre bien d’autres formes. Le diagnostic n’anticipait pas l’avenir. Il diagnostiquait le présent en cours de mutation. Il identifiait les mécanismes potentiels d’une transformation qui était dispersée, inarticulée, fragmentée. Et le programme yarvinien, en transformant ces mécanismes en architecture explicite et programmée, rend le concept de plus en plus concret, le fait émerger de l’état de virtualité théorique vers celui de possibilité réalisable. L’exemple de Trump, avec son alignement méthodique des institutions culturelles et académiques, montre que nous ne sommes plus dans la phase théorique. Les éléments opèrent maintenant de manière coordonnée, bien que non unifiée sous une intention unique. Le programme vectofasciste combine : l’application mobile comme medium politique total, la gamification comme capture affective, l’infiltration institutionnelle clandestine, l’infrastructure informationnelle parallèle et autarcique, un système de vote transitif qui absorbe toute délibération démocratique, une hiérarchie vectorisée basée sur HBD et l’eugénisme calculé, une doctrine imposée comme réalité officielle, et l’intégration de programmes militaires réels vers l’autonomie complète des décisions de destruction. Mais il faut le noter avec clarté : nous ne savons pas si ce programme sera réellement implémenté de manière cohérente même si nous en voyons déjà certaines prémisses dans le colonianisme trumpien. Nous analysons une tendance, une possibilité inscrite dans les capacités techniques du XXIe siècle. C’est précisément parce que c’est possible que l’analyse devient urgente.

Ce qui rend ce vectofascisme particulièrement insidieux, c’est que la critique politique traditionnelle n’a aucune catégorie pour le saisir. La critique de gauche dispose de concepts (pouvoir, exploitation, hégémonie) mais elle suppose une base matérielle où des humains décident activement d’opprimer d’autres humains selon un mécanisme de classes sociales. Or, le vectofascisme opère de telle manière qu’il n’y a pas seulement un « groupe » qui décide. Il y a une architecture, une infrastructure, un système de calcul. Dire « c’est injuste » suppose que justice et injustice soient des catégories pertinentes. Mais si le système opère en deçà du seuil sémantique, en deçà du langage où « justice » et « injustice » ont du sens, cette critique passe à côté. Dire « c’est du fascisme » est une réaction juste, mais elle suppose que le fascisme soit reconnaissable, dénonçable, que ses intentions soient claires. Or, le vectofascisme réalise précisément sa puissance en affirmant-tout-en-niant qu’il soit fascisme, l’aveu ironique qui désamorce la critique.

La vraie question n’est donc pas : « Comment critique-t-on le vectofascisme ? » La vraie question est : « Comment crée-t-on les conditions pour que d’autres mondes soient possible ? » Mais cette question excède les limites de ce texte. L’analyse du vectofascisme comme infrastructure est préalable à toute contre-architecture. Il faut d’abord nommer les mécanismes pour pouvoir les contourner. Les propositions concrètes (créer des institutions inoptimisées, des espaces publics, des formes de coopération qui refusent la gamification) feront l’objet de recherches ultérieures. Ce qui importe ici : ne pas rester à la pure critique, ne pas transformer le diagnostic en paralysie fascinée. Mais aussi ne pas prétendre que des gestes éthiques individuels suffiront. La construction d’une contre-architecture exige un travail institutionnel, technique, politique, et c’est un autre chantier.

La vraie urgence du vectofascisme ne réside pas dans le programme de Yarvin lui-même, qui peut ou ne pas être implémenté. Elle réside dans le fait que les mécanismes sont déjà là : l’application, la gamification, la désémantisation, l’infiltration, l’infrastructure informationnelle parallèle, les systèmes décisionnels autonomes, la vectorisation de la mémoire, la paralysie morale par le grotesque. Ces mécanismes opèrent fragmentés, dispersés, mais opérants. Observons les contradictions émergentes : le Kremlin ne parvient pas à vectoriser entièrement les populations qui refusent l’identification biométrique. Les systèmes de recommandation de Meta s’effondrent périodiquement sous la charge de contenu à modérer. Les cadres infiltrés dans les universités génèrent eux-mêmes des résistances internes. Les travailleurs d’Amazon qui utilisent les systèmes d’optimisation se sabotent mutuellement pour échapper à l’algorithme. Ces failles montrent que la neutralisation des contradictions n’est pas automatique, mais exige un travail perpétuel de maintenance. Mais attention : cette totalité vectofasciste ne fonctionne que si elle demeure invisible. Elle prospère dans la fragmentation des compréhensions. Elle gère ses propres failles par neutralisation. Car le vectofascisme n’est pas absolu. Il rencontre des résistances, techniques, sociales, affectives. Les contradictions qu’il produit ne disparaissent pas ; il les absorbe en les fragmentant, en les rendant inintelligibles les unes aux autres. Exemple : un utilisateur gamifié peut aussi refuser l’app. Une institution vectorisée peut aussi générer des contre-mouvements. Un citoyen exposé à la désémantisation peut aussi, dans certaines conditions, retrouver un langage critique. Le système ne tolère pas ces contradictions ; il les neutralise. Il les isole, les marginalise, les transforme en bruit de fond. Le danger réside donc non dans l’inévitabilité du vectofascisme, mais dans son efficacité relative à absorber les contradictions. Il ne gagne pas parce qu’il est parfait. Il gagne parce qu’il isole les points de rupture. Mais c’est justement parce qu’il essaye de le faire qu’il est défaillible. Chaque absorption d’une contradiction crée des tensions, des frictions, des points d’appui possibles. L’urgence de ce diagnostic réside précisément là. Pas pour prédire l’avenir, le vectofascisme n’est pas inévitable. Pas pour paralyser par la description d’une totalité sans failles. Mais pour identifier où les contradictions peuvent s’articuler, où les points de rupture pourraient se cristalliser en action collective. Pour maintenir la capacité à nommer ce qui se passe avant qu’il ne soit trop tard pour agir. Pour que, quand une contre-architecture se construira, elle sache précisément pour quoi elle s’édifie et comment.

Gregory Chatonsky

Un agent à l'IA bridée, ultra-ciblé : l'idéal ?

Constant AI
Constant AI, fournisseur de technologie aux « Credit Unions » américaines depuis une décennie, complète aujourd'hui sa plate-forme « digitale » historique de pilotage des crédits avec Nia, qu'il présente comme un agent vocal à base d'intelligence artificielle, spécialisé dans la gestion des demandes de report d'échéance par téléphone.

La solution s'adresse aux établissements qui sont submergés, surtout en ces temps difficiles pour beaucoup de consommateurs, par des appels d'emprunteurs qui souhaitent sauter un paiement dans leur plan de remboursement, comme le prévoient désormais la plupart des contrats. L'automate de la jeune pousse promet de se charger des procédures de bout en bout, dans le respect absolu des règles édictées, aussi bien en termes d'éligibilité que de devoir d'information sur les conditions de l'opération.

La garantie de conformité aux contraintes imposées n'est pas formulée au hasard : en dépit de la communication autour de l'IA agentique, l'ensemble des traitements opérationnels sont assurés par un moteur déterministe, c'est-à-dire fondé sur des algorithmes classiques. L'intelligence artificielle, n'intervient en réalité que dans l'interface, à savoir dans l'animation du dialogue et la génération des paroles énoncées par Nia et dans l'interprétation des répliques de son interlocuteur humain.

À l'opposé des annonces tonitruantes de l'industrie sur la mode du moment (qui recourent parfois aux mêmes artifices de marketing, cependant), nous avons donc ici affaire à un « simple » robot conversationnel, affecté à une tâche extrêmement précise, exécutée par des logiciels relativement traditionnels. Mais est-ce vraiment un défaut ? Ou bien s'agit-il d'une approche focalisée, à bon escient, sur le besoin du client ?

Constant AI – Nia

D'emblée, ce dernier est parfaitement identifié. Dans la plupart des institutions financières, la prise en compte d'une demande de changement sur les échéances de prêt passe par des procédures manuelles, à la fois coûteuses en ressources et néfastes pour les délais de réponse, qui sont alors susceptibles de mettre en difficulté l'emprunteur. Les outils en ligne automatisent déjà les formalités mais une proportion non négligeable de personnes restent réticentes à ces canaux ou ignorent l'option.

Dans ces conditions, l'approche retenue par Constant AI prend tout son sens : ce qui nuit à l'expérience utilisateur est l'appel téléphonique lui-même, avec ses temps d'attente et les tâtonnements du téléconseiller. Voilà ce qui mérite réellement d'être optimisé grâce à un agent intelligent. En revanche, l'automatisation des démarches administratives constitue un problème informatique classique, à résoudre via des moyens classiques, ceux-ci possédant l'immense avantage de ne laisser aucune place aux hallucinations et d'être ainsi rassurants pour les responsables du projet.

Conclusion triviale de cet épisode, il n'est pas interdit d'abuser des « buzzwords » afin de mieux vendre ses produits (et personne ne s'en prive)… tant que leur valeur porte sur une attente véritable et qu'ils remplissent pleinement leur promesse de la combler.

La reconnaissance faciale, en toute impunité

En 2021 déjà, Street Press avait montré que la police française utilise la reconnaissance faciale massivement, couramment et en toute impunité. Le média d’inverstigation Disclose enfonce le clou : on est passé de de 375 000 consultations du fichier TAJ (Traitement des antécédents judiciaires) à 1 000 000 en 2024. Soit 2500 consultations quotidiennes. Une pratique toujours illégale, rappelle la Quadrature du Net qui exige son interdiction et des sanctions contre ceux qui permettent son déploiement, en dehors du cadre légal.

❌