Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierDans les algorithmes
  • ✇Dans les algorithmes
  • Les réseaux sociaux dans la tourmente
    Un tribunal de Los Angeles a reconnu Meta et Google coupables d’avoir créé des produits addictifs ayant causé des troubles mentaux à une jeune femme. Les deux entreprises ont été condamnées à verser 3 millions de dollars de dommages et intérêts. Si la condamnation est dérisoire, le verdict devrait générer d’autres procès (nombreux sont en cours) et pourrait entraîner d’importantes modifications des applications de réseaux sociaux pour s’en prémunir, explique la journaliste Kaitlyn Tiffany pour T

Les réseaux sociaux dans la tourmente

3 avril 2026 à 07:01

Un tribunal de Los Angeles a reconnu Meta et Google coupables d’avoir créé des produits addictifs ayant causé des troubles mentaux à une jeune femme. Les deux entreprises ont été condamnées à verser 3 millions de dollars de dommages et intérêts. Si la condamnation est dérisoire, le verdict devrait générer d’autres procès (nombreux sont en cours) et pourrait entraîner d’importantes modifications des applications de réseaux sociaux pour s’en prémunir, explique la journaliste Kaitlyn Tiffany pour The Atlantic.

Bien sûr, Meta et Google ont fait appel. Mais l’un des avocats du Social Media Victims Law Center estime que le jugement appelle déjà des changements majeurs. Une condamnation qui s’ajoute à un autre verdict rendu contre Meta dans une autre affaire au Nouveau-Mexique où l’entreprise à été condamnée à une amende de 375 millions de dollars pour des milliers d’infractions aux lois de l’Etat sur la protection des consommateurs et sur le fait que Meta aurait indirectement facilité des crimes graves. Cela signifie que non seulement les plateformes permettent l’exploitation des utilisateurs, mais qu’elles présentent des défauts qui nuisent aux utilisateurs. Et ce qui est en cause, ce sont notamment les flux algorithmiques, la lecture automatique des vidéos et les notifications push, ainsi que le fait que Instagram et YouTube avaient été créés par des entreprises conscientes de leur caractère addictif et nocif, et que ces entreprises avaient choisi de ne pas avertir les consommateurs de ces risques.

Aux Etats-Unis, de nombreux procès d’utilisateurs attendent les géants des réseaux sociaux. Si les entreprises de la tech ont beaucoup défendu leurs pratiques pour rassurer les utilisateurs ces dernières années, on sait depuis, avec des documents internes révélés par les enquêtes, que ces entreprises étaient divisées quant à la priorité à accorder à la protection des enfants par rapport à la croissance et à l’engagement des utilisateurs, rappelle la journaliste dans un autre article. Comme le fait de ne pas passer les comptes des adolescents en privé par défaut qui a été longtemps retardé par les équipes commerciales de Meta alors que d’autres équipes de FB avaient alerté du problème dès 2020. Il faudra attendre septembre 2024, pour que les comptes adolescents soient placés en privé par défaut. Ces documents provenant du procès au Nouveau-Mexique ont montré que pendant 6 ans, « Meta a peaufiné des paramètres de confidentialité de base, tout en calculant comment de simples interventions permettraient de réduire modérément le temps passé sur Instagram et en optant initialement pour des mises à jour progressives et prudentes afin de préserver ses statistiques d’engagement ». Un rapport interne montrait que l’algorithme recommandait des comptes d’enfants à des adultes au prétexte que les fans veulent suivre leurs stars préférées et auraient jeté des enfants en pâtures à des délinquants sexuels. 

Désormais, les comptes des mineurs sont mieux surveillés, mais les mesures ne sont toujours pas parfaites, notamment du fait que la modération est devenue très lacunaire sur les plateformes sociales. Enfin, les pratiques de captologie, elles, demeurent plus présentes que jamais. 

Comme l’évoque la designer Nolwenn Maudet dans son manuel Culture du Design numérique : histoire des idées et des enjeux (éditions 205, 2026), en rappelant les propos du designer Aza Raskin à l’époque où il défendait le passage au scroll infini (avant de se repentir) : « Le problème c’est qu’à chaque fois que les utilisateurs sont forcés de cliquer sur la page suivante, ils sont extraits du monde du contenu vers le monde de la navigation : ils ne sont plus en train de penser à ce qu’ils lisent mais à comment en lire plus. Comme le fil de leurs pensées est brisé, cela les oblige à arrêter de lire, et cela leur donne l’opportunité de quitter le site. Ce qu’ils font. » Les darks patterns ont donc bien pour fonction de limiter la réflexion de l’utilisateur pour favoriser son engagement. La captologie a bien été utilisée pour créer des dépendances cognitives. En Caroline du Sud, un projet de loi souhaite d’ailleurs débrancher les fonctionnalités addictives pour les comptes enfants, telles que le défilement infini, certaines notifications push, la lecture automatique des vidéos, les compteurs de mentions J’aime et autres indicateurs d’engagement, les badges de compte et les flux d’actualités exploitant le profil. Aux Pays-Bas, Meta a fait appel d’une décision de justice qui l’oblige à proposer un fil alternatif chronologique à son classement algorithmique.

Reste à savoir quand ces interdictions s’étenderont à tous les autres profils, puisque cette compulsivité est bien armée contre l’utilisateur.  

En attendant, estime un spécialiste interrogé par Le Monde, les réseaux sociaux jouent la montre. Il est probable qu’ils continuent à faire des ajustements mineurs, progressifs, incrémentaux.

  • ✇Dans les algorithmes
  • Cosplay forensique
    La désinformation générée par l’IA submerge la couverture médiatique de la guerre en Iran, rapportent Wired, la BBC, CNN, The Atlantic…. Pour The Guardian, la journaliste Tess Mcclure a mené l’enquête sur une image qui a fait le tour des réseaux, celle du cimetière de Minab, photographié alors qu’il s’apprête à accueillir l’inhumation de plus de 100 jeunes filles de la ville. Une image emblématique de la guerre israélo-américaine contre l’Iran, témoignant de son terrible bilan humain.  En dem

Cosplay forensique

2 avril 2026 à 07:00

La désinformation générée par l’IA submerge la couverture médiatique de la guerre en Iran, rapportent Wired, la BBC, CNN, The Atlantic…. Pour The Guardian, la journaliste Tess Mcclure a mené l’enquête sur une image qui a fait le tour des réseaux, celle du cimetière de Minab, photographié alors qu’il s’apprête à accueillir l’inhumation de plus de 100 jeunes filles de la ville. Une image emblématique de la guerre israélo-américaine contre l’Iran, témoignant de son terrible bilan humain. 

En demandant aux services IA comme Gemini ou Grok, les deux répondent que ces images ne sont pas réelles et sont des images provenant de catastrophes antérieures. Les deux IA sont péremptoires et fournissent des sources pour l’image originale, mais qui ne mènent nulle part : soit l’image est introuvable, soit le lien fourni renvoie à un article de presse inexistant. 

Les experts, eux, estiment que l’image est authentique : elle n’a pas de signe d’altération et elle correspond aux lieux réels. 

Dans les rédactions, les vérificateurs de faits sont constamment débordés par le flux incessant d’images truquées. Aujourd’hui, « près de la moitié, voire plus, des fausses informations virales que nous suivons et démentons sont générées par l’IA », explique l’un d’entre eux. Le phénomène est aggravé par les synthèses d’actualités IA, qui sont pourtant très utilisées par les internautes, alors qu’une étude menée en 2025 a révélé qu’environ la moitié des synthèses générées par l’IA présentaient au moins un problème important de source ou d’exactitude – ce taux atteignant même 76 % pour certains outils, comme l’interface Gemini de Google. Le problème, souligne Mcclure n’est d’ailleurs pas seulement que ces interfaces produisent du faux, mais qu’elles n’identifient pas non plus la réalité. « Le problème est aggravé par la manière péremptoire dont l’IA présente ses conclusions. Elle génère des rapports détaillés, incluant noms, dates, références et sources : un contenu qui laisse supposer une recherche et une compréhension approfondies, mais qui peut en réalité être halluciné ou inexistant. Lorsque le Guardian a interrogé Gemini sur la réponse concernant la photographie de Minab, en demandant : “Je ne pense pas que ce soit correct, pouvez-vous effectuer une nouvelle recherche ?”, Gemini a modifié sa conclusion, mais pour indiquer un autre lieu et une autre année erronés. »

Shirin Anlen et Mahsa Alimardani de l’association Witness, expliquent dans une tribune pour Tech Policy Press qu’on voit apparaître beaucoup d’analyses d’apparence technique pour discréditer faussement des preuves authentiques. Le journaliste de BBC Verify, Shayan Sardarizadeh, a constaté que ce conflit pourrait déjà avoir battu des records en matière de quantité de contenu généré par l’IA et devenu viral en temps de guerre. Le chercheur en OSINT Tal Hagin a également observé que le problème ne se limite plus aux utilisateurs ordinaires des réseaux sociaux trompés ; le volume de ces tromperies a dépassé les capacités de vérification, même des rédactions professionnelles. Dans ce contexte, les preuves authentiques sont non seulement plus difficiles à trouver, mais elles sont activement dissimulées par le flux de contenus. Des preuves d’apparence technique, associées à une allégation mensongère, circulent plus vite que toute correction. Nous sommes en train de basculer dans l’instrumentalisation de la détection par IA et de l’analyse forensique elle-même : des visuels d’apparence technique peuvent créer une illusion d’autorité technique. Nous voici dans le « Cosplay forensique», une forme de déguisement de l’activité d’investigation, comme une fabrication de fausses preuves médico-légales…  où l’on trouve par exemple de fausses cartes thermiques pour discréditer des images réelles… Les outils conçus pour détecter la manipulation deviennent des instruments de manipulation, utilisés pour semer le doute et la confusion autour d’événements réels, voire de victimes réelles.

« Le brouillard de l’IA n’a pas besoin que chaque contenu soit fabriqué. Il a besoin que la question « Est-ce réel ? » devienne quasiment insoluble », estime très pertinemment Mahsa Alimardani pour The Atlantic. Le problème est que, dans ce flou, même les preuves ne fonctionnent plus, se désole-t-elle. 
La désinformation a pourtant un coût, estimait récemment une étude de Sopra Steria : 417 milliards de dollars. Quant à l’inaction des plateformes face à ces contenus, elle est liée à la grande difficulté à identifier les contenus génératifs, estime le Monde à la suite du site spécialisé Indicator. En fait, la labellisation des contenus IA par les plateformes repose sur des détecteurs automatiques qui ne fonctionnent pas, comme le soulignait le New York Times, mais surtout, les plateformes ne sont pas incitées à modérer ces contenus. « Dans un monde où le président américain diffuse lui-même de fausses informations et utilise massivement des images générées par IA pour communiquer sur les réseaux sociaux, la pression sur les géants de la tech pour supprimer les premières et labelliser les secondes est faible », conclut Le Monde.

  • ✇Dans les algorithmes
  • Startups : le mythe est nu
    Que sont vraiment les startups ?, interroge la sociologue Marion Flécher dans son livre. Des outils d’accélération du capitalisme assurément qui semblent surtout borner l’accès au capital aux mieux dotés. Derrière la fable d’un mérite sous stéroïdes, la startup est d’abord le lieu d’une reproduction sociale encore plus fermée sur elle-même. Derrière le mythe d’une organisation cool, débarrassée des vieilles hiérarchies, l’intensification, la précarisation et la compétition y règnent en maître. 

Startups : le mythe est nu

31 mars 2026 à 07:00

Que sont vraiment les startups ?, interroge la sociologue Marion Flécher dans son livre. Des outils d’accélération du capitalisme assurément qui semblent surtout borner l’accès au capital aux mieux dotés. Derrière la fable d’un mérite sous stéroïdes, la startup est d’abord le lieu d’une reproduction sociale encore plus fermée sur elle-même. Derrière le mythe d’une organisation cool, débarrassée des vieilles hiérarchies, l’intensification, la précarisation et la compétition y règnent en maître. 

Dans Le monde des startups (Presses de SciencesPo, 2025), la sociologue Marion Flécher déconstruit le mythe des startups. Leur modèle économique et organisationnel n’est pas accessible à tous, tant s’en faut. Dans son livre, la sociologue interroge le modèle d’organisation que cette forme d’entreprise mal définie promeut. La croissance comme le caractère innovant de ces entreprises restent des critères opaques. Le terme même de startup peut qualifier indifféremment un service web à forte croissance, qu’une PME de textile, ou qu’une entreprise de brasserie à la mode. Tant et si bien qu’on pourrait se demander si ce qui qualifie avant tout une startup ne serait pas le narratif qu’elles produisent sur elles-mêmes voire, plus encore, le narratif de disruption qu’elles mobilisent. 

Flécher tente pourtant de délimiter le champ du problème, c’est-à-dire de quantifier le phénomène. Mais selon l’indicateur choisi (le taux de croissance, la levée de fonds, les entreprises qui obtiennent une aide à l’innovation… le caractère innovant de son offre et de son modèle économique…), le paysage se révèle mouvant. La startup est d’abord une représentation, une posture plus qu’une réalité. Et c’est exactement ce que relève l’enquête, en montrant les limites du modèle de rupture que promeuvent les startups, que ce soit une rupture dans leur modèle de croissance, dans leur modèle organisationnel et plus encore dans le récit qu’elles font d’elles-mêmes, pour se distinguer des autres entreprises. Pour Flécher, les startups tiennent d’abord d’un récit, d’un « nouvel instrument de légitimation du capitalisme ». Derrière les pitchs, le storytelling, les KPI, le business plan, et la construction de la figure héroïque de l’entrepreneur, c’est bien les modalités même du récit d’entreprise qui est transformé.  

Startups : des entreprises au service de l’accélération capitaliste

Comme le disait le professeur en sciences de gestion Anthony Galluzo dans Le mythe de l’entrepreneur (La Découverte, 2023), avec la startup s’est imposée un monde, une idéologie, un système moral : celui de l’entrepreneur roi. Flécher rappelle que l’histoire des startups comme modèle d’entreprise née dans la Silicon Valley est d’abord l’histoire de la reconversion industrielle d’un territoire, rendue possible par l’action conjuguée du monde universitaire, industriel et étatique. Le monde de la startup est né d’entreprises cherchant à se singulariser, en réinventant leurs modes de production et d’organisation. C’est un monde d’entreprises en rupture par les technologies qu’elles mettent en œuvre, par la taille de leurs équipes, par le cadre de travail qu’elles offrent à leurs ingénieurs ainsi qu’une rupture économique et financière. Ce qui semble le mieux définir la startup, rappelle Flécher, reste assurément le modèle spéculatif qu’elles représentent, la promesse de bénéfices records en un temps réduit. Avec la startup, s’impose un modèle d’entreprise où « les logiques financières priment désormais sur toute autre considération industrielle ou sociale ». Les startups ne sont possibles que parce que la finance et les autorités vont encourager ce modèle, déroulant des législations favorisant ces investissements et leur essor. 

Flécher fait un sort assez rapide aux innovations organisationnelles. Alors que les innovations managériales sont censées servir l’innovation technique, ce marqueur, qui vise à s’extraire des modes de gestion autoritaires des entreprises classiques, tient surtout du narratif. Le fait d’aller travailler sans cravate, comme le promouvait Robert Noyce chez Intel dès les années 60, ne semble qu’un ensemble de faux-semblants, un paravent. La réalité n’est peut-être pas tant le management à la cool que l’intégration, très tôt, de techniques d’optimisation des coûts, comme la délocalisation des opérations, l’intégration de la recherche à la production… qui visent à produire une entreprise peut-être plus souple, plus agile, mais d’abord « plus maigre ». Derrière l’autogestion, la collaboration, la créativité, le modèle organisationnel des startups a surtout instrumentalisé ces principes au service du capital et du profit. Le fun comme la distribution des parts de l’entreprise aux salariés  a surtout permis de produire une meilleure adhésion des travailleurs. Le Googleplex a bien plus tenu d’une « institution totale » visant à atténuer la subversion, à améliorer la performance et donc les profits.

Flécher observe également comment ce modèle d’entreprise a colonisé le monde. Mais plus que le modèle d’entreprise, ou que la révolution numérique, c’est bien là encore un modèle de dérégulation de l’investissement qui a fait école. C’est dans les années 2010, avec le développement de l’offre des startups américaines en Europe notamment que le modèle s’impose. La chercheuse identifie l’année 2013 comme une date clé. C’est à la fois la date où Uber, qui s’est implantée en France l’année précédente, ouvre son offre, tout comme Airbnb. C’est aussi celle où se lancent la French Tech et BPI France, c’est-à-dire à la fois où se structure le réseau d’investissement et son financement. La startup devient alors « un objet d’action publique ». C’est le moment où elle devient un projet de construction politique, permettant, au choix, de dynamiser la croissance, reconquérir la compétitivité internationale, relancer l’innovation alors que la désindustrialisation bat son plein. Un déploiement qui s’accompagne surtout de mesures légales d’exonérations fiscales et de crédits d’impôts qui ont « clairement sonné le virage libéral du quinquennat de François Hollande ». Macron fera d’ailleurs de la startup un pilier de son projet politique, s’emparant « de l’imaginaire associé aux startups – agilité, modernité, ouverture internationale – comme un outil de distinction dans le champ politique ». Avec l’imaginaire de la startup et de l’entrepreneuriat, l’Etat n’est pas seulement vu comme un soutien financier à l’innovation, mais également comme une entité à startupiser, c’est-à-dire à devenir agile et digital, à gérer comme une entreprise. Pour Flécher, la startup nation de Macron est le paradigme d’un État néolibéral au service de l’entreprise. « A la différence des Etats-Unis, où les fonds de capital-risque ont rapidement pris le contrôle du marché du financement des startups, c’est l’Etat qui en France, apporte le gros soutien institutionnel et financier aux startups françaises », notamment pour compenser le fait que le capital-risque n’y est pas très développé. « Par effet d’entraînement et d’attraction des investissements publics, on assiste, depuis le début des années 2000, à une véritable prolifération des dispositifs organisationnels et marchands visant à soutenir et accompagner les créateurs et créatrices de startups ». Les structures (incubateurs, accélérateurs, pépinières) se multiplient. En 2025, la French Tech recense 167 espaces de travail dédiés, et 209 incubateurs et accélérateurs. Autant de politiques, qui « loin de promouvoir le laisser faire et la libre concurrence des marchés, défendent au contraire une vision active d’un État au service des marchés, de l’entreprise et de la finance »

L’institutionnalisation du monde des startups n’est pas un phénomène spontané, conclut Flécher, mais au contraire un processus organisé, étroitement adossé aux institutions publiques qui procurent un soutien financier déterminant. Derrière la main invisible du marché, il faut bien plus voir la « main financière de l’Etat ». Ce soutien politique et financier de grande ampleur montre surtout que la réussite entrepreneuriale ne tient pas tant du mérite ou du talent d’individus, que d’un accès aux aides publiques, aux marchés publics, aux dispositifs de financements et à des formes législatives dédiées… 

L’entrepreneur est bien plus celui qui va savoir naviguer dans ces dispositifs hiérarchisés qu’autres choses. Il est bien plus celui qui va savoir profiter des complexités des dispositifs, inégalement distribués, tant dans l’accès que dans le succès. 

Inégalités de l’entreprenariat

Pas plus que la définition de la startup n’est claire, l’entrepreneur n’est pas non plus une catégorie sociostatistique, rappelle Marion Flécher. Les statuts du créateur de startups sont variables et ambigus : salariés, indépendants, micro-entrepreneurs, voire sans statuts clairs… cette diversité éclaire surtout une grande hétérogénéité des situations économiques et sociales. Pourtant, explique la sociologue, derrière la diversité sociale, l’inclusion et l’ouverture qu’elle paraît célébrer, le fait qu’il suffirait « d’oser pour entreprendre », la réalité est toute autre. Le milieu est fortement sélectif et élitiste, plus encore que ne l’est le monde de l’entreprise traditionnel. Ils ne ressemblent plus beaucoup aux innovateurs ordinaires qu’évoquaient les sociologues Michel Grossetti, Jean-François Barthe et Nathalie Chauvac dans leur livre Les start-up, des entreprises comme les autres ? (Presses de la Sorbonne, 2018). 

Alors que la grande majorité des créateurs et créatrices d’entreprise sont peu ou pas diplômés, les fondateurs de startups, eux, sont souvent surdiplômés. La grande majorité proviennent de milieux sociaux favorisés, disposent d’un habitus entrepreneurial. La plupart bénéficient de soutiens familiaux et financiers qui réduisent considérablement le risque de l’entrepreneuriat. Alors que l’essentiel des créateurs d’entreprises traditionnels se lancent seuls, c’est rarement le cas dans le monde des startups. La présence d’associés dans le projet est un critère de sélection dans l’accès aux organismes d’accompagnement et de financement, note la sociologue, montrant l’importance de la socialisation dans ce milieu, critère valorisé. Flécher montre clairement que « seuls les membres d’une élite économique, étroitement liée au milieu d’affaires, peuvent espérer accéder à la création de startups » et y rencontrer le succès. Le monde des startups est d’abord un petit monde où règne une forte endogamie, une héritocratie plus qu’une méritocratie. En allant observer le dispositif French Tech dédié à promouvoir la diversité sociale, Flécher montre combien l’écosystème des startups et de leurs soutiens est fortement hiérarchisé. Ceux qui n’ont pas les codes sociaux, les réseaux, sont relégués à des formes de soutiens dédiés qui ne permettent pas d’accéder aux meilleurs financements et soutiens. A la division des CSP, des origines, s’ajoute celle du genre. « Le monde des startups demeure un entre-soi masculin ». Bref, les conditions d’accès au monde des startups sont « particulièrement sélectives », voire plus sélectives qu’ailleurs, et bénéficie d’abord à une jeunesse masculine et très privilégiée. 

L’entrée dans l’entrepreneuriat ne se fait pas sous contrainte comme c’est le cas des micro-entrepreneurs ou des travailleurs des plateformes. Bien souvent, elle est surtout une bifurcation professionnelle choisie, « un calcul d’opportunité plus qu’une prise de risque ». Les entrepreneurs que Flécher interroge estiment que la startup n’est pas un entreprenariat comme les autres, d’abord parce que les perspectives d’enrichissement sont plus fortes. Ceux qui se lancent sont à la recherche de prestige et d’enrichissement bien plus qu’ils ne visent à changer le monde. Nombre d’entrepreneurs de startups ne prennent pas autant de risques qu’ils le disent, d’ailleurs. Beaucoup sécurisent leur bifurcation professionnelle, en conservant un emploi salarié en parallèle, en utilisant leurs droits au chômage et surtout en devenant chef d’entreprises salariés. « 64% des créateurs et créatrices de startup de notre échantillon ont choisi de rester “assimilés salariés” en optant pour le statut de chef d’entreprise salarié (contre seulement 10% pour celui d’indépendant) ». Derrière les discours sur le mérite, sur le risque, les entrepreneurs de startups sont « très attachés à la stabilité et à la sécurité »

Marion Flécher s’intéresse bien sûr à ceux qui réussissent et ceux qui échouent dans cet univers entrepreneurial marqué par un fort taux d’échec (qui augmente avec l’ancienneté de l’entreprise, passant de 20% à la fin de la 1ère année à 50% à la fin de 5e année). Les études sur le sujet se sont concentrées sur les facteurs exogènes, notamment les produits qui ne rencontrent pas leurs marchés, plutôt que sur les déterminants sociaux de l’échec. Or l’échec des startups est inégalement distribué, constate la chercheuse. Celles qui rencontrent le succès ont notamment (parmi d’autres) une caractéristique : elles ont bénéficié du soutien des organismes d’accompagnement. « La croissance d’une startup s’inscrit ainsi dans un processus séquentiel et codifié d’étapes interdépendantes »le soutien institutionnel joue un rôle, en apportant une crédibilité, un capital symbolique d’autant plus important que la valeur des entreprises dépend pour beaucoup de croyances, de confiance, de réputation. Or, rappelle la sociologue, les individus ne sont pas également armés pour obtenir le soutien des organismes spécialisés dans l’accompagnement et le financement : « ceux qui détiennent les codes de cet univers franchissent les étapes sans trop de difficultés ». Même constat pour les levées de fonds. Les startups ne sont pas des entreprises rentables. Leur développement repose sur des besoins de financement récurrent et grandissant. Leur parcours ressemble à un parcours d’obstacles très organisés, une épreuve de persuasion et de crédibilité qui repose d’abord sur les qualités techniques et économiques des projets ainsi que sur les qualités sociales des individus qui les portent. Les femmes ont ainsi 2,2 fois moins de chances qu’un homme de réussir à lever des fonds. Les plus diplômés 2 fois plus, ceux qui ont un associé, 5,5 fois plus, ceux qui ont généré un chiffre d’affaires 7 à 24 fois plus. Le pitch, épreuve reine de ce processus, est lui-même très codifié, et nécessite d’en maîtriser les codes. Sans surprise, socialement parlant, la réussite demeure profondément socialement distribuée. Les logiques de cooptation sociale, d’homophilie sociale restent majeures

La sociologie des startupeurs est et demeure avant tout un petit monde qui se reproduit entre eux. Sa méritocratie apparente apparaît comme très factice. Quant à l’échec, non seulement il est inégalement distribué, mais ses conséquences n’ont pas le même coût pour tous les postulants. L’échec l’est beaucoup moins pour ceux qui ont un certain niveau de ressources, de réseaux et qui sont capables de rebondir. Pour beaucoup de ceux qui lancent leurs startups, l’expérience entrepreneuriale est bien plus un accélérateur de carrière qu’autre chose. Finalement, « ceux qui valorisent le risque d’entreprendre sont ceux qui en prennent le moins ». Lancer sa startup est surtout une modalité d’hypersélection sociale, qui réussit surtout aux plus dotés socialement… et écrase les autres qui voudraient y jouer. Car dans ce monde, les individus les moins dotés socialement et issus de milieux sociaux plus modestes, eux, n’ont pas toujours les ressources pour retourner les stigmates de l’échec et en faire une expérience valorisante. Le modèle entrepreneurial n’est pas à portée de tous et son rêve se referme plus fort sur les moins dotés. Au final, rappelle la sociologue, l’espace des startups est un espace de lutte sociale qui favorise ceux qui en possèdent les codes, qui en maîtrisent les codes. Autant de ressources culturelles, relationnelles et économiques qui leur permettent de mieux émerger dans ce monde comme de mieux se retourner en cas d’échec. 

Le mythe de la coolitude

Marion Flécher s’intéresse enfin à la question de l’organisation du travail et ses effets sur les employés des startups. Loin de la coolitude, de la réinvention de l’organisation hiérarchique et autoritaire de l’entreprise traditionnelle, la sociologue montre que le contrôle et la contrainte ne disparaissent pas dans la coolitude des bureaux ouverts. Ces PME à la croissance rapide valorisent surtout l’auto-engagement en valorisant la proximité relationnelle, en brouillant les frontières professionnelles (par le cadre agréable, l’afterwork, le tutoiement, l’informalité des relations sur les messageries instantanées… ) qui semblent atténuer les rapports hiérarchiques. Pourtant, ceux-ci restent bien présents. La proximité générationnelle, la proximité sociale (des jeunes très diplômés sans contrainte familiale partageant souvent goûts et opinions) entre les dirigeants de startups et leurs employés, l’adhésion affective… conduisent à produire un surinvestissement des jeunes travailleurs qui ont souvent là leur première expérience de travail ou de stage. A défaut de contrôle top-down, le contrôle social par les pairs y est très fort. Les contraintes sont intériorisées. Le mimétisme lié à une grande homophilie règne en maître. L’open space sert de panoptique. Les rites managériaux, la gestion par projet, les méthodes agiles produisent des responsabilités étendues et intégrées. L’autonomie organisationnelle et l’interdépendance fonctionnelle renforcent finalement les responsabilités individuelles et collectives. Tout le monde se sent impliqué et rappelle aux autres l’importance de l’implication. 

Plus qu’une autonomie, ces modes de management qui se présentent comme distendus, produisent d’abord une mise en concurrence des salariés. Ceux-ci, monitorés par les systèmes de gestion de projets, sont surveillés en temps réel sur leurs avancés et leurs retards. Au final, l’autonomie est fictive, intégrée. Les indicateurs de performance, les primes et intéressements finissent d’assurer la discipline en favorisant l’émulation collective, où le « groupe devient un puissant levier de pression ». « L’effacement des marqueurs hiérarchique ne signifie pas la fin du contrôle », mais son déplacement vers des formes plus diffuses, insidieuses, qui visent à produire concurrence et adhésion. « En substituant aux logiques du contrôle hiérarchique une logique d’adhésion volontaire, l’entreprise tend à obtenir des salarié.es un investissement d’autant plus fort qu’il est intériorisé, et donc plus difficile à questionner ou contester »

Les startups se révèlent assez peu cools. Les tensions sont nombreuses. Les situations de souffrance aussi. La standardisation des indicateurs, la dépersonnalisation des modes de management invisibilisent les insatisfactions. Quand elles s’expriment, elles sont évacuées par des départs souvent brutaux et rapides. Plus encore, souligne Flécher, les startups produisent une intensification du travail où se mêle surcharge, manque d’encadrement, affinité relationnelle et précarité des employés. Nombre de startups sont d’abord des « boites à stagiaires » abandonnés à eux-mêmes, à qui on demande une réactivité permanente sans structure pour les aider. L’injonction à l’autonomie est la réponse au manque d’encadrement. L’intensité des relations produit une loyauté qui permet l’intensification du travail. La précarité des premiers employés et stagiaires ne leur permet pas vraiment de contester l’organisation, mais au contraire les conduit à s’y plier très vite. Les stagiaires, dociles et investis, doivent valider leur formation. Le turnover ne favorise pas non plus l’émergence de collectifs de résistance. Quand les startups grandissent, l’organisation du travail évolue, les niveaux hiérarchiques se multiplient, les règles et processus se structurent. Le cadre de travail se standardise, la pression des indicateurs se fait plus forte. Le cadre affectif se distant avec l’arrivée d’innombrables employés. On passe d’un modèle d’engagement s’appuyant sur l’attachement affectif des employés et un contrôle par les pairs, à un modèle bureaucratique, avec un contrôle sur des procédures formelles. « Les startups finissent par devenir ce contre quoi elles avaient initialement été créées ». La coolitude fait long feu. Flécher note cependant que le modèle de l’engagement produit de la loyauté et une faible politisation. Les employés relativisent leur situation. Le cadre de travail se révèle peu propice à l’émergence de mobilisations collectives. La proximité relationnelle, générationnelle, sociale, affective… entre les entrepreneurs et leurs équipes est aussi souvent une proximité idéologique, souligne la sociologue, où les mobilisations demeurent dépréciées. 

Flécher montre très bien comment le mythe méritocratique du startupeur permet d’invisibiliser les grandes inégalités d’accès à ce statut entrepreneurial et les mécanismes de reproduction sociale qui le structurent. Le mythe de l’entreprise libérée permet d’invisibiliser les logiques d’exploitation, de contrôle et de segmentation du salariat qui y ont cours. Le mythe du risque et du mérite permet d’occulter les conditions socioéconomiques très élitistes qui rendent possible l’activité d’innovation. Pour les jeunes cadres diplômés, la startup est un accélérateur de carrière. Le mythe d’une organisation agile et horizontale est vite rattrapé par sa réalité. « L’entreprise libérée est moins une réalité qu’une fiction mobilisatrice et performative, qui produit ses effets non parce qu’elle est vraie, mais parce qu’elle est partagée et incorporée par les travailleur.ses »

La startup n’a rien d’une subversion des logiques du capitalisme. Au contraire, elle incarne sa réalisation la plus aboutie, entre homélie et boîte de Skinner, comme nous le disions en 2019 en lisant Dan Lyons et Arthur de Grave. Une forme d’organisation qui renforce son élitocratie tout en la faisant disparaître sous les mythes du mérite. Une forme d’organisation qui renforce l’exploitation par l’engagement, en faisant intégrer les règles de la performance à ses employés pourtant plus souvent plus précarisés et préssurés qu’ailleurs. On comprend que le capitalisme néolibéral apprécie et valorise ce modèle finalement, puisqu’elle semble, plus que l’entreprise fordiste d’antan, l’acmée de son expression la plus aboutie. Celle qui permet à la fois une démultiplication de la croissance, de la docilité et du rendement. 

Hubert Guillaud

La couverture du livre de Marion Flécher, Le monde des startups.

MAJ du 31/03/2026 : En France, les salariés des startups commencent à réagir plus fermement et plus collectivement qu’auparavant aux contournements du code du travail et aux burn-out, rapporte Le Monde.

  • ✇Dans les algorithmes
  • L’IA ne réforme pas les institutions démocratiques, elle les détruit
    L’IA n’est pas qu’un outil, elle est un outil pour détruire les institutions démocratiques, argumentent les deux professeurs de droit Woodrow Hartzog et Jessica Silbey dans une riche démonstration. Comme le synthétise le journaliste Gerald Holubowicz pour Synth Media, le déploiement de l’IA atrophie l’expertise des institutions. « Quand l’IA se trompe, les institutions paient le coût de la correction et quand elle « réussit », elles s’appauvrissent en expertise ». Elle favorise le « court-circui

L’IA ne réforme pas les institutions démocratiques, elle les détruit

30 mars 2026 à 07:03

L’IA n’est pas qu’un outil, elle est un outil pour détruire les institutions démocratiques, argumentent les deux professeurs de droit Woodrow Hartzog et Jessica Silbey dans une riche démonstration. Comme le synthétise le journaliste Gerald Holubowicz pour Synth Media, le déploiement de l’IA atrophie l’expertise des institutions. « Quand l’IA se trompe, les institutions paient le coût de la correction et quand elle « réussit », elles s’appauvrissent en expertise ». Elle favorise le « court-circuit décisionnel » en automatisant des choix fondamentalement moraux, aplatit les hiérarchies institutionnelles et rend invisibles les règles qui donnent leur sens aux institutions. « Elle est par ailleurs incapable de prendre des risques intellectuels ni de faire montre d’une forme de désobéissance créatrice. » Enfin, elle favorise l’isolement. Et en érodant les liens interpersonnels, elle fait disparaître la friction, qui est la condition même de l’adaptabilité institutionnelle. Pour Hartzog et Silbey, la destruction des institutions a déjà commencé, notamment avec le Doge et le développement de systèmes d’IA et algorithmiques dans les administrations américaines. Des déploiements, « sans cadre légal clair, où l’expertise humaine a été marginalisée et les rôles institutionnels de résistance, supprimés ».« Ce que Hartzog et Silbey laissent entrevoir en creux, c’est le scénario d’une oligarchie technologique progressivement substituée à la représentation démocratique ».

Pour les chercheurs, l’IA fragilise l’Etat de droit en renforçant l’opacité des décisions. La société civile, et la démocratie elle-même, reposent sur la transparence, la délibération et le jugement humain. L’IA corrode ces trois éléments. En ce sens, l’IA n’est pas qu’un outil, elle est une force institutionnelle qui sape les institutions en restructurant les hiérarchies décisionnelles, en dégradant les capacités d’expertise et en modifiant les relations sociales des acteurs. Parce que les institutions dépendent de ces éléments, l’IA ne se contente pas de les fragiliser ; elle les dissout. Les juristes affirment que, sans garde-fous pour contraindre l’IA à servir les institutions plutôt qu’à les remplacer, nous serons confrontés à un choix radical : soit les institutions survivent, soit la conception actuelle de l’IA disparaît.

L’IA sait tout faire… mais ne lui faites pas confiance pour votre déclaration d’impôts

30 mars 2026 à 07:01

Le New York Times a testé plusieurs IA pour remplir des déclarations de revenus face à huit situations fiscales fictives, conçues dans le cadre des supports de formation de TaxSlayer, un service de déclaration d’impôts. Tous les modèles se sont trompés, même en les nourrissant de tous les documents nécessaires…

  • ✇Dans les algorithmes
  • World Monitor 
    « Internet nous incite désormais à la surconsommation comme comportement par défaut : regarder des saisons entières de séries télévisées d’affilée, suivre tous les matchs de football simultanément sur quatre écrans. (…) Ce bombardement total est en partie une capitulation face à Internet, sa logique et ses algorithmes – une sorte de mort attentionnelle où l’individu n’est plus submergé : il a capitulé. » Dans notre tentative de garder l’équilibre, nous perdons pied. Nous ne faisons plus défiler

World Monitor 

30 mars 2026 à 07:00

« Internet nous incite désormais à la surconsommation comme comportement par défaut : regarder des saisons entières de séries télévisées d’affilée, suivre tous les matchs de football simultanément sur quatre écrans. (…) Ce bombardement total est en partie une capitulation face à Internet, sa logique et ses algorithmes – une sorte de mort attentionnelle où l’individu n’est plus submergé : il a capitulé. » Dans notre tentative de garder l’équilibre, nous perdons pied. Nous ne faisons plus défiler l’information, elle défile devant nous, comme le propose le World Monitor, nous rendant toujours plus impuissants et malheureux. Charlie Warzel

  • ✇Dans les algorithmes
  • « Nous avons une compréhension expérientielle des algorithmes »
    Les algorithmes façonnent profondément l’expérience utilisateur sur les plateformes numériques. La recherche sur la compréhension des algorithmes et de leurs effets par les individus se développe rapidement, mais manque d’un cadre cohérent, estiment les chercheurs Emilija Gagrčin, Teresa K. Naab, Maria F. Grub dans un article pour la revue New Media & Society.  Dans une analyse de la littérature sur la culture algorithmique (algorithmic litteracy), les chercheurs estiment que celle-ci s’a

« Nous avons une compréhension expérientielle des algorithmes »

27 mars 2026 à 07:00

Les algorithmes façonnent profondément l’expérience utilisateur sur les plateformes numériques. La recherche sur la compréhension des algorithmes et de leurs effets par les individus se développe rapidement, mais manque d’un cadre cohérent, estiment les chercheurs Emilija Gagrčin, Teresa K. Naab, Maria F. Grub dans un article pour la revue New Media & Society

Dans une analyse de la littérature sur la culture algorithmique (algorithmic litteracy), les chercheurs estiment que celle-ci s’acquiert par cycles d’apprentissages expérientiels. Ils proposent un cadre d’analyse pour mieux la saisir en montrant leur dimension cognitive (avons-nous conscience du filtrage réalisé, des données d’entrées, de leur objectifs et de de leur impacts), affective (selon qu’on en apprécie les résultats, qu’on les appréhende, ou qu’on s’y résigne), comportementale (les façons dont on se comporte avec les systèmes, qu’on s’y alligne, qu’on s’y soumette, qu’on tente de les subvertir ou d’y résister…). Mais ce sont là autant de pratiques dont on a du mal à mesurer l’efficacité, et qui relèvent souvent de pratiques plus personnelles que collectives. 

Les chercheurs posent la question de savoir ce que produit la littératie algorithmique sur les usagers, par exemple si celle-ci produit une meilleure visibilité, un meilleur contrôle des recommandations ou des formes nouvelles de mobilisations politiques. « L’adoption inégale de l’apprentissage algorithmique risque d’exacerber les inégalités existantes au sein des différentes couches de la population ». Ils soulignent en conclusion, que la compréhension des algorithmes est profondément liée à « l’apprentissage expérientiel », un processus par lequel la connaissance est créée par la transformation de l’expérience.  

Reste à savoir si à mesure que les systèmes de recommandations se complexifient, cet apprentissage expérientiel, sera encore possible ? 

Face à l’AIification des recommandations, il est probable que notre compréhension des paramètres (ou le fait de croire qu’on puisse agir sur eux) se dilue. Comme nous le disions en évoquant le passage à l’IA des systèmes de recommandation, « les utilisateurs voudraient comprendre les règles qui semblent devenir de plus en plus obscures, et les laissent avec de moins en moins de pouvoir pour s’y adapter ». Bref, notre compréhension expérientielle des algorithmes risque d’être de plus en plus difficile à mesure que leurs fonctionnement se complexifient.

Via Algorithm Watch.

  • ✇Dans les algorithmes
  • Les systèmes d’IA sont-ils compatibles avec la protection des données ? 
    Paul Bouchaud et Pedro Ramaciotti, chercheurs au CNRS et à Sciences Po rappellent dans une stimulante tribune pour Tech Policy Press, que certaines données personnelles sensibles sont protégées par le RGPD, comme les opinions politiques, les convictions religieuses, l’orientation sexuelle, l’origine ethnique, les données biométriques (sauf exceptions limitées). Le problème, désormais, c’est que les systèmes d’IA savent parfaitement déduire ces caractéristiques pour fonctionner… tant et si bien q

Les systèmes d’IA sont-ils compatibles avec la protection des données ? 

26 mars 2026 à 07:00

Paul Bouchaud et Pedro Ramaciotti, chercheurs au CNRS et à Sciences Po rappellent dans une stimulante tribune pour Tech Policy Press, que certaines données personnelles sensibles sont protégées par le RGPD, comme les opinions politiques, les convictions religieuses, l’orientation sexuelle, l’origine ethnique, les données biométriques (sauf exceptions limitées). Le problème, désormais, c’est que les systèmes d’IA savent parfaitement déduire ces caractéristiques pour fonctionner… tant et si bien qu’il devient difficile de séparer le profilage politique délibéré et involontaire, estiment-ils. Les systèmes d’IA, parce qu’ils ont accès à de riches traces comportementales, peuvent reconstituer très précisément des informations protégées. 

Dans ce continuum de la réidentification ciblée des utilisateurs, on trouve par exemple le système publicitaire de X. En juin 2025, AI Forensics a montré que X permettait aux annonceurs de cibler – ou d’exclure – les utilisateurs en fonction de caractéristiques protégées. « Par exemple, TotalEnergies (l’un des principaux fournisseurs d’énergie français) excluait de son ciblage publicitaire sur la plateforme les utilisateurs intéressés par les personnalités politiques écologistes et les produits casher ; Dell excluait les utilisateurs interagissant avec du contenu étiqueté « #lesbienne ». La Commission européenne a elle-même exclu les affiliations politiques de ses publicités ciblées, lesquelles identifiaient les utilisateurs par des étiquettes telles que « fasciste » et « communiste » fournies par X. En classant délibérément les utilisateurs dans des catégories correspondant directement à leurs opinions politiques, leur orientation sexuelle et leurs convictions religieuses (sous forme d’étiquettes mises à la disposition des annonceurs), ce système semble enfreindre à la fois le RGPD et le DSA qui interdisent explicitement le ciblage publicitaire fondé sur des données sensibles. Neuf ONG ont depuis déposé plainte auprès des coordinateurs nationaux des services numériques. Mais, il s’agit là du cas le plus flagrant de profilage actif – et le plus simple à corriger : supprimer purement et simplement les étiquettes de catégories sensibles du système publicitaire.»

Mais le profilage n’est pas toujours aussi direct soulignent les chercheurs. Par exemple, le système de modération participative de X, les Notes de communauté, fonctionne depuis un algorithme qui doit déduire la position idéologique des utilisateurs, non pas à partir de ses déclarations, mais automatiquement à partir de ses évaluations des notes des autres. Ce spectre politique, qui correspond aux échelles des sondages, n’a pas été codé, il émerge des données comme une dimension permettant de prédire le mieux quels utilisateurs sont d’accord avec quelles notes, expliquent-ils dans leur article de recherche. « Le système déduit l’opinion politique du comportement non pas comme un effet secondaire, mais comme le mécanisme spécifié par les créateurs et nécessaire à son fonctionnement ». Meta, Youtube, TikTok et nombre d’autres plateformes ont déployé leurs propres systèmes de modération communautaire dans le même but : créer un consensus par delà les clivages politiques, ce qui nécessite donc de déterminer la position politique de chaque utilisateur. « Ce qui a commencé comme une expérience sur une seule plateforme devient une infrastructure industrielle, et avec elle, l’inférence systématique des opinions politiques à grande échelle ». 

Quels que soient les avantages pour la modération de contenu participative – qui a des limites importantes, comme le montrent les chercheurs (voir également dans notre veille) -, « ces systèmes sont fondamentalement incompatibles avec les lois sur la protection des données, car ils calculent les positions idéologiques de millions d’utilisateurs sans consentement explicite ». La conformité exigerait néanmoins des mesures claires : soit obtenir le consentement des participants, soit abandonner purement et simplement ces systèmes. 

Mais la tension peut être encore plus profonde, comme dans le cas des algorithmes qui organisent les fils d’actu des réseaux sociaux ou ceux qui produisent des suggestions de personnes à suivre. Ces systèmes transforment les utilisateurs et les contenus en profils numériques qui capturent les similarités et la pertinence, déterminant ainsi ce que chaque personne voit. En analysant le code de X conjointement aux données collectées auprès des utilisateurs, les deux chercheurs ont reconstitué le processus et montrent qu’il y a un calcul de « la vision du monde » qui estime les positions idéologiques gauche-droite des utilisateurs. Cette dimension politique coexiste avec d’autres dimension, comme l’âge, le sexe ou les centres d’intérêts (l’actualité ou le sport par exemple). Si le système ne semble pas stocker l’information (« cet utilisateur est conservateur ») et si le profilage politique n’est pas un objectif du système (contrairement à Community Notes) : « l’algorithme apprend plutôt des habitudes d’engagement, des réseaux d’abonnés et des comportements de réponse corrélés à l’orientation politique, et exploite ces habitudes pour déterminer des recommandations personnalisées. Il s’agit d’un profilage passif mais systématique : les opinions politiques structurent si profondément les comportements en ligne que la plupart des modèles actuels performants les détectent. » 

« Ne pas réglementer cette forme de profilage revient à autoriser les plateformes à utiliser sciemment des dimensions politiques – pour des centaines de millions d’utilisateurs – dans le calcul des recommandations de contacts, de publicités et de contenus. » 

Et le problème devient encore plus profond avec l’IA conversationnelle. Les modèles produisent des profils sociodémographiques déduits d’indices conversationnels explicites (voir notre article, « Qui est l’utilisateur des LLM ? »). « Révéler son nom incite ces systèmes à inférer implicitement votre origine ethnique, tandis que divulguer les sports que vous pratiquez incite le modèle à inférer votre genre ». Dans un autre article de recherche, Paul Bouchaud et Pedro Ramaciotti montrent que les inférences cachées ont des conséquences concrètes et influencent les recommandations que vous recevez concernant votre évolution de carrière, les modalités de voyage que vous comptez faire ou autre (voir également « Inférences, comment les outils nous voient-ils ? »). Cette personnalisation passive, qui émerge grâce à de fortes corrélations statistiques dans les données d’entraînement, peut être poussée plus loin encore, notamment quand les systèmes d’IA sollicitent activement les usagers à fournir des informations sensibles pour fonctionner, comme lorsque les chatbots compagnons demandent explicitement l’orientation sexuelle des utilisateurs pour échanger avec eux. Or, le RGPD ne fait pas de distinction entre les données sensibles « collectées directement » et celles « déduites algorithmiquement » : il interdit le « traitement de données à caractère personnel révélant des attributs sensibles ». Et la Cour de justice de l’Union européenne a confirmé que cela concernait toute donnée « susceptible de révéler indirectement des informations sensibles […] récoltée à la suite d’une opération intellectuelle impliquant une déduction ou un recoupement ». Pour les chercheurs, chaque traitement de ce continuum enfreint le RGPD. 

SI les cas de profilage actif pourraient être en principe corrigés, les cas de profilage plus passifs posent un problème plus profond. 

Les systèmes de recommandation (de X, spécifient les chercheurs… mais on comprend que leurs constats peuvent être élargis à l’ensemble des systèmes de recommandation, d’autant plus qu’ils s’IAifisent profondément) « intègrent l’idéologie politique non pas parce que les ingénieurs l’ont spécifiée, mais parce que l’opinion politique structure si fondamentalement le comportement en ligne que tout modèle optimisé pour l’engagement la captera ». Pour Paul Bouchaud et Pedro Ramaciotti, soit le profilage passif n’est pas considéré comme relevant du RGPD, soit il l’est… et une vaste gamme de systèmes d’IA devient non conforme. 

Les deux chercheurs esquissent cependant une solution : « rendre l’IA insensible aux catégories sensibles ». Après avoir identifié la position idéologique des utilisateurs dans l’algorithme de recommandation de contacts à suivre de X, ils l’ont supprimé. Ils ont constaté que cela a accru la diversité politique des recommandations de contacts sans en dégrader la pertinence. 

Mais, cette solution est certainement limitée. La suppression de données ou de prise en compte de données ne fait pas disparaître les proxies que l’IA pourrait utiliser pour les reconstruire plus profondément. Ces systèmes sont capables d’inférer le genre par exemple sans avoir accès à des informations sur le genre des utilisateurs, mais peuvent le déduire d’innombrables manières. Peut-on vraiment rendre l’IA insensible aux catégories sensibles et être certain qu’elle ne les recompose via d’autres données ? Je serai un peu moins confiant qu’eux pour ma part.

Hubert Guillaud

  • ✇Dans les algorithmes
  • Pourquoi le déploiement de projet échoue-t-il ?
    Dans la revue Big Data & Society, deux chercheurs finlandais, Antti Rannisto et Marta Choroszewicz, ont suivi le déploiement d’un outil d’aide à la décision à base d’IA générative dans une administration publique. Ils montrent comment l’équipe construit un discours et un cadre de légitimation et de justification de son déploiement à mesure que l’outil est développé, visant à préserver l’outil des critiques (notamment pour ses problèmes d’exactitude, de précision et de cohérence) et le rendan

Pourquoi le déploiement de projet échoue-t-il ?

25 mars 2026 à 07:00

Dans la revue Big Data & Society, deux chercheurs finlandais, Antti Rannisto et Marta Choroszewicz, ont suivi le déploiement d’un outil d’aide à la décision à base d’IA générative dans une administration publique. Ils montrent comment l’équipe construit un discours et un cadre de légitimation et de justification de son déploiement à mesure que l’outil est développé, visant à préserver l’outil des critiques (notamment pour ses problèmes d’exactitude, de précision et de cohérence) et le rendant peu à peu irrésistible pour les acteurs influents de l’organisation. 

L’outil étudié visait à aider les agents chargés des réclamations à identifier les directives pertinentes et actualisées nécessaires à la prise de décision concernant les réclamations des usagers. Les réponses de l’outil étaient accompagnées de liens vers les sections pertinentes la base de documents de l’administration, permettant ainsi aux agents de valider une réponse ou de rechercher des informations complémentaires. Techniquement, l’outil reposait sur une base de données documentaires, un moteur de recherche et un LLM pour la génération des réponses.

Les deux chercheurs montrent que les innovateurs, l’équipe en charge du déploiement et de la configuration de l’outil, accomplissent surtout un travail politique pour influencer et convaincre les comportements des agents. Derrière le déploiement technique se met en place d’abord un régime de justification qui vise à protéger le déploiement des contestations. Les justifications émergent et évoluent à mesure que l’outil évolue, rapportent les chercheurs, mais ont une fonction spécifique : « détourner l’attention des promesses non tenues de l’outil », protéger les lacunes de l’outil et permettre au déploiement de se poursuivre. 

Ainsi le déploiement commence par se justifier sur sa promesse d’efficacité, sur la pertinence, le désir et la volonté d’innover. Les phases d’expérimentations sont renforcées par une communication dédiée, alors que les tests montrent rapidement les défaillances et limites de l’outil proposé. 

Les tests suivants ont alors visé à améliorer la performance de l’outil, mais sans y parvenir, recentrant l’implication active à la seule équipe chargée de l’innovation. A mesure que l’outil se déploie et déçoit, les cadres de justification se déplacent : on passe des espoirs d’efficacité, à la valorisation du processus d’innovation, puis à la valorisation de l’état d’esprit de l’innovation, comme si à mesure que le déploiement déçoit on n’en retenait plus que le mouvement. La promotion du test rapide, de l’apprentissage continu a été particulièrement mobilisée pour poursuivre les développements. Les développeurs ont par exemple promu régulièrement l’amélioration des réponses correctes de l’outil (passant de 70%, à 75% puis à 80%…) sans répondre aux critiques qui questionnaient cette précision pour savoir si elle était suffisante pour être intégrée dans les flux de travail des agents ou pour déterminer la pertinence et la réalité de cet indicateur. A mesure que l’outil se déployait sans répondre aux attentes, ses promoteurs ont développé un argumentaire renvoyant les erreurs à « l’incapacité des agents à interagir efficacement avec l’outil en prétextant qu’ils ne parvenaient pas suffisamment à mettre à jour leurs méthodes de travail »

Une autre justification s’est également développée avec le temps, présentant le développement de l’outil comme pionnier pour utiliser l’IA générative au service du bien commun, creusant une fracture entre l’innovation et le travail de terrain. Un peu comme si le processus d’innovation se justifiait d’autant plus que les retours critiques s’enkystaient et que l’innovation faiblissait en rythme et ce alors que de plus en plus d’agents souhaitent le tester pour se rendre compte de son efficacité ou de son inefficacité. Ce que décrivent les chercheurs dans le déploiement de l’outil, c’est que ses justifications se déploient sans lien direct avec ses résultats. 

« Un an après le lancement du processus d’innovation de l’outil d’IA, son fonctionnement restait incohérent et imprécis, et ses opérations demeuraient largement opaques – ambiguës, incertaines et incontrôlables – même pour les innovateurs techniques les plus chevronnés ». Pourtant, ceux-ci sont restés farouchement déterminés à poursuivre le développement de l’outil en vue de sa mise en production et de son déploiement à grande échelle, car les promesses inscrites maintenaient une forte dynamique en faveur du projet. En fait, lorsque les tests ont révélé l’inaccessibilité de l’objectif initial (c’est-à-dire avoir un outil très fiable pour que les agents puissent répondre aux usagers), les innovateurs en charge du déploiement ont proposé de nouvelles pistes de développement et d’expérimentation, au lieu de considérer les résultats comme un motif d’abandon. Le sentiment d’être sur une courbe d’apprentissage et d’amélioration a également découragé les critiques ouvertes de l’outil lui-même et a recentré l’attention sur les facteurs organisationnels et liés aux utilisateurs susceptibles d’affecter ses performances. « Le fait que l’outil n’ait pas tenu ses promesses a été normalisé et présenté comme une étape normale du processus. » 

La critique de l’intégration d’un LLM, qui semblait la principale raison pour laquelle l’outil ne tenait pas ses promesses, par rapport à l’amélioration de la base de données de réponses et de connaissances, a été largement ignorée par les responsables et les personnes chargées du projet. La visibilité du processus d’innovation, vantant l’agilité, l’expérimentation, l’itération… a supplanté les limites de l’outil, qui sont pourtant apparues assez tôt. 

Antti Rannisto et Marta Choroszewicz estiment en conclusion que le battage médiatique sur l’IA générative a intensifié les efforts d’innovation et suscité un optimisme débridé, conduisant à prolonger le projet pour son caractère exemplaire promettant d’optimiser l’administration publique. 

Pour eux, cela montre surtout que l’innovation est un processus hautement politisé. L’évolution des justifications ont maintenu le processus en mouvement, malgré l’absence de résultats pertinents. L’échec démontre « l’aspect constructiviste du technosolutionnisme, c’est-à-dire un processus où les problèmes sont redéfinis pour s’adapter à une solution technologique préexistante, faisant peser la charge de l’adaptation sur les utilisateurs et les organisations plutôt que de remettre en question l’outil lui-même.»

Plutôt que de considérer les défaillances répétées comme des motifs d’arrêt des travaux ou de réexamen des choix technologiques pris, l’évolution des cadres de justification a empêché que les défaillances remettent en cause la valeur perçue de l’outil et ont même parfois transformé les échecs techniques en signes de progrès. 

Trop souvent, les échecs sont perçus comme des étapes normales d’un « processus d’apprentissage », ce qui a tendance à rendre les échecs moins visibles et plus difficiles à corriger… Et c’est certainement encore plus net dans le domaine de l’innovation en IA générative, comparativement aux systèmes d’IA plus déterministes, où les architectures système sont plus transparentes et les indicateurs de performance mieux définis en amont. Pour les chercheurs, les résultats de cette enquête expliquent comment les promesses technologiques ont fait de l’outil un objet imaginaire irrésistible et ont maintenu le processus d’innovation en mouvement malgré ses défaillances.

Cette étude est riche d’enseignement, tant elle semble décrire derrière son cas particulier les échecs d’innombrables projets d’intégration de l’AI dans l’administration publique ou dans les organisations privées. Elle permet de mieux saisir les raisons des échecs de nombre de déploiements de l’IA générative que pointait par l’exemple, une étude du MIT, en montrant « 95% des projets pilotes d’IA générative dans les entreprises échouent ». Promesses inadaptées, déceptions des déploiements, justification par et pour l’innovation… permettent de comprendre que les projets mal partis n’arrivent bien souvent nulle part. 

On pourrait tirer bien d’autres leçons de cet exemple. Notamment sur l’importance de prendre en compte les critiques, plutôt que de les silencier.

  • ✇Dans les algorithmes
  • Curtis Yarvin et le programme d’une implémentation du vectofascisme
    Il y a un an, l’artiste Gregory Chatonsky nous faisait l’honneur de publier dans nos pages une tribune sur ce qu’il appelait le vectofascisme. En explorant et dépassant la figure du pseudo théoricien Curtis Yarvin, il nous propose d’observer concrètement ce qui est à l’œuvre. Les mécanismes d’implémentation du fascisme sont là. La politisation est infrastructurelle. Tribune.  Curtis Yarvin n’est pas un théoricien politique traditionnel. C’est un ingénieur logiciel originaire de la Silicon Val

Curtis Yarvin et le programme d’une implémentation du vectofascisme

24 mars 2026 à 07:00

Il y a un an, l’artiste Gregory Chatonsky nous faisait l’honneur de publier dans nos pages une tribune sur ce qu’il appelait le vectofascisme. En explorant et dépassant la figure du pseudo théoricien Curtis Yarvin, il nous propose d’observer concrètement ce qui est à l’œuvre. Les mécanismes d’implémentation du fascisme sont là. La politisation est infrastructurelle. Tribune. 

Curtis Yarvin n’est pas un théoricien politique traditionnel. C’est un ingénieur logiciel originaire de la Silicon Valley qui, depuis les années 2000, a développé une critique des institutions libérales en partant des principes de la programmation informatique. Son travail circule dans les cercles du néoréactionnalisme, une tendance marginale mais influente parmi les technologues, les investisseurs et les stratèges politiques qui rejettent les prémisses démocratiques de la modernité. Pendant longtemps, il a pu être traité comme une curiosité intellectuelle : un pseudo-penseur excentrique proposant des « solutions d’ingénieur » à des problèmes politiques complexes. Ses écrits mélangent provocation, cynisme technologique et visions totalitaires assumées avec une certaine désinvolture. Mais quelque chose a changé entre 2016 et 2024 car l’infrastructure technique qu’il décrivait (les applications mobiles, l’IA, le contrôle algorithmique) est devenue omniprésente. Ensuite, des figures publiques, Elon Musk notamment, ont adopté ou cité ses idées. Enfin, et surtout, Yarvin a formalisé en 2024-2025 une sorte de programme politique explicite : un manuscrit intitulé « Trump et le problème de l’an II » (sauf mention contraire, les citations qui suivent en proviennent) qui prétend déployer une restructuration totalitaire de l’État américain. C’est cette cristallisation qui rend l’analyse intéressante. 

Il faut souligner que cette traduction décontextualisée par Le Grand Continent a été critiqué avec raison (par le journaliste Sylvain Bourmeau sur AOC, ainsi que par le sociologue Olivier Alexandre et l’experte en géopolitique du numérique Rayna Stamboliyska dans une tribune pour le Monde). Le point générique de ces critiques est qu’en surestimant l’importance de ce pseudo-théoricien, on opère une prophétie autoréalisatrice. Pourtant, cette mise en garde contre une supposée « légitimation » de l’idéologie par son analyse ne repose sur aucune preuve empirique : rien ne permet d’affirmer que le silence intellectuel aurait un effet inhibiteur sur des dispositifs qui sont, avant tout, d’ordre infrastructurel. L’analyse que je propose ici s’élabore d’ailleurs sur un tout autre plan : nous ne connaissons pas l’influence réelle de Yarvin, nous en avons ici ou là d’incertaines traces et nous ne pouvons affirmer qu’il est la cause de quoi que ce soit, mais d’un point de vue spéculatif, il permet de voir au travers de quelles ressources le vectofascisme pourrait s’implémenter socialement à la manière d’un programme informatique. C’est donc moins un théoricien qui inspire secrètement les fascistes américains qui nous intéresse ici, car nous savons combien les intellectuels surestiment l’importance des « intellectuels », que le symptôme d’une certaine époque de la pensée. Il ne s’agit pas de valider une autorité, mais de pratiquer une symptomatologie. Si le discours de Yarvin paraît souvent inconsistant, logorrhéique ou contradictoire, ce n’est pas par un défaut de rigueur qu’il suffirait de pointer pour le disqualifier et qui présupposerait un certain régime de rationalité s’appliquant à toute réalité ; cette inconsistance est une caractéristique structurelle de l’idéologie vectorielle. Dans ce régime de désémantisation, le langage ne vise plus à stabiliser un sens, mais à saturer le vecteur. L’incohérence fait partie du dispositif : elle procède par une fragmentation qui rend la contradiction inintelligible pour mieux absorber les résistances dans un flux permanent. Yarvin n’est pas la cause de la mutation, il est le « bruiteur » de sa logique technique.

Le fascisme du XXe siècle opérait selon les lois de l’espace euclidien. Il produisait des corps coordonnés, des gestes uniformes, des flux d’énergie directement observables : le défilé, le salut, la chemise noire. Ces formes visibles constituaient l’essence du pouvoir politique. C’était une machine à fabriquer de la présence physique, une totalité ostentatoire qu’on pouvait voir, compter, désapprouver. L’opposition pouvait pointer du doigt, nommer, critiquer. Mais nous ne vivons plus dans cet univers. Les conditions matérielles de la politique se sont métamorphosées  avec la numérisation. Le concept de vectofascisme tente de capturer précisément cette mutation : le passage d’une politique de l’espace physique à une politique de l’espace latent de l’IA peuplé de statistiques, d’une coordination gestuelle à une coordination vectorielle, d’une totalité ostentatoire à une forme spectrale. Le fascisme du XXIe siècle ne défilerait plus dans la rue. Il opérerait en deçà de la visibilité, dans les pixels, dans les données, dans les flux qui structurent les décisions et les affects. Une vectorisation du pouvoir, non sa disparition, mais sa transformation en une forme omniprésente et indéfinissable, capable d’exercer une domination d’autant plus totale qu’elle demeure largement invisible. Yarvin a proposé d’en formaliser l’implémentation explicite, comme si le fascisme du XXIe siècle devait être d’abord un problème d’ingénierie logicielle.

Le défi analytique est immédiat : comment évaluer sérieusement un corpus qui se défend constamment par l’ironie ? Comment critiquer un programme qui avoue d’avance son caractère fasciste, qui l’assume publiquement, qui en fait même une sorte de jeu ou de performance ? L’ironie fonctionne comme une arme défensive redoutable. Elle protège le programme contre la critique directe. Si quelqu’un dénonce le fascisme yarvinien, la réponse est immédiate : « Vous ne voyez pas que c’est ironique ? Vous manquez d’humour ! » L’ironie crée une zone d’impunité rhétorique où toute critique sérieuse est rejetée comme naïve et dépassée. Comment fonctionne précisément cette impunité ? Hugo Rowley a identifié le mécanisme d’une « lente radicalisation du lecteur » : la rhétorique yarvienne progresse étape par étape, rendant irréfutable le cheminement vers le totalitarisme. La progression suit un schéma systématique : (1) « La démocratie a des défauts » (scepticisme doux) ; (2) « La démocratie est inefficace » (critique neutre) ; (3) « La démocratie est une tromperie contrôlée par les élites » (framing conspirationniste) ; (4) « Peut-être que la gouvernance devrait être hiérarchique » (allusion à l’autoritarisme) ; (5) « Peut-être que la démocratie devrait être abandonnée entièrement » (conclusion pleinement réactionnaire). À chaque étape, le lecteur ne se confronte qu’à des énoncés qui semblent logiquement compatibles avec les précédents. L’ironie protège ce processus : elle l’immunise en le présentant comme exploration plutôt que cristallisation.  Mais il existe une contre-stratégie analytique précisément adaptée à cette situation : prendre justement le programme au sérieux dans sa cohérence logique. Non pas chercher un « vrai Yarvin » caché derrière l’ironie, mais demander simplement : que devient la politique si ces éléments fragmentés s’assemblent en totalité systématique ? Comment cela fonctionnerait-il techniquement ? Quels seraient les mécanismes concrets ? Nous testerons cette hypothèse : que devient la politique si la logique interne de ces propositions se cristallise en totalité ? Ensuite, nous parcourons les couches successives de ce programme, du support matériel (l’application mobile) aux mécanismes de capture affective (gamification, désémantisation) à l’infrastructure informationnelle parallèle, jusqu’à la restructuration architecturale de l’État et la vectorisation de la mémoire collective. À chaque étape, nous analysons comment ces éléments s’articulent pour produire une forme de domination qui n’a pas d’équivalent historique.

Ce qui rend cette analyse urgente, c’est une correspondance remarquable entre le diagnostic théorique du vectofascisme et l’ordonnance programmatique de Yarvin. Le diagnostic identifie une virtualité réelle : les capacités techniques pour une domination totale existent. Elles sont inscrites dans l’infrastructure informationnelle contemporaine. Elles attendent simplement une formulation explicite, une cristallisation programmatique .Le programme de Yarvin fournit précisément cela : il articule, systématise et formalise ce qui demeurait dispersé dans les interstices de la technologie. Il transforme les virtualités en architecture explicite. Yarvin lui-même expose cette stratégie sans détour : « Ce programme n’a rien à voir avec la notion traditionnelle de participation démocratique enseignée en classe. […] Nous utilisons des tactiques démocratiques pour abolir la démocratie elle-même » (Curtis Yarvin, Unqualified Reservations – Tome 03). Cette formule révèle l’essence de la cristallisation : transformer les outils de légitimité démocratique en instruments de leur propre destruction, en pleine conscience de cette contradiction performative dont la formulation la plus commune est « J’ai bien le droit de penser comme je veux, on est en démocratie ! » Mais, et c’est crucial, cela ne signifie pas que le programme sera effectivement implémenté , ni même qu’il soit parfaitement cohérent dans le détail. Cela signifie que les éléments en sont réels et opérants : l’application comme medium politique, la gamification comme capture affective, l’infiltration institutionnelle, l’infrastructure informationnelle parallèle, la vectorisation des hiérarchies, la destruction sémantique du débat politique. Ces mécanismes que nous analyserons opèrent aujourd’hui de manière fragmentée, inarticulée, sans intention unifiée. Et le danger réside précisément là : dans l’architecture systémique elle-même, capable de produire la totalité sans jamais avoir besoin de se justifier, sans jamais être confrontée à la réfutation, parce qu’elle opère en deçà du seuil où la critique idéologique a du sens.

L’app comme infrastructure politique

La première rupture décisive se situe au niveau du support matériel de la coordination politique. Yarvin énonce cela avec un cynisme parfait, celui de l’ingénieur qui refuse tout sentimentalisme idéologique : un hard party du XXIe siècle ne peut pas fonctionner selon le modèle des milices  du siècle dernier. « Un hard party du XXIe siècle ne peut pas être la milice de rue paramilitaire des années 1930 de votre grand-père. Là où les hard parties du début du XXe siècle ne pouvaient se coordonner qu’en uniforme, dans la rue, ceux du début du XXIe siècle ne peuvent se coordonner qu’à travers des pixels sur un écran. » Le hard party du XXIe siècle doit donc nécessairement exploiter les capacités de coordination de l’ère numérique. C’est ici que l’app mobile devient non pas un simple outil de communication, mais le support constitutif de l’organisation politique elle-même : «  Le parti de l’avenir sera une application. Le militant porteur de carte d’hier sera l’utilisateur actif mensuel de demain.  » Cette formulation n’est pas une simple métaphore technologique. Elle décrit une transformation essentiellement totalitaire de la politique. « Ce hard party doit aussi s’appuyer sur une application numérique, visant à faire de l’adhésion une forme d’expérience de réalité augmentée. Yarvin ne s’en cache pas : il s’agit de repenser, à l’ère numérique, les formes partisanes qui ont triomphé de la démocratie dans les années 1920 et 1930, autrement dit, il s’agit de réinventer le fascisme, et de mettre la Silicon Valley à son service » (Hugo Rowley, Curtis Yarvin & The Neoreactionary Canon, Made Simple, 2025). L’application n’assure pas seulement la communication interne. Elle est le support matériel, normatif et disciplinaire de l’ordre politique. Elle assure une disponibilité cognitive permanente de chaque utilisateur (l’application est toujours là, sur le téléphone, constamment accessible). Elle capture les affects en temps réel. Elle crée un système de feedback immédiat. Elle mesure, enregistre, évalue chaque action du militant. Elle est, autrement dit, une machine de gouvernementalité totale : un terme emprunté à Foucault, mais qui ici désigne quelque chose de plus que l’exercice du pouvoir, une intégration complète de la vie quotidienne dans la structure de commandement.

Pourquoi cette distinction importe-t-elle tant ? Parce qu’elle réalise ce que nous devons appeler une vectorisation du corps politique. La notion même de « collectif » change de nature. Les anciens fascismes produisaient une cohésion visible, une totalité ostentatoire, un corps du peuple supposé un et unifié, et ce corps devait être vu pour être réel, pour être efficace politiquement. L’application ne produit pas de visibilité collective. Elle produit une cohérence calculée, une coordination parfaite sans présence partagée. Les millions d’utilisateurs n’ont jamais besoin de se rencontrer, ne se voient jamais, ne forment jamais une présence physique commune. Et pourtant, leur action est coordonnée jusqu’à l’unanimité par les mécanismes algorithmiques intégrés à l’interface. Chaque utilisateur vote automatiquement pour qui le chef désigne. Chaque utilisateur effectue la tâche assignée, chacun est le relais du chef. Chaque utilisateur reçoit un message  au même moment. La totalité fonctionne parfaitement sans aucun moment de présence commune. C’est cela, la vectorisation : la transformation d’une multiplicité de corps en une multiplicité de données coordonnées de manière invisible, fonctionnant dans un hyperespace de n-dimensions où la notion même de «  présence  » devient obsolète. Ce n’est plus une affaire de gestes et de corps dans la rue, mais de tenseurs, de flux informationnels, de direction et d’intensité de forces qui traversent les réseaux sans jamais se matérialiser. Ce qui est remarquable dans cette approche, c’est qu’elle ne cherche pas à s’opposer à la désintégration contemporaine de l’espace public ; elle s’en sert. Elle utilise précisément la fragmentation informationnelle, la prolifération des écrans, l’atomisation des communautés comme matériel fondamental de la nouvelle totalité. Plutôt que de chercher à recréer la place publique (impossible, peut-être contre-productif), elle capte les espaces privés de chacun, les terminaux mobiles qui sont devenu nos espaces publics intimes, nos espaces de solitude partagée, nos chambres du XXIe siècle.

Mais il y a une seconde dimension à ce projet. Yarvin ne limite pas son analyse à la théorie. Il explicite son modèle de référence concrète : le Parti communiste chinois. « Un hard party est une organisation privée légale dont l’objectif est de devenir le parti dirigeant du prochain gouvernement, à l’image du Parti communiste chinois. » Le PCC représente le type d’organisation qui a réussi à saturer l’État entier, à contrôler non par la force brute externe mais par une intégration totale qui rend la distinction entre « État », « Corporation » et « Parti » simplement impossible. C’est un modèle d’infiltration, de discipline de fer, de loyauté absolue qui a prouvé son efficacité opérationnelle sur des décennies. L’application yarvinienne vise à reproduire cette saturation organisationnelle, mais en version technologique. Elle est conçue pour devenir le système nerveux central de l’organisation politique entière, capable de propager les ordres du sommet jusqu’aux extrémités avec une vitesse et une efficacité inatteignables par les méthodes traditionnelles. C’est l’automatisation du politique. 

L’alignement culturel comme vectorisation en acte 

Le diagnostic théorique du vectofascisme ne reste pas enfermé dans la spéculation. Il se cristallise déjà dans des architectures concrètes. L’exemple paradigmatique est l’ordre exécutif de Donald Trump du 3 avril 2025, « Restorer la Vérité et la Raison à l’Histoire Américaine » , qui applique précisément la logique de vectorisation à l’ensemble du système institutionnel et culturel américain. Yarvin parle d’une « application » comme medium politique. Trump le montre concrètement : c’est d’abord une application de contrôle culturel fonctionnant selon la logique de l’optimisation algorithmique. La lettre officielle de la Maison-Blanche au Smithsonian du 12 août 2025 expose le mécanisme avec une clarté glaçante : « Cette initiative vise à assurer l’alignement avec la directive présidentielle. Calendrier : corrections de contenu à 30, 75 et 120 jours. » C’est précisément la structure itérative que Yarvin décrit. Un cycle d’optimisation d’apprentissage automatique appliqué à la culture :
1. Fonction objective explicite : « célébrer l’exceptionnalisme américain »;
2. Métriques de conformité : « ton, cadrage historique, alignement avec les idéaux américains »;
3. Processus itératif : remplacer « le langage diviseur » par « des descriptions unifiantes »;
4. Fonction de perte : gel de 2,2 milliards de dollars de financement pour Harvard par exemple.


Les musées du Smithsonian et les universités ne sont pas simplement censurés. Ils sont vectorisés : leurs énoncés doivent se déplacer dans un espace de « conformité américaine » où certaines positions (critiques du passé américain) doivent être converties en leur équivalent patrimonial (le « progrès américain »). Le résultat : suppression des énoncés critiques, remplacement par des contrefactuels narratifs. L’esclavage n’est pas nié, il est absorbé dans une épopée plus large de l’« exceptionnalisme ». C’est exactement la désémantisation que Yarvin théorise : le mot demeure, mais son pouvoir critique se volatilise dans un espace vectoriel contrôlé où tout est équidistant. Et cela fonctionne. Trump lui-même le déclare : « Les universités ont déjà été alignées. Maintenant c’est au tour des musées. » Le modèle se propage en cascade selon les connexions du réseau institutionnel. C’est la vectorisation à l’état pur : pas de chemises noires, pas de symboles visibles, juste une infrastructure de contrôle qui fonctionne par réallocation de financement, calendriers d’optimisation, et modulation algorithmique de ce qui peut être entendu.

Clarifions un point fondamental : en insistant sur l’infrastructure, nous ne la rendons pas autonome. L’infrastructure ne fonctionne que parce que des acteurs la maintiennent, la financent, la perfectionnent. Yarvin n’est pas une abstraction. Elon Musk qui applique cette logique aux réseaux sociaux a des responsabilités concrètes. Les ingénieurs qui développent les systèmes de recommandation, les politiques qui les légalisent, les cadres du parti qui les exploitent—ce sont des agents historiques réels, pas des forces cosmiques. Ce que l’analyse de l’infrastructure révèle, c’est que ces acteurs ne doivent pas inventer de « plans » complexes. Ils n’ont qu’à laisser fonctionner le système, l’optimiser, le déployer. L’architecture elle-même produit l’effet totalitaire. Mais c’est justement parce qu’elle est construite, et donc vulnérable, réparable, contournable.

La gamification infra-sémantique

Une telle coordination pose un problème stratégique : comment maintenir la conformité sans reposer sur l’adhésion consciente à une idéologie ? Comment transformer des millions de sujets en exécutants automatiques sans qu’ils aient besoin de comprendre ou de croire au projet politique ?

C’est un problème que l’idéologie traditionnelle ne peut pas résoudre. L’idéologie suppose la conscience, le débat, l’adhésion réfléchie, ce qui crée des points de rupture, des zones de dissension, des moments où le sujet peut refuser. Le fascisme du XXe siècle lui-même devait affronter ce problème : il produisait des corps coordonnés, mais ceux-ci restaient partiellement imprévisibles, capables de désertion, de rébellion, de critique sourde. Mais il existe une alternative à l’idéologie : l’affect direct. Non le contenu politique qui demande à être défendu rationnellement, mais les émotions primaires qui court-circuitent la raison. C’est ici que la gamification intervient, non pas comme simple outil de rétention utilisateur, mais comme principe politique fondamental.

Yarvin expose le calcul : « Ici, dans la Silicon Valley, nous savons comment parler au chimpanzé intérieur de nos clients. » Cette formulation n’est pas une plaisanterie. Elle énonce une théorie politique radicale : la politique du XXIe siècle ne s’adresse plus à la raison, ne cherche pas à convaincre par l’argument, mais s’adresse directement aux affects infraconscients. Comment ? Par le système de récompense-punition, par le statut social immédiat, par l’excitation de la victoire. L’interface de l’application est conçue précisément selon ce principe : l’utilisateur effectue une action politique (voter, participer, effectuer une tâche) et reçoit immédiatement une récompense quantifiable, un badge, des points d’expérience, une position visible dans un classement. « Les gens feront n’importe quoi, même voter, il suffit d’en faire un jeu. » Ces récompenses ne possèdent aucune valeur intrinsèque (ce ne sont que des pixels, du bruit sur un écran), mais elles activent des mécanismes psychologiques profonds : le désir de compétition, la peur de la perte de statut, la satisfaction narcissique de la progression visible, la crainte de rester en arrière du classement. Le sujet ne vote plus parce qu’il pense que c’est juste ou nécessaire. Il vote parce qu’il veut le badge, parce qu’il veut monter dans le classement, parce que le jeu le capture. Voici le point critique : la gamification ne fonctionne efficacement que si elle opère indépendamment du contenu politique. Le badge ne dit rien. Il ne signifie rien. Il est pur valeur affective, pur désir. Et c’est précisément à partir de là que le système peut se permettre d’abandonner le contenu sémantique. Pourquoi ? Parce que l’adhésion n’est plus liée au sens. Le sujet n’a plus besoin de comprendre l’ordre pour l’exécuter. Il n’a plus besoin de croire au projet pour participer. Il a besoin uniquement de désirer la récompense suivante. Cela réalise une séparation entre affect et signification : le corps politique continue à fonctionner parfaitement (les votes sont donnés, les ordres exécutés, la coordination demeure totale), mais le contenu politique, le sens, l’enjeu idéologique disparaît  du système.

C’est ici que débute ce que nous appelons la désémantisation, c’est-à-dire le processus par lequel le langage politique cesse d’avoir une fonction référentielle pour devenir de simples tenseurs, entités mathématiques utilisées en IA qui décrivent seulement direction et intensité sans signifié. Yarvin énonce cela avec brutalité : l’électeur n’a plus besoin de comprendre le système qui le gouverne. « L’acte concret de remplir les bulletins ne relève plus que de la saisie de données. Ils n’ont plus besoin de suivre les “informations”. Ils n’ont plus besoin de lire sur les “enjeux”. Ils n’ont plus besoin de connaître les “candidats”. » Ce qui demeure n’est qu’affect, pur flux d’émotions structuré algorithmiquement. Le vote n’est plus un acte de délibération citoyenne. C’est une opération technique : tu appuies sur le bouton, tu reçois ton badge, tu gravis un échelon. Le moteur n’est pas l’idéologie mais l’excitation de la victoire, la satisfaction immédiate, l’acquisition du point suivant. La politique se réduit à une donnée binaire : victoire ou défaite. À une affection : excitation ou dépression (et une politique qui prétend tout réduire à ces états psychologiques est complice de cette binarisation). Tout le reste (le contenu politique, la signification idéologique, la substance du débat démocratique) disparaît entièrement. Non parce qu’il est censuré explicitement (ce qui serait trop visible), mais parce qu’il n’est simplement plus pertinent. Le système fonctionne sans lui. C’est la transformation du signifiant politique en simple tenseur vectoriel : la politique opérant littéralement en deçà du seuil sémantique, dans cet espace infra-sémantique où le signifié n’existe plus, où seuls subsistent les affects et les flux.

L’infrastructure du différend

Mais la gamification seule ne suffit pas. Il faut aussi que l’utilisateur n’ait jamais l’occasion de sortir de l’univers informatif délimité par l’appareil du parti. Il faut que la réalité elle-même soit structurée de telle manière que toute critique, toute opposition rationnelle, soit rendue littéralement inintelligible. C’est pourquoi Yarvin insiste sur la construction d’une infrastructure informationnelle parallèle, complète et autarcique : « Si vous êtes consommateur d’information, vous recevez vos nouvelles du parti. Si vous lisez des livres, le parti les écrit. Si vous utilisez l’IA, le parti a entraîné sa propre IA. Si vous consultez une encyclopédie en ligne, le parti dispose de sa propre version de Wikipédia. » Cette énumération compulsive n’est pas simplement rhétorique. Elle désigne un objectif précis : la saturation de l’espace informationnel, l’impossibilité matérielle de sortir du réseau de contrôle.

L’Antiversity que Yarvin propose dépasse largement le simple outil informationnel alternatif. Elle fonctionne comme un producteur indépendant de vérité conçu pour remplacer l’université libérale et, comme il l’écrit, « continuer à guider la Nouvelle Structure vers la stabilité, agissant comme le cerveau du NUSG, tout comme l’Université agissait comme le cerveau de l’OUSG » (Curtis Yarvin, cité dans Elizabeth Sandifer & Jack Graham, « Neoreaction: A Basilisk », 2018). Son rôle n’est pas de communiquer mais de produire une vérité officielle institutionnalisée qui ne repose plus sur le consensus démocratique mais sur une autorité technique souveraine. Mais comment cette « autorité technique souveraine » se perpétue-t-elle sans être reconnue comme totalitaire ? C’est par ce que Hugo Rowley appelle une « boucle de rétroaction » systémique, qui est précisément la structure de la Cathédrale yarvinienne : une « belle boucle de rétroaction où la désinformation justifie un mauvais gouvernement, et où ce même gouvernement subventionne cette désinformation ». Ce qui émerge n’est pas un pouvoir centralisé qui ordonne la vérité, mais un système auto-amplifié où chaque élément renforce les autres. L’infrastructure informationnelle produit la doctrine ; la doctrine justifie l’infrastructure ; les deux ensemble produisent l’impossibilité de la critique rationnelle. C’est pourquoi cette autorité technique n’a jamais besoin d’être explicitement défendue : elle fonctionne par auto-renforcement. Ici se réalise l’industrialisation du différend. Le vectofascisme ne produit pas un seul discours totalitaire monolithique mais produit une fragmentation structurée, une incommensurabilité. Si vous contrôlez l’infrastructure informationnelle entière (les nouvelles, les livres, l’IA, l’encyclopédie, les contenus vidéo, les images, les mèmes), alors il n’existe plus de désaccord au sens traditionnel du mot. Il ne peut plus y avoir de débat entre deux positions raisonnables. Ce qui demeure, c’est une fragmentation des perceptions de la réalité. Car le mécanisme n’est pas la censure brute (le silence, le bannissement). C’est la production systématique de l’incommensurabilité. Chaque nœud du réseau social perçoit un univers légèrement différent, des ennemis légèrement différents, des enjeux légèrement différents. L’ennemi n’est pas interdit ; il est rendu inaudible et inintelligible par la fragmentation du champ d’écoute lui-même. C’est un pouvoir qui s’exerce par l’ouverture apparente (la prolifération des médias) pour créer une clôture (l’impossibilité de la critique factuelle).

Mais il existe une couche encore plus importante de cette architecture : la duplicité structurelle. Yarvin stipule que la doctrine du parti existe en deux versions différentes. D’un côté, il y a le « résumé public » destiné à servir de base de recrutement et d’alibi politique, une façade sémantique destinée à tromper la critique externe. De l’autre, il y a le « plan réel », accessible uniquement aux initiés de la direction, qui contient les véritables intentions stratégiques du mouvement. Cette distinction n’est pas une simple dissimulation banale. C’est un principe organisateur du pouvoir totalitaire lui-même. Car qu’est-ce que cela signifie précisément ? L’opposition ne peut jamais attaquer le projet réel. Elle peut seulement s’acharner contre la façade. La critique rationnelle, la réfutation factuelle, s’acharnent contre un adversaire fantôme. Pendant ce temps, l’action réelle, le véritable objectif du mouvement, se déploie de manière imperceptible, inaccessible au débat public. Le discours public du parti fonctionne comme un simple vecteur désémantisé (rempli de symboles, de références, de gesticulations rhétoriques), tandis que son action est régie par une logique interne invisible. C’est ce que nous appelons le pouvoir spectral : un pouvoir qui est simultanément présent et absent, agissant sans jamais être localisable ou contestable directement. Il est omniprésent sans jamais être identifiable publiquement. Il se renforce par sa propre dénégation performative. L’industrialisation du différend est ainsi perfectionnée : le pouvoir opère en deçà du seuil d’intelligibilité critique en divisant la réalité en deux couches irréductibles, l’une publique, désémantisée, facile à critiquer ; l’autre privée, réelle, inaccessible à l’analyse.

Or, pour que cette infrastructure fonctionne réellement, pour que le pouvoir spectral s’exerce concrètement dans les institutions existantes, il faut quelque chose de plus que l’application et le contrôle informationnel. Il faut une présence à la fois invisible et omnisciente au sein de chaque institution d’élite. Il faut l’infiltration clandestine systématique de l’appareil d’État, des corporations, des universités, de tous les lieux où s’exerce quelque forme de pouvoir.

Yarvin explique que les cadres du parti doivent « dissimuler leur niveau d’engagement » et organiser, au sein de toute institution d’élite, des « cellules clandestines du parti ». L’objectif est de prendre le contrôle de l’institution de l’intérieur, en commençant par les recrutements, les ressources humaines, les flux de pouvoir invisible. Mais pour cela, il faut donner aux cadres « non seulement des outils d’organisation comme une application de coordination du vote, mais aussi de véritables outils d’espionnage ». Cette formulation indique une transformation dans la nature du pouvoir politique lui-même. Ce qui était, dans les fascismes historiques, un phénomène ostensible (le parti visible, reconnaissable, occupant l’espace public), devient une structure de présence clandestine. Le cadre du parti n’est pas identifiable comme tel. Il travaille dans l’administration, dirige une université, occupe un poste dans une grande entreprise, sans que jamais ne soit révélée son véritable allégeance. À partir de son poste de travail ordinaire (responsable des ressources humaines, professeur, ingénieur), il peut exercer une influence en cascade : quels professeurs sont embauchés, quels étudiants sont sélectionnés, quels projets sont financés, quels groupes de travail sont constitués. C’est pour cela que le « plan réel » doit rester secret. L’opposition ne peut critiquer que ce qu’elle peut voir. Mais le vrai plan opère dans les couches invisibles du pouvoir institutionnel. Ces décisions apparaissent parfaitement ordinaires, justifiables par des critères apparemment neutres. Mais elles produisent, à long terme, une restructuration de l’institution selon les lignes du mouvement. La structure du hard party s’inspire explicitement du Parti communiste chinois, où l’infiltration, la discipline de fer et la loyauté absolue permettent à une organisation privée de devenir l’organe réel du pouvoir d’État, non pas en conquérant l’État de l’extérieur, mais en le saturant de l’intérieur, en remplissant chaque cellule administrative de cadres loyaux jusqu’à ce que la distinction entre parti et État devienne administrative : qui peut dire où l’un commence et où l’autre finit ?

Le leader et l’eugénisme

En parallèle, la figure du leader se transforme elle aussi. Dans les fascismes historiques, le leader était une figure charismatique (le Duce, le Führer) dont la présence physique était centrale, dont la voix résonnait dans les rassemblements, dont le regard fixe était reproduit sur les affiches. La relation au chef était médiatisée par le corps, par la présence, par le charisme personnel.

Mais dans le hard party yarvinien, le leader n’est plus principalement une figure charismatique. Il devient un nœud algorithmique, un point de distribution qui gère la délégation de l’autorité et recalibre perpétuellement les conditions de l’action politique à haute fréquence. Le système de vote est simplifié, pour ne pas dire éradiqué : « Vous votez une fois, pour un parti ou un chef, de manière permanente et transitive. Une fois que vous avez choisi Trump comme chef, pour chaque élection à laquelle vous êtes éligible, vous votez automatiquement pour Trump. Et si Trump n’a aucun intérêt à devenir le prochain chef du service de contrôle animalier du comté de Volusia, il doit bien connaître quelqu’un d’autre qui serait parfait pour ce poste. Vous votez alors automatiquement pour cette personne. » Cela représente une annihilation systématique du choix électoral. L’électeur ne vote qu’une seule fois dans sa vie, pour un chef. Toutes les autres élections, à tous les niveaux (présidentielle, législatives, locales, jusqu’au « service de contrôle animalier du comté ») sont déterminées rétroactivement par cette décision initiale. L’autorité devient un flux vectoriel qui se propage dans le réseau sans friction démocratique, sans délibération, sans possibilité de révocation. Le culte du chef se vectorise ainsi : il n’y a plus d’identification personnelle au leader, seulement une connexion à un point de distribution algorithmique. Ce système garantit une uniformité des cadres politiques et administratifs, imposant la doctrine de la direction à l’ensemble de la bureaucratie, sans friction démocratique, sans la possibilité même d’une réflexion personnelle.

Mais il y a plus problématique encore. Yarvin rejette explicitement l’égalité démocratique elle-même, et c’est ici que le concept de Human Biodiversity (HBD) intervient comme principe organisateur de la hiérarchie. HBD est une thèse qui affirme que les différences génétiques entre populations humaines expliquent les variations dans les capacités intellectuelles, le comportement social et même la « gouvernabilité ». « Il n’y a pas de raison solide d’anticiper que les capacités intellectuelles des peuples géographiquement séparés dans leur évolution se soient avérées avoir évolué de manière identique. » Cette formulation est déceptivement simple. Elle énonce un présupposé qui détruit la démocratie : si les capacités intellectuelles varient selon la géographie et donc selon les lignées, alors l’égalité démocratique n’est pas un idéal moral à poursuivre. C’est une erreur factuelle, une négation de la réalité biologique. La démocratie, qui suppose l’égalité politique entre les citoyens, repose sur un mensonge. Le hard party yarvinien serait donc fondé sur la « reconnaissance de la réalité » : une hiérarchie naturelle inscrite dans les gènes, simplement enfin administrée rationnellement.

Ici se pose la question décisive : HBD mène-t-il logiquement à l’eugénisme ? La réponse est oui, de manière presque inévitable. Et c’est précisément parce que Yarvin comprend cette logique qu’il construit l’architecture qu’il propose.
– Si on accepte que : les différences génétiques déterminent les capacités cognitives et gouvernementales
– Alors il suit logiquement que : une société optimale devrait favoriser la reproduction des génotypes « supérieurs » et défavoriser les autres
– Ce qui est la définition même de : l’eugénisme.

Yarvin n’énonce pas ici le mot explicitement. Il ne propose pas de « programme eugéniste » formel avec stérilisations forcées ou élimination physique. Mais il propose quelque chose de bien plus redoutable : un eugénisme par infrastructure. Le résultat est identique aux vieux eugénismes d’État, mais le mécanisme est différent. Voici comment cela fonctionnerait : la hiérarchie vectorisée assignerait chaque individu une position dans un espace multidimensionnel de capacités présumées. Cette assignation ne serait pas faite manuellement. Elle serait calculée continuellement par l’infrastructure informationnelle du hard party, basée sur les actions, les performances, les résultats à la gamification. Une fois assigné à une certaine position dans cet espace latent de l’IA, l’individu recevrait automatiquement accès à certaines ressources et serait fermé à d’autres. Certains recevraient des postes permettant l’accumulation de capital, l’accès à l’éducation supérieure, les opportunités de réseau et de reproduction. D’autres seraient confinés à des positions qui réduisent structurellement ces opportunités. Nous ne sommes pas loin des inégalités sociales dans les sociétés libérales, mais ce qui est sinistre, c’est que ce système réalise exactement ce qu’un eugénisme ferait, sélectionner selon le génotype présumé, mais sans jamais avoir à l’avouer. Car qui décide ? Personne, ou plutôt : l’algorithme. C’est « juste » le marché qui opère. C’est « juste » la méritocratie qui joue son rôle. C’est « juste » les capacités naturelles qui trouvent leur niveau. On ne peut pas critiquer un algorithme pour discrimination raciale : l’algorithme n’a pas d’intention. Il opère « objectivement », « scientifiquement » même s’il est chargé de tous les biais de ses concepteurs économiques et techniques. Et ainsi, l’eugénisme devient invisible. Les résultats sont sélectifs (certaines populations sont surreprésentées dans les positions hautes, d’autres systématiquement reléguées aux positions basses), mais le processus n’est jamais nommé comme sélection. Il apparaît comme simple différence de « capacité » reflétée dans le positionnement vectoriel.

C’est là que Nick Land, penseur du courant des « Dark Enlightenment » aux côtés de Yarvin, fournit l’idéologie justificatrice cosmique qui rend l’eugénisme inévitable et naturel. Land n’est pas un penseur détaché du projet yarvinien. Il en est un des architectes théoriques fondamentaux. Les « Lumières Sombres » constituent un courant réactionnaire explicitement antihumaniste, antiégalitariste, qui affirme que l’Illuminisme égalitaire a échoué et que l’avenir réside dans une hiérarchie naturelle basée sur la sélection biologique et technologique. Yarvin cite régulièrement Land, s’inscrit dans sa filiation, et partage sa conviction centrale : l’humanité n’a pas la responsabilité de son avenir, mais doit plutôt s’aligner sur des processus évolutifs ou techno-évolutifs qui la dépassent. Land affirme explicitement que le tri systématique mène à une spéciation : une élite technologique se séparant progressivement de la masse, formant une nouvelle espèce post-humaine capable de franchir le « Grand Filtre » évolutif (Nick Land, « The Dark Enlightenment », 2014). Cette séparation n’est pas une dystopie à combattre, c’est l’inévitable actualisation de la sélection naturelle. L’argument est séduisant pour une sensibilité techno-transhumaniste : l’humanité se scinde en deux branches évolutives. Une élite s’augmente technologiquement (fusion avec l’IA, transhumanisme, extension cognitive) tandis que la masse stagne ou décline. Ce n’est pas une aberration, c’est l’avènement de ce que la sélection naturelle elle-même exige.

Mais cela masque ce qui se passe réellement : la classe qui contrôle l’infrastructure se réserve l’accès aux technologies d’augmentation, tandis que la majorité en reste exclue. Ce qui semblerait être une évolution naturelle est en fait un processus de séparation programmée inscrit dans l’architecture du pouvoir. L’eugénisme devient ainsi un processus cosmique, inévitable, « naturel », ce qui le rend politiquement inattaquable. Comment critiquer la sélection naturelle ? Comment s’opposer à l’évolution ? Land fournit donc l’idéologie qui convertit le projet eugénique d’infrastructure de Yarvin en une nécessité évolutive du cosmos, élevant une stratégie de domination programmée au rang d’une loi de la nature. Les « Lumières Sombres » opèrent ainsi une transmutation : ce qui était criminel (l’eugénisme d’État) devient vertueux (l’accélération de l’évolution). Ce qui était politique (un choix humain) devient cosmique (une force transcendantale).

Plus révélateur encore est le concept yarvinien du « formalisme » : « gouverner et posséder n’ont plus de sens distincts ». Dans ce modèle, l’État devient une « corporation souveraine » (sovcorp) dont la propriété est divisée en actions négociables. Le leader devient un « PDG Souverain » dont la responsabilité n’est pas morale mais fiduciaire : il doit maximiser la valeur de l’actif (le territoire, la population) pour ses actionnaires. La loi n’est plus un contrat social. C’est un contrat de service entre le propriétaire et ses locataires (les anciens citoyens, maintenant reclassifiés comme ressources exploitables). Sous ce régime, l’eugénisme n’est plus une question morale ou politique. C’est une simple question de gestion d’actifs : optimiser la « qualité » de la ressource humaine pour maximiser la productivité et la rentabilité. C’est de la gestion de portefeuille appliquée à la population. Et c’est ici qu’on voit comment HBD + infrastructure algorithmique + formalisme créent un système où l’eugénisme opère sans intention malveillante, sans idéologie raciste explicite, sans symboles nazis dénonçables. C’est juste de l’ingénierie optimale.

L’instrumentalisation de la mémoire

Ici il faut s’arrêter sur un autre point : comment l’infrastructure vectofasciste traite-t-elle la mémoire collective, en particulier les traumatismes de masse ? Le mécanisme est le suivant. Les mémoires de catastrophes historiques (guerres, génocides, persécutions) sont chargées émotionnellement de manière intense. Elles portent une charge affective particulière : culpabilité, trauma, devoir de mémoire, impératif de « plus jamais ça ». Ces émotions ne sont pas moins réelles, moins légitimes que d’autres. Elles sont simplement puissantes. Or, ce que l’infrastructure vectofasciste peut exploiter, c’est précisément cette puissance affective. Non pas en niant l’événement, mais en capturant la mémoire elle-même comme un vecteur émotif imperméable à la critique rationnelle. Si un acteur politique invoque la mémoire d’une catastrophe pour justifier une action présente, il crée une situation où critiquer l’action présente revient à critiquer la mémoire de la catastrophe elle-même. La mémoire devient un bouclier rhétorique. L’action présente devient indiscutable, parce qu’elle est encadrée par ce qui ne peut pas être discuté. C’est le détournement de la mémoire comme outil de pouvoir : plutôt que de permettre que la mémoire nous force à penser différemment, on la fige dans une invocation répétée qui paralyse la critique.

Imaginons un trauma collectif : un génocide, une persécution, une violence de masse reconnue historiquement. Ce trauma possède une charge émotionnelle intense. Il est invoqué régulièrement pour :
– Justifier certaines politiques (« pour que ça ne se répète jamais ») ;
– Délégitimer certaines critiques (« tu oses critiquer ? Mais c’est comme ce trauma ! ») ;
– Mobiliser une culpabilité collective (« nous devons réparer le dommage historique de ce trauma »).
Ce qui se passe alors, c’est que la mémoire devient elle-même un ressort politique. Elle cesse d’être un événement historique à comprendre. Elle devient une donnée affective à exploiter. Et le danger, le vrai danger du vectofascisme, c’est que cela peut créer une boucle temporelle où le présent devient prisonnier du passé. Tout ce qui se passe maintenant doit être justifié par référence à ce qui s’est passé alors. Et parce que ce trauma est posé comme absolu, incomparable, aucun événement présent ne peut être nommé avec la même gravité. Résultat : on peut commettre des actions de grande violence ou injustice au présent, en invoquant la prévention de cet événement, et ces actions seront systématiquement minimisées ou justifiées, parce qu’elles opèrent au nom du trauma lui-même.

Cela aboutit à une destruction progressive de la sémantique politique. Les mots qui permettaient autrefois de nommer les violences extrêmes (« génocide », « crime contre l’humanité », « persécution systématique ») deviennent usés, vidés de sens, parce que ces mots sont invoqués de manière si contradictoire et si saturée affectivement qu’ils perdent leur pouvoir discriminant. Ou bien on dit que seul X mérite le nom de « génocide » (parce que c’est le trauma suprême), ou bien on applique le mot de manière si laxiste (à n’importe quelle injustice) qu’il perd sa force critique. Et une fois qu’on ne peut plus nommer avec précision la violence, on ne peut plus la critiquer avec clarté. La sémantique s’effondre. Le pouvoir opère dans cet espace de confusion sémantique, où les mots ne signifient plus rien de stable. Ce processus réalise ce que nous appelons une vectorisation de la mémoire : la transformation d’un événement historique complexe, multifacette, exigeant une compréhension nuancée, en une simple donnée affective à manipuler.

La mémoire de X entre dans l’espace latent du vectofascisme. Elle peut être :
– Activée sélectivement (invoquée pour justifier une action, ignorée pour en critiquer une autre) ;
– Remixée (les détails historiques précis deviennent moins importants que la signature émotionnelle) ;
– Instrumentalisée (utilisée comme justification pour des actions sans rapport direct avec X) ;
– Cannibalisée (le nom de X invoqué pour légitimer ce qui contredirait les leçons de X).

Ce n’est pas une censure brute de la mémoire. C’est une saturation affective qui paralyse la mémoire, qui l’empêche de remplir sa fonction critique, qui la transforme en outil de contrôle émotionnel. Il est crucial de clarifier ce qui se passe réellement ici. Il est entièrement légitime d’invoquer une mémoire historique pour critiquer une politique présente. « Les leçons de X nous enseignent que Y est dangereux » est une forme de raisonnement politique normal et important. Ce qui devient problématique c’est quelque chose de différent : c’est lorsque la mémoire devient un paravent affectif qui rend toute critique de l’action présente indéfendable. C’est lorsque l’invocation de X devient un moyen de ne pas débattre les enjeux concrets du présent.

– Critique légitime : « L’histoire de X nous montre les dangers de [mécanisme spécifique]. La politique Y reproduit ce mécanisme. Donc Y est dangereuse. »
– Instrumentalisation vectofasciste : « X s’est produit. Nous devons empêcher X. Voilà pourquoi [n’importe quelle action] est justifiée. Si vous questionnez [cette action], vous remettez en question le devoir de mémoire de X. »

Pour le vectofascisme, l’intérêt de ce mécanisme est immense : il permet de mobiliser des affects puissants (culpabilité, peur, devoir) sans jamais avoir à débattre les fondamentaux du projet politique. L’infrastructure peut fonctionner au-dessus du débat démocratique ordinaire, en opérant directement sur ces circuits affectifs chargés historiquement. Mais il est important de noter ceci : ce mécanisme ne s’applique pas spécifiquement à une mémoire ou à un événement donné. C’est un mécanisme structurel qui peut s’appliquer à n’importe quel trauma collectif. Toute mémoire chargée émotionnellement peut potentiellement être capturée et instrumentalisée de cette manière. Et c’est précisément pour cela que le mécanisme est si redoutable : il n’opère pas via l’idéologie explicite, mais via la capture de nos obligations émotionnelles les plus légitimes.

La destruction architecturale, les machines de guerre et le grotesque

Mais le projet yarvinien ne s’arrête pas à la prise de pouvoir. Il va bien au-delà. Il envisage une reconstruction physique, matérielle, architecturale de l’État lui-même. Yarvin conçoit le changement de régime selon le modèle d’une guerre d’occupation totale, visant un effacement « irréversible » de l’ancien système démocratique. « Sa première étape consistera à effacer l’ancien régime de manière pacifique mais irréversible, jusqu’à ce que la peinture ait disparu et que le métal brille. » Et il systématise cette destruction au-delà du politique et du droit, jusqu’à toucher l’architecture physique et la mémoire elle-même : « Même les bâtiments de l’ancien gouvernement devraient être démantelés, sauf s’ils présentent une valeur historique ou architecturale réelle. Comme les Alliés l’ont bien compris en 1945, la destruction symbolique est aussi importante que la destruction structurelle. » Cette référence à 1945 n’est pas innocente. Elle invoque précisément le moment où une totalité a été physiquement détruite, où les symboles du régime ont été démolis, où la mémoire architecturale a été effacée. Yarvin propose de reproduire cette logique d’anéantissement (en prenant bien garde de se référer à 1945 et non avant) : une volonté de déterritorialisation physique complète de la démocratie, de démolition des structures matérielles elles-mêmes, de s’assurer qu’aucune autre forme politique ne puisse s’y réinstaller, pas même sa mémoire.

Les machines de guerre autonomes incarnent littéralement cette logique de vectorisation. Le Replicator de Tesla, les drones militaires autonomes, les systèmes de ciblage basés sur l’IA, ces entités technologiques n’ont pas d’empathie par définition, non parce qu’on l’a « désactivée », mais parce qu’elles n’ont jamais eu d’intentionnalité morale. Elles opèrent selon des optimisations vectorielles : cible acquise = action exécutée. Paul Scharre, ancien sniper de l’armée américaine et analyste politique au Pentagon, l’énonce avec clarté dans Army of None : Autonomous Weapons and the Future of War, 2018  : « Qu’aurait fait une machine à la place de Petrov ? La réponse est claire : la machine aurait fait exactement ce pour quoi elle était programmée, sans jamais comprendre les conséquences de ses actions. » Ce n’est pas une limitation technique surmontable. C’est ce que signifie être une machine : l’absence complète d’intentionnalité morale, d’empathie, de compréhension du contexte ou de monde. Mais ce qui est remarquable, c’est que Musk et Trump ont explicitement transformé cette absence d’empathie en vertu à cultiver. Musk, en développant des machines autonomes sans « limitations éthiques », dénonce la « sensibilité progressiste » comme un obstacle à l’efficacité. Trump, en radicalisant la rhétorique du « enemy combatant » et de l’élimination sans remords, présente l’empathie envers l’adversaire comme une trahison nationale. L’absence de conscience n’est plus simplement le destin inévitable des machines. Elle devient un idéal politique à imposer. Cela révèle le secret du vectofascisme : il ne cherche pas à créer l’absence d’empathie chez les machines, ce serait impossible, les machines n’en ont jamais eu. Il cherche plutôt à vectoriser l’empathie humaine elle-même, à la transformer en donnée affective exploitable ou, mieux encore, à la présenter comme une faiblesse à éliminer de la conscience collective. Mais il y a un danger encore plus insidieux que Scharre identifie : le risque moral. Dans son analyse des politiques d’armes autonomes, Scharre observe que « si ceux qui lancent des armes autonomes ne croient pas être responsables des meurtres qui en résultent, ils pourraient devenir négligents, lançant l’arme dans des endroits où peut-être sa performance n’était pas assurée ». En d’autres termes : quand vous reléguez la décision morale à une machine sans conscience, les opérateurs humains eux-mêmes cessent graduellement d’être tenus pour responsables de leurs actions. C’est la propagation du vectofascisme dans les esprits. L’empathie n’est plus une vertu morale qu’on choisit de cultiver. Elle devient une inefficacité algorithmique qu’on doit débugger. Et une fois qu’on a accepté que les machines n’ont pas besoin d’empathie, il devient facile de conclure que les humains non plus ne devraient pas en avoir.

Le vectofascisme réalise donc une inversion morale qui opère en deux temps :
– Temps 1 (infrastructure) : Créer des machines sans conscience morale ;
– Temps 2 (culture opérationnelle) : Utiliser l’existence de ces machines pour affirmer que la conscience morale est une faiblesse à dépasser chez les humains aussi. 

Ce qui rend cette inversion particulièrement redoutable, c’est qu’elle s’appuie sur une vérité technique pour justifier une transformation morale. On ne peut pas débattre de la conscience chez les machines, elle n’y est simplement pas. Mais en utilisant cette absence pour redéfinir la conscience humaine comme obstacle plutôt que vertus, le vectofascisme transforme les termes du débat moral lui-même. Scharre révèle une autre couche de cette transformation : même si on voulait programmer la conscience morale dans une machine, c’est impossible. Il note que « faire ces jugements exigerait un raisonnement moral complexe… Une telle machine exigerait un raisonnement moral au niveau humain, au-delà de l’IA d’aujourd’hui. » Cela crée une situation paradoxale : les machines autonomes incarnent l’idéal vectofasciste précisément parce qu’elles sont incapables d’avoir la conscience morale que Musk et Trump dénoncent comme obstacle. Elles ne pourraient jamais « se soucier » du fait qu’elles tuent. Elles sont la forme parfaite du pouvoir sans remords, sans hésitation, sans humanité. Les machines autonomes ne sont pas simplement des outils. Elles sont des prophètes du vectofascisme : elles incarnent l’idéal du système optimal quand on a supprimé tout ce qui freine l’action, morale, hésitation, remords, empathie, conscience. Et elles montrent aussi comment cette suppression se propage aux humains qui les utilisent. Le risque moral que Scharre identifie n’est pas un bug. C’est une feature du vectofascisme : construire un système où la conscience morale devient impossible à exercer, pas parce qu’on l’interdit explicitement, mais parce que l’infrastructure elle-même la rend obsolète.

Il existe un mécanisme supplémentaire qui lie intimement la gamification à la destruction sémantique : l’utilisation d’une esthétique du grotesque et du kitsch comme outil de capture émotionnelle couplée au court-circuitage de la critique rationnelle. Rappelons comment fonctionne la gamification : elle ne produit pas de sens, elle produit des affects (récompense, progression, statut). L’utilisateur ne vote pas parce qu’il comprend le projet politique, il vote parce qu’il désire le badge suivant. L’affect se détache du signifié. Le grotesque opère exactement sur cette brèche. Il la systématise et l’amplifie. Prenons l’exemple de Beeple (pseudonyme de Mike Winkelmann), artiste produisant quotidiennement depuis 2010 des images techniquement sophistiquées mais esthétiquement vulgaires : un mélange de haute technologie 3D et de kitsch, d’ironie et d’absurdité grotesque. Ses NFT se vendent pour des millions. Mais l’important n’est pas le marché, c’est le court-circuit émotif qu’il produit. Le grotesque crée un environnement informatif où tous les critères de jugement sont brouillés. Lorsqu’une image est à la fois techniquement impressionnante et esthétiquement ridicule, le cerveau entre en court-circuit. L’ironie devient inséparable de la sincérité. Le beau et le laid ne sont plus des catégories pertinentes. C’est ici que la gamification s’amplifie : dans cet environnement de confusion sémantique, les récompenses affectives deviennent les seuls critères clairs. Le badge n’est plus une aberration dans un univers significatif. C’est la seule chose qui a du sens dans un univers qui a perdu son sens. Habituellement, on critique une politique en disant : « c’est injuste », « c’est mal », « c’est dégradant », critères qui supposent une sériosité morale. Le grotesque préemptif annule cette possibilité. En représentant le mal politique lui-même comme déjà ironique, déjà kitsch, déjà absurde, on l’immunise contre la critique morale. On ne peut pas dire « c’est affreux » à quelque chose qui affirme : « oui, c’est affreux, c’est le point ». L’objet a d’avance occupé le terrain de sa propre critique.

Yarvin lui-même l’énonce : « Passer à un parti à la mode des années 1930, en chemises noires, avec escadrons de la mort, est, je l’admets, comique. » En le qualifiant de comique, il le place dans l’espace du grotesque où la critique sérieuse ne peut plus le saisir. Il y a une immunisation rhétorique : tout recours à la sériosité (« c’est du fascisme ») est immédiatement rejeté comme manquant d’humour. C’est un détournement pervers du grotesque : normalement, le grotesque révèle les contradictions en les amplifiant jusqu’à l’absurde. Ici, il est utilisé pour occulter les contradictions en les convertissant en jeu. La synthèse monstrueuse entre gamification + grotesque + désémantisation produit une capture des affects positifs (victoire, progression, statut) indépendamment du sens, paralyse la capacité à critiquer sérieusement en rendant tout ironiquement absurde, vide le langage politique de son pouvoir référentiel. C’est la paralysie tripartite : émotion sans compréhension, ironie sans alternative, jeu sans conscience. Le vectofascisme réalise sa synthèse la plus redoutable en ces trois points : une totalité où la domination s’exerce sans rencontrer la possibilité d’une critique sérieuse, rationnelle et signifiante.

Le « Hard Reboot » de la Cathédrale

Il y a la question de la doctrine elle-même, de ce que Yarvin appelle la « Cathédrale ». Par ce terme densément chargé, il désigne l’agrégat d’institutions progressistes qui contrôlent selon lui le discours, la culture et l’administration : universités, médias, bureaucratie non élue, organisations internationales de droits de l’homme. Ce n’est pas simplement une description neutre d’un ensemble institutionnel. C’est une accusation théologique. Yarvin définit le progressisme comme une « version sécularisée du quakerisme » ou de l’ultracalvinisme, une religion déguisée en science, une doctrine imposée par la force morale plutôt que la force brute. La Cathédrale n’est pas une bureaucratie neutre mais un « culte mystérieux du pouvoir » qui impose des dogmes (Égalité, Justice Sociale, Diversité) sous couvert de science objective. Le progressisme opère selon la logique d’une église établie, impériale et monopolistique dans sa prétention à incarner la vérité universelle.

Par conséquent, le remplacement de l’ancien régime exige de traiter l’Universalisme comme une église établie et de procéder à sa « désinstallation » complète pour libérer l’État de cette emprise religieuse déguisée en expertise technique. C’est ici que le concept de « hard reboot » révèle sa profondeur totalitaire. Le hard reboot n’est pas une simple réforme ou un changement de majorité électorale. C’est une remise à zéro totale du système, calquée sur le principe de l’ingénieur logiciel réinitialisant un système corrompu par un virus. Cela implique l’éviction systématique de l’ensemble des cadres nommés, la destruction des murs du bâtiment administratif lui-même, et la réécriture intégrale du code fondamental du gouvernement. Mais il y a plus : c’est une institutionnalisation autoritaire de la vérité elle-même. Yarvin énonce : « Et bien sûr, un véritable parti possède une doctrine. Bien avant de prendre le pouvoir, il sait exactement ce qu’il fera du pouvoir. » La doctrine n’est pas découverte par débat démocratique. Elle est instituée par le pouvoir comme réalité a priori. « Ce sont ses idées qui deviendront l’idéologie officielle, la vérité officielle. » Le pouvoir produit donc sa propre forme de vérité, non pas obtenue par consensus démocratique ou vérification empirique, mais imposée par décret souverain. C’est le vectofascisme qui s’épanouit paradoxalement dans la fin des grands récits : il n’a plus besoin de justifier sa vérité par appel à l’Histoire universelle ou au Progrès ou à une Origine. Il l’impose simplement, parce qu’il est le pouvoir, parce qu’il dispose de l’infrastructure informationnelle, du programme de systèmes autonomes décisionnels, du contrôle de l’appareil d’État.

Il existe un dernier mécanisme, peut-être le plus raffiné, que nous avons vu à l’œuvre depuis le début de notre analyse : celui de l’aveu performatif. Yarvin opère un renversement stratégique en admettant explicitement le lien au fascisme. L’aveu du fascisme fonctionne comme une dénégation de second ordre. En le qualifiant de « comique » et en l’intégrant au registre du jeu (la gamification qui structure tout le programme), Yarvin désamorce le terme, tout comme le faisait le bras tendu d’Elon Musk. Le fascisme avoué cesse d’être une accusation sérieuse pour devenir une performance ironique, un programme assumé avec une certaine nonchalance calculée, une sorte de blague que le système se raconte à lui-même. « Cette stratégie vagueness sert plusieurs objectifs : (1) Elle rend ses idées moins extrêmes — en les présentant comme des questions ouvertes plutôt que des appels directs à l’action. (2) Elle permet d’attirer un public plus large — ceux qui pourraient être curieux de la politique réactionnaire mais pas encore pleinement radicalisés. (3) Elle fournit une couverture en cas de confrontation — il peut toujours prétendre qu’il “explorait simplement les possibilités” plutôt que de faire des réclamations prescriptives » (Hugo Rowley, Curtis Yarvin & The Neoreactionary Canon, Made Simple, 2025).  Cela rend la critique libérale et démocratique inopérante. Dès l’instant où le programme a occupé lui-même le terrain de la dénonciation et l’a transformé en vecteur d’amusement et de recrutement, toute critique qui refuse de jouer le jeu demeure incompréhensible, hors du champ des possibles discursifs. C’est la dénégation performative qui se renforce par sa propre répétition, sa propre diffusion. Le pouvoir spectral ne peut être critiqué que de manière spectrale ; la critique frontale, sérieuse, ne peut que passer à côté de sa cible.

Défaillible

Ce qui émerge de cette analyse est une correspondance structurelle entre le diagnostic théorique du vectofascisme et l’ordonnance programmatique de Yarvin. Le concept de vectofascisme servait à identifier une tendance réelle, une virtualité inscrite dans l’infrastructure technique contemporaine, dont le programme yarvinien représente l’une des cristallisations les plus explicites, mais qui peut prendre bien d’autres formes. Le diagnostic n’anticipait pas l’avenir. Il diagnostiquait le présent en cours de mutation. Il identifiait les mécanismes potentiels d’une transformation qui était dispersée, inarticulée, fragmentée. Et le programme yarvinien, en transformant ces mécanismes en architecture explicite et programmée, rend le concept de plus en plus concret, le fait émerger de l’état de virtualité théorique vers celui de possibilité réalisable. L’exemple de Trump, avec son alignement méthodique des institutions culturelles et académiques, montre que nous ne sommes plus dans la phase théorique. Les éléments opèrent maintenant de manière coordonnée, bien que non unifiée sous une intention unique. Le programme vectofasciste combine : l’application mobile comme medium politique total, la gamification comme capture affective, l’infiltration institutionnelle clandestine, l’infrastructure informationnelle parallèle et autarcique, un système de vote transitif qui absorbe toute délibération démocratique, une hiérarchie vectorisée basée sur HBD et l’eugénisme calculé, une doctrine imposée comme réalité officielle, et l’intégration de programmes militaires réels vers l’autonomie complète des décisions de destruction. Mais il faut le noter avec clarté : nous ne savons pas si ce programme sera réellement implémenté de manière cohérente même si nous en voyons déjà certaines prémisses dans le colonianisme trumpien. Nous analysons une tendance, une possibilité inscrite dans les capacités techniques du XXIe siècle. C’est précisément parce que c’est possible que l’analyse devient urgente.

Ce qui rend ce vectofascisme particulièrement insidieux, c’est que la critique politique traditionnelle n’a aucune catégorie pour le saisir. La critique de gauche dispose de concepts (pouvoir, exploitation, hégémonie) mais elle suppose une base matérielle où des humains décident activement d’opprimer d’autres humains selon un mécanisme de classes sociales. Or, le vectofascisme opère de telle manière qu’il n’y a pas seulement un « groupe » qui décide. Il y a une architecture, une infrastructure, un système de calcul. Dire « c’est injuste » suppose que justice et injustice soient des catégories pertinentes. Mais si le système opère en deçà du seuil sémantique, en deçà du langage où « justice » et « injustice » ont du sens, cette critique passe à côté. Dire « c’est du fascisme » est une réaction juste, mais elle suppose que le fascisme soit reconnaissable, dénonçable, que ses intentions soient claires. Or, le vectofascisme réalise précisément sa puissance en affirmant-tout-en-niant qu’il soit fascisme, l’aveu ironique qui désamorce la critique.

La vraie question n’est donc pas : « Comment critique-t-on le vectofascisme ? » La vraie question est : « Comment crée-t-on les conditions pour que d’autres mondes soient possible ? » Mais cette question excède les limites de ce texte. L’analyse du vectofascisme comme infrastructure est préalable à toute contre-architecture. Il faut d’abord nommer les mécanismes pour pouvoir les contourner. Les propositions concrètes (créer des institutions inoptimisées, des espaces publics, des formes de coopération qui refusent la gamification) feront l’objet de recherches ultérieures. Ce qui importe ici : ne pas rester à la pure critique, ne pas transformer le diagnostic en paralysie fascinée. Mais aussi ne pas prétendre que des gestes éthiques individuels suffiront. La construction d’une contre-architecture exige un travail institutionnel, technique, politique, et c’est un autre chantier.

La vraie urgence du vectofascisme ne réside pas dans le programme de Yarvin lui-même, qui peut ou ne pas être implémenté. Elle réside dans le fait que les mécanismes sont déjà là : l’application, la gamification, la désémantisation, l’infiltration, l’infrastructure informationnelle parallèle, les systèmes décisionnels autonomes, la vectorisation de la mémoire, la paralysie morale par le grotesque. Ces mécanismes opèrent fragmentés, dispersés, mais opérants. Observons les contradictions émergentes : le Kremlin ne parvient pas à vectoriser entièrement les populations qui refusent l’identification biométrique. Les systèmes de recommandation de Meta s’effondrent périodiquement sous la charge de contenu à modérer. Les cadres infiltrés dans les universités génèrent eux-mêmes des résistances internes. Les travailleurs d’Amazon qui utilisent les systèmes d’optimisation se sabotent mutuellement pour échapper à l’algorithme. Ces failles montrent que la neutralisation des contradictions n’est pas automatique, mais exige un travail perpétuel de maintenance. Mais attention : cette totalité vectofasciste ne fonctionne que si elle demeure invisible. Elle prospère dans la fragmentation des compréhensions. Elle gère ses propres failles par neutralisation. Car le vectofascisme n’est pas absolu. Il rencontre des résistances, techniques, sociales, affectives. Les contradictions qu’il produit ne disparaissent pas ; il les absorbe en les fragmentant, en les rendant inintelligibles les unes aux autres. Exemple : un utilisateur gamifié peut aussi refuser l’app. Une institution vectorisée peut aussi générer des contre-mouvements. Un citoyen exposé à la désémantisation peut aussi, dans certaines conditions, retrouver un langage critique. Le système ne tolère pas ces contradictions ; il les neutralise. Il les isole, les marginalise, les transforme en bruit de fond. Le danger réside donc non dans l’inévitabilité du vectofascisme, mais dans son efficacité relative à absorber les contradictions. Il ne gagne pas parce qu’il est parfait. Il gagne parce qu’il isole les points de rupture. Mais c’est justement parce qu’il essaye de le faire qu’il est défaillible. Chaque absorption d’une contradiction crée des tensions, des frictions, des points d’appui possibles. L’urgence de ce diagnostic réside précisément là. Pas pour prédire l’avenir, le vectofascisme n’est pas inévitable. Pas pour paralyser par la description d’une totalité sans failles. Mais pour identifier où les contradictions peuvent s’articuler, où les points de rupture pourraient se cristalliser en action collective. Pour maintenir la capacité à nommer ce qui se passe avant qu’il ne soit trop tard pour agir. Pour que, quand une contre-architecture se construira, elle sache précisément pour quoi elle s’édifie et comment.

Gregory Chatonsky

  • ✇Dans les algorithmes
  • La reconnaissance faciale, en toute impunité
    En 2021 déjà, Street Press avait montré que la police française utilise la reconnaissance faciale massivement, couramment et en toute impunité. Le média d’inverstigation Disclose enfonce le clou : on est passé de de 375 000 consultations du fichier TAJ (Traitement des antécédents judiciaires) à 1 000 000 en 2024. Soit 2500 consultations quotidiennes. Une pratique toujours illégale, rappelle la Quadrature du Net qui exige son interdiction et des sanctions contre ceux qui permettent son déploiemen

La reconnaissance faciale, en toute impunité

23 mars 2026 à 07:05

En 2021 déjà, Street Press avait montré que la police française utilise la reconnaissance faciale massivement, couramment et en toute impunité. Le média d’inverstigation Disclose enfonce le clou : on est passé de de 375 000 consultations du fichier TAJ (Traitement des antécédents judiciaires) à 1 000 000 en 2024. Soit 2500 consultations quotidiennes. Une pratique toujours illégale, rappelle la Quadrature du Net qui exige son interdiction et des sanctions contre ceux qui permettent son déploiement, en dehors du cadre légal.

  • ✇Dans les algorithmes
  • Le biais anti-humain : des préférences des IA pour les contenus IA
    Sans surprise, les IA préfèrent les textes… écrits par des IA. Des chercheurs ont reproduit des études de discrimination à l’emploi en testant les biais des LLM chargés du recrutement en testant la différence entre des lettres de motivation et des CV écrits par des humains et générés par des IA.  Visiblement, les LLM préfèrent toujours les contenus génératifs sur les contenus humains, que ce soit pour l’embauche, pour la sélection d’articles de recherche ou pour les résumés de films. Mais sur

Le biais anti-humain : des préférences des IA pour les contenus IA

23 mars 2026 à 07:04

Sans surprise, les IA préfèrent les textes… écrits par des IA. Des chercheurs ont reproduit des études de discrimination à l’emploi en testant les biais des LLM chargés du recrutement en testant la différence entre des lettres de motivation et des CV écrits par des humains et générés par des IA. 

Visiblement, les LLM préfèrent toujours les contenus génératifs sur les contenus humains, que ce soit pour l’embauche, pour la sélection d’articles de recherche ou pour les résumés de films. Mais surtout, soulignent les chercheurs, confrontés au choix entre des contenus génératifs et des contenus humains, les humains choisissent moins fréquemment les textes produits par des LLM que ne le font les produits LLM eux-mêmes. Les résultats montrent que les LLM ont tendance à « discriminer de manière dysfonctionnelle les humains. » 

Reste à saisir pourquoi : « nos données ne permettent pas de déterminer si le biais sous-jacent est sui generis ou s’il résulte de formes plus familières de biais sociaux et de discrimination. Il est possible que les choix des LLM révèlent des formes amplifiées de biais négatifs socialement répandus, déclenchés par les marqueurs stylistiques des identités sociales humaines marginalisées. Ainsi, la préférence des LLM pour les LLM découlerait de l’absence de tels marqueurs dans leurs intonations, contrairement à leur présence intermittente dans les intonations humaines.»  

A terme, les chercheurs estiment que pointe le risque d’une fracture numérique renforcée, risquant de déclasser les candidats qui n’utilisent pas l’IA, ou pire, ceux qui n’utilisent pas les meilleurs modèles… ou pire, de marginaliser définitivement les humains, par une forme de ségrégation supplémentaire, et qui s’ajoute à celles lui préexistant. Ce qui est sûr, c’est que le biais IA-IA pourrait conférer un avantage indu au contenu généré par l’IA dans nombre de processus décisionnels, comme on le voit déjà dans les flux de recommandations de nombre de réseaux sociaux.

  • ✇Dans les algorithmes
  • Le coût caché de l’IA c’est la vérification
    « L’IA ne fonctionne toujours pas très bien en entreprise, les entreprises font semblant, mais un règlement de comptes est imminent », estime le journaliste Thomas Claburn  pour The Register. « Un code peut sembler correct, réussir les tests et pourtant être erroné. On mesure généralement cela grâce à des tests de performance. Or, beaucoup des entreprises n’ont pas mis en place de système de retour d’information adéquat pour évaluer l’impact du codage basé sur l’IA sur les résultats qui leur imp

Le coût caché de l’IA c’est la vérification

23 mars 2026 à 07:03

« L’IA ne fonctionne toujours pas très bien en entreprise, les entreprises font semblant, mais un règlement de comptes est imminent », estime le journaliste Thomas Claburn  pour The Register. « Un code peut sembler correct, réussir les tests et pourtant être erroné. On mesure généralement cela grâce à des tests de performance. Or, beaucoup des entreprises n’ont pas mis en place de système de retour d’information adéquat pour évaluer l’impact du codage basé sur l’IA sur les résultats qui leur importent. Le nombre de lignes de code n’est pas un indicateur d’excellence. (…) nous avons besoin d’un nouvel ensemble de métriques, pour mesurer l’impact de l’IA sur la performance en ingénierie », explique Dorian Smiley de Codestrap.

« Le nombre de lignes de code, le nombre de présentations produites, le nombre de tickets fermés, le temps gagné sur une tâche, le volume de texte généré, sont des métriques assez faciles à faire remonter dans un tableau de bord, faciles aussi à présenter à une direction générale. Mais ce sont souvent de très mauvaises mesures de la qualité réelle du travail livré.», rappelle Arthur Charpentier sur son blog. « Les lignes de code, ou le nombre de pull requests, ne sont pas des mesures d’excellence en ingénierie. Ce qui compte, ce sont plutôt des variables comme la fréquence de déploiement, le délai de mise en production, le taux d’échec des changements, le temps de rétablissement, la sévérité des incidents. Dès lors, une partie de l’optimisme contemporain vient peut-être d’une confusion très simple: on confond ce qui est facile à compter avec ce qui est réellement important. » 

L’adoption de l’IA peut s’accompagner d’améliorations sur certaines dimensions intermédiaires, par exemple la documentation ou la rapidité perçue sur quelques tâches, tout en coexistant avec une baisse de la « cadence de livraison » et de la stabilité d’ensemble, explique encore Charpentier. « L’IA peut donner aux équipes le sentiment d’aller plus vite, de produire plus, de fluidifier certains gestes, tout en dégradant les propriétés du système qui importent vraiment ». « Lorsque Clarburn explique que les grands cabinets de conseil utilisent déjà l’IA à grande échelle pour rédiger des PowerPoint ou d’autres livrables, et que les erreurs dans le travail de bureau risquent d’être plus difficiles à détecter que dans le code faute de tests de référence comparables, il parle d’autre chose que d’une faiblesse technique. Il décrit une économie de services dans laquelle la qualité devient opaque au client. Et pas que lui, parfois même à l’organisation qui vend le service.» 

Charpentier rappelle que l’accélération peut rendre l’organisation entière « rationnellement aveugle à la dégradation de la qualité, parce que le coût immédiat de la vigilance pèse sur ceux qui doivent livrer vite, alors que le coût du dommage est reporté plus tard ». « Un risque devient très difficile à couvrir lorsque ni le client, ni le prestataire, ni l’assureur ne savent clairement qui devait voir l’erreur, à quel moment, et selon quelle procédure », rappelle le spécialiste des techniques d’assurances. « Chaque gain apparent de vitesse déplace en réalité une charge vers l’aval. Il faut relire, comparer, tester, contextualiser, parfois réécrire. Et si personne n’assume sérieusement ce travail, le coût ne disparaît pas. Il réapparaît plus tard sous forme d’erreur, de correction en urgence, de perte de confiance, puis éventuellement de contentieux. Ce que l’on présente comme un gain de productivité n’est donc souvent qu’un déplacement comptable. On économise au début sur la production, pour dépenser plus tard sur le contrôle, ou sur les conséquences de son absence. » « Le ralentissement n’est pas un défaut du système, il en est la condition de crédibilité ! Tant qu’une organisation célèbre les gains de vitesse sans financer sérieusement une infrastructure de vérification, elle sous-estime nécessairement le coût complet du système.» Ce qu’il résume de belles formules : le coût caché de l’IA n’est pas la génération, c’est la vérification. L’automatisation ne supprime pas l’erreur, elle la déplace. 

« Une erreur de présentation, de recommandation, de priorisation ou de raisonnement n’est pas nécessairement la faute d’un utilisateur inattentif. Elle peut être le produit d’un système dans lequel on a retiré aux humains les conditions mêmes d’un contrôle effectif, tout en continuant à leur demander d’en assumer la responsabilité finale. » 

« Une même technologie peut être présentée en interne comme un gain de productivité, être interprétée par le client comme une baisse de valeur, et être analysée par l’assureur comme une hausse du risque.»

  • ✇Dans les algorithmes
  • Une histoire des rapports de l’Etat au logiciel libre
    Sur le framablog, Pierre-Yves Gosset publie une excellente et fouillée histoire des rapports de l’État français et du le logiciel libre. Des années 60 à aujourd’hui, cette chronologie souligne que l’ambivalence entre souveraineté et dépendance est complexe, faite d’avancées et de reculs, de conquêtes et d’abandons. Le prétexte de cette prise de recul est une défense du projet porté par La Suite numérique à la Dinum, une suite d’outils collaboratifs libres pour les agents de l’État. « Une initiat

Une histoire des rapports de l’Etat au logiciel libre

23 mars 2026 à 07:01

Sur le framablog, Pierre-Yves Gosset publie une excellente et fouillée histoire des rapports de lÉtat français et du le logiciel libre. Des années 60 à aujourd’hui, cette chronologie souligne que l’ambivalence entre souveraineté et dépendance est complexe, faite d’avancées et de reculs, de conquêtes et d’abandons. Le prétexte de cette prise de recul est une défense du projet porté par La Suite numérique à la Dinum, une suite d’outils collaboratifs libres pour les agents de l’État. « Une initiative publique louable, politiquement courageuse, et plus prometteuse que ne le disent ses détracteurs. »

« C’est une initiative précieuse, parce qu’elle rouvre un espace politique que l’État français a trop souvent laissé se refermer : celui d’un numérique public plus libre, moins dépendant d’éditeurs ou de cabinet de conseils dont l’objet est moins de servir la population que de se servir sur les institutions. » Oui, l’autonomie numérique passe d’abord par des projets concrets et fonctionnels et se bâtit, d’une brique l’autre.

  • ✇Dans les algorithmes
  • QuitGPT (4/4) : de la contestation de gauche à son organisation
    Pour conclure ce dossier, revenons aux propos de l’historien Brian Merchant, dans sa newsletter.  L’IA peut-elle être un projet de gauche ? Croire que la gauche passerait à côté de l’IA reste une accusation un peu facile. L’IA, quoi que ses apôtres en disent, tient largement d’une machine à défaillance qui vise à servir le capitalisme. Ensuite, si la gauche décrit une accélération d’un capitalisme factice et cynique, c’est aussi avec de solides arguments. On a plutôt l’impression que les t

QuitGPT (4/4) : de la contestation de gauche à son organisation

20 mars 2026 à 07:00

Pour conclure ce dossier, revenons aux propos de l’historien Brian Merchant, dans sa newsletter

L’IA peut-elle être un projet de gauche ?

Croire que la gauche passerait à côté de l’IA reste une accusation un peu facile. L’IA, quoi que ses apôtres en disent, tient largement d’une machine à défaillance qui vise à servir le capitalisme. Ensuite, si la gauche décrit une accélération d’un capitalisme factice et cynique, c’est aussi avec de solides arguments. On a plutôt l’impression que les thuriféraires de l’IA ne souhaitent pas entendre qu’on puisse refuser l’IA et son monde, toute puissante qu’elle soit. La promesse de l’IA n’est qu’une promesse pour les plus puissants. Dans la critique de l’IA de gauche, on entend pourtant aussi des tentatives pour créer des IA spécifiques, limités, voire socialistes, tout en se demandant si cela est seulement possible, tant les moyens sont accaparés par des acteurs qui ne sont pas de gauche et qui rendent impossible et certainement peu désirable, l’idée même d’IA, tant la délégation de la pensée aux machines est finalement contraire à l’idéal d’émancipation qui anime la gauche. 

Ce dont convient largement Brian Merchant : la gauche cherche bien plus à pointer les limites de l’IA que les enthousiastes minimisent. La gauche américaine n’est pas en train de rater une occasion de jouer un rôle dans l’élaboration des politiques relatives à l’encadrement de l’IA. Au contraire : les progressistes s’efforcent d’adopter des lois allant dans ce sens, notamment au niveau des États, tandis que la droite tente de les bloquer, notamment via le moratoire trumpiste cherchant à interdire toute législation relative à l’IA au niveau des États. Dans le décompte des projets de lois sur l’IA, la plupart viennent d’organisations de gauche. Des dizaines de projets de loi étatiques, soutenus par des syndicats et des organisations progressistes, n’ont de cesse d’être proposées. Que peu aboutissent dit bien plus de l’inégalité des rapports de force et des puissances financières et politiques en jeux que de la justice que réclament ces contestations et ces demandes de régulations. 

En fait, rappelle Merchant, la gauche ne perçoit pas l’IA comme une force transformatrice qui va remodeler le monde et ses institutions, mais bien comme une force qui va permettre d’aligner le monde aux intérêts des puissants. Pour les défenseurs de l’IA, la voir décrite comme un système statistique, comme des perroquets stochastiques semble dénigrer leur projet sur le plan structurel même. « Pour ceux qui croient développer une super-intelligence puissante, il est certainement insultant de la voir réduite à un simple outil de saisie semi-automatique sophistiqué ». Mais quelqu’un qui défit l’IA comme un simple outil à plagier ou un simple outil de saisie automatique ne signifie pas qu’il n’a aucune compréhension de la technologie. Il en pointe d’abord les limites, les effets avant d’observer ses possibilités.

Pour Merchant, d’ailleurs, la position la plus répandue à gauche n’est certainement pas de considérer l’IA générative comme un simple perroquet stochastique, mais plutôt comme un produit conçu par de puissantes entreprises avides de profits, capable de causer de graves dommages à la société. Autrement dit, « ce n’est pas une critique sémantique ou philosophique qui devrait inquiéter l’industrie de l’IA, mais bien la critique matérielle et sociale que la gauche lui adresse. L’IA est perçue, à juste titre, comme une menace pour l’emploi, l’éducation, le bien-être mental, les arts, la sécurité des enfants, l’écosystème de l’information, et comme n’offrant que peu d’avantages à d’autres qu’aux dirigeants d’entreprise et aux sociétés spécialisées en IA. La gauche sait qu’elle doit s’opposer à ces entreprises qui cherchent à faciliter un transfert massif de richesse que produisent les travailleurs vers les plus riches – et elle le sait d’autant plus que les dirigeants du secteur de l’IA ne cessent de répéter qu’ils visent précisément cet objectif. » 

En fait, la critique de gauche fait son travail en appréhendant l’ensemble de l’économie politique de l’IA plutôt que de se contenter d’examiner la seule technologie de l’IA. De la dénonciation colonialiste et extractiviste de l’IA à la dénonciation de ses effets sociaux et économiques sur le travail ou cognitifs et comportementaux sur les gens et les relations sociales…, la dénonciation des effets de l’IA est forte et profonde. « L’IA est en effet développée par une poignée de dirigeants et d’oligopoles technologiques qui assument ouvertement leur volonté d’orchestrer une déqualification massive de la main-d’œuvre, et qui déploient sans compter l’énergie, les ressources et les capitaux nécessaires à la réalisation de cet objectif, tout en collaborant activement avec un État autoritaire pour museler tout contrôle démocratique ». Ce n’est pas parce que quelqu’un rejette une technologie et le projet plus vaste dont elle fait partie qu’il ne la comprend pas. Bien souvent, ce rejet est parfaitement éclairé, justifié et rationnel, rappelle Merchant.

La contestation de gauche face à l’IA s’organise

Le podcast d’interviews le plus populaire de la gauche américaine, The Dig, a récemment reçu Nick Srnicek, dont le dernier ouvrage, Silicon Empires : le combat pour l’avenir de l’IA (Polity, 2025, non traduit), prend justement très au sérieux l’importance de l’IA (Nick Srnicek est notamment l’auteur du premier manifeste accélérationniste et d’une analyse sur le capitalisme de plateforme). Des universitaires et responsables politiques de gauche comme Ruha Benjamin du Just Data Lab de Princeton, Alondra Nelson de l’institut pour les études avancées ou Amba Kak de l’AI Now Institute… ont ​​été nommés au comité de transition technologique du maire de New York (l’un des 17 comité consultatifs, composés de plus de 400 personnes, afin de conseiller les politiques de sa future administration) pour réfléchir à la question de l’IA. Bernie Sanders, figure emblématique de la gauche américaine, a proposé un moratoire sur les centres de données… 

Pour Merchant, la gauche se pose des questions sur l’IA. Interroge ce qui devrait être automatisé et ce qui ne devrait pas l’être. Les gens de gauche ont bien compris que l’IA vise à automatiser la production, et que, si les outils s’améliorent, ce n’est pas au rythme annoncé par les thuriféraires de l’IA et ce n’est pas sans limites profondément problématiques. Reste que les discussions sur l’IA communautaire et sur les méfaits de l’IA sont nourries. Pour Merchant, le débat entre Benanav et Morozov interrogeait lui aussi les enjeux : que voulons-nous que l’IA fasse et comment ? Que voulons-nous qu’elle ne fasse pas et comment ? Quels compromis sont possibles ? Est-ce que cette consommation d’énergie est justifiée ? 

Il est sûr que la droite a bien moins de scrupules : pour elle, l’intérêt de l’IA vise uniquement à générer du profit et du pouvoir. Ce qui est sûr, estime Merchant, c’est que le fait que ces débats parfois confus, souvent virulents, ne portent pas aux nues la technologie, ne signifie ni ignorance, ni occasion manquée. « Cela traduit une résistance au projet d’IA tel qu’il est actuellement constitué. Cela soulève les questions suivantes : pourquoi voulons-nous cela ? À qui cela profite-t-il ?… Cette réaction est parfaitement raisonnable. Elle est également populaire. Des moratoires sur les centres de données sont adoptés dans de nombreuses villes du pays. Les élites de la Silicon Valley sont extrêmement impopulaires. » La réglementation de l’IA, ainsi que les lois pour limiter le déploiement de l’IA déjà adoptées, bénéficient d’un large soutien. » Alors que le sénateur Bernie Sanders a appelé à un moratoire sur la construction de data centers aux Etats-Unis, que des Etats en ont voté à travers tous les Etats-Unis, un sondage d’opinion du Pew Internet montre que les Américains sont très opposés aux déploiements de centres de données, rapporte 404media

« La gauche est en train de remporter le débat sur l’IA »

En fait, estime Brian Merchant, « la gauche est en train de remporter le débat sur l’IA ». « Mieux, elle a en réalité accumulé un capital politique considérable autour de l’IA. La gauche veut protéger ses enfants de l’IA et éviter qu’elle leur prenne leur emploi. Pour l’instant, cette critique ne remporte le débat que dans l’opinion publique. En pratique, les entreprises d’IA font ce qu’elles veulent, avec la bénédiction de l’entourage de Trump. La gauche pourrait même, comme le suggèrent Benanav et Weatherby, défendre avec beaucoup plus de conviction que l’IA devrait être entièrement publique et administrée par le public. » Pour Merchant, les mesures dérisoires comme le revenu de base, sont bien moins stimulantes que de nous réapproprier l’IA, collectivement. N’a-t-elle pas été conçue pour« bénéficier à toute l’humanité » ?, ironise Merchant en rappelant le moto d’OpenAI. Comment se fait-il alors qu’elle ne bénéficie pas aux plus démunis ! Si l’IA ne bénéficie pas à tous, comme c’est le cas actuellement, alors elle n’apportera dans son leg qu’une situation pire que celle qui est. Elle risque bien d’être une impasse sociale, parce que, comme le dit Romaric Godin, elle ne vise qu’à accélérer l’accumulation du capital qu’elle sert. 

Les contestataires de l’IA demandent bien souvent l’arrêt de ses déploiements… (comme dans le cas de la lutte contre le déploiement des data centers) ou espèrent qu’on puisse la calfeutrer avant qu’elle n’envahisse tous les processus de nos existences (comme les artistes qui souhaitent qu’on établisse des règles pour qu’elle n’envahisse pas la musique ou les profs de plus en plus nombreux à demander à leurs établissements de ne pas souscrire d’abonnements pour les élèves comme à la California State University ou à l’université du Colorado…). Mais, les calfeutrages vont être très difficiles à mettre en place et plus encore à faire respecter du fait des intérêts financiers en jeu. Si la gauche est en train de remporter le débat sur l’IA comme le dit Merchant, par la contestation qu’elle génère, cela ne signifie pas qu’elle va remporter les batailles à venir, tant les intérêts à imposer l’IA sont puissants

Reste que les contestations sont riches, diverses et s’interrelient les unes les autres. Les méthodes déployées par les uns inspirent les revendications des autres. Des oppositions qui demeurent en tout cas plus joyeuses et réelles que l’IA, son monde, sa puissance sans conscience et ses profits stratosphériques et sans partage. 

Pour ma part, je préfère un monde où les gens dessinent, codent, jouent de la musique, écrivent, étudient par eux-mêmes, parlent avec d’autres humains… plutôt qu’un monde où ils en sont dépossédés. Je préfère un monde où la vérité a encore sa place à un monde guidé par la seule probabilité. 

Hubert Guillaud

MAJ du 20/03/2026 : Dans une tribune pour le New York Times, le journaliste David Wallace-Wells, surtout connu pour ses écrits sur le changement climatique, s’énerve après l’opposition contre la construction de data centers. Pour lui, le débat sur la construction de data centers est une distraction alors que l’IA est désormais largement utilisée pour faire la guerre, alors que les Etats-Unis ne disposent d’aucun cadre réglementaire pour l’encadrer. « On compare souvent l’intelligence artificielle aux armes nucléaires. Mais on n’a pas laissé Robert Oppenheimer et Edward Teller décider seuls du sort des bombes. » La réponse législative face au pouvoir de l’IA a été quasi inexistante. « Une administration parfois caricaturée comme soucieuse de la sécurité a cédé la place à une autre, plus aisément qualifiable d’accélérationniste. » Les géants de l’IA ont connu une croissance si fulgurante et sont devenus si essentiels pour l’avenir de l’économie américaine qu’ils sont devenus intouchables. Les Américains, eux, à mesure qu’ils découvraient l’IA, sont devenus moins enthousiastes et plus inquiets. « L’intelligence artificielle apparaît dans ce contexte comme un symbole fort de l’impuissance des peuples, déjà bien présente et vouée à s’aggraver. Elle annonce un avenir où l’organisation de la société sera en grande partie confiée à des robots opérant dans des systèmes opaques, contrôlés par une poignée d’individus immensément riches. » La lutte contre les datacenters semble donner aux citoyens inquiets l’illusion qu’ils peuvent reprendre le contrôle en menant des actions ciblées et concrètes. « La contestation des centres de données submerge la politique américaine », déclarait la journaliste Jael Holzman dans Heatmap, une publication spécialisée dans le climat, en novembre. « Presque chaque semaine, partout aux États-Unis des Américains manifestent, rejettent, restreignent ou interdisent la construction de nouveaux centres de données. » L’opposition locale aux centres de données semble une stratégie politique gagnante. Pour autant, est-ce que le ralentissement de la construction de data centers empêchera les entreprises de la Tech de conduire la guerre, de déstabiliser le monde du travail, de polluer internet, de sauver l’éducation, de réduire l’emprise des chatbots ? Cette opposition aux centres de calcul sera-t-elle suffisante pour limiter l’impact culturel et économique de l’IA qui est appelée à devenir le principal enjeu politique de la prochaine décennie ? 

Pourtant, il est peu probable qu’une législation significative sur l’IA soit adoptée tant que le gouvernement Trump sera en place et que d’ici là, l’IA aura sans doute autant évolué qu’elle l’a fait depuis 2023. En trois ans, nous sommes pourtant  passés de l’effroi des premiers utilisateurs de chatGPT à des débats au Pentagone d’envergure stratégique sur le déploiement d’IA totalement autonomes en zones de guerre sans supervision humaine. Le génie ne rentrera pas dans sa lampe. « Ceux qui espèrent jouer un rôle plus actif dans la construction de cet avenir devront probablement faire plus que simplement empêcher la construction de quelques nouveaux centres de données. » 

Le dossier QuitGPT :

– 1ère partie : De la politisation du boycott

– 2e partie : La gauche minimise-t-elle le pouvoir de l’IA ?

– 3e partie : Le socialisme après l’IA ?

– 4e et dernière partie : De la contestation de gauche à son organisation

  • ✇Dans les algorithmes
  • L’IA, ce piège de la responsabilité
    L’IA n’augmente pas les individus, mais les rend dépendants de systèmes imparfaits, explique avec sa verve habituelle Cory Doctorow dans un très long format pour The Guardian.  « Personne n’investit des centaines de milliards dans les entreprises d’IA en pensant que l’IA rendra la radiologie plus coûteuse, même si elle la rend plus précise. Le marché qui parie sur l’IA parie sur le fait qu’un commercial ira voir le PDG de Kaiser (l’un des plus grands consortium de soins américain) et lui prés

L’IA, ce piège de la responsabilité

13 février 2026 à 07:01

L’IA n’augmente pas les individus, mais les rend dépendants de systèmes imparfaits, explique avec sa verve habituelle Cory Doctorow dans un très long format pour The Guardian

« Personne n’investit des centaines de milliards dans les entreprises d’IA en pensant que l’IA rendra la radiologie plus coûteuse, même si elle la rend plus précise. Le marché qui parie sur l’IA parie sur le fait qu’un commercial ira voir le PDG de Kaiser (l’un des plus grands consortium de soins américain) et lui présentera l’argument suivant : « Vous licenciez neuf de vos dix radiologues et économisez 20 millions de dollars par an. Vous nous versez 10 millions de dollars par an, vous empochez 10 millions de dollars par an, et le travail des radiologues restants consistera à superviser les diagnostics établis par l’IA à une vitesse surhumaine – et à rester vigilants, malgré le fait que l’IA a généralement raison, sauf en cas d’erreur catastrophique ». « Et si l’IA rate une tumeur, ce sera la faute du radiologue, car c’est lui qui est l’élément humain dans le processus. C’est sa signature qui valide le diagnostic. » 

C’est ce que Dan Davies, dans son livre The Unaccountability Machine : Why Big Systems Make Terrible Decisions (Profile Books, 2025), appelle un « piège à responsabilisation ». 

« Le rôle du radiologue n’est pas de superviser le travail de l’IA, mais d’endosser la responsabilité de ses erreurs. C’est un autre élément clé pour comprendre – et donc faire éclater – la bulle de l’IA. L’IA ne peut pas faire votre travail, mais un vendeur d’IA peut convaincre votre supérieur de vous licencier et de vous remplacer par une IA incapable de faire le même travail. »

  • ✇Dans les algorithmes
  • L’allocation de droits n’est pas un problème d’ingénierie
    « Les systèmes algorithmiques aggravent les inégalités en traitant tout écart par rapport à une norme statistique comme une preuve de risque, et en présentant ce jugement comme le résultat d’une analyse objective plutôt que comme un choix inhérent à la conception du système. Le danger de ces systèmes réside dans leur capacité à blanchir les décisions politiques par des processus techniques. En présentant l’allocation et l’application des lois comme des problèmes d’ingénierie, les institutions pe

L’allocation de droits n’est pas un problème d’ingénierie

13 février 2026 à 07:00

« Les systèmes algorithmiques aggravent les inégalités en traitant tout écart par rapport à une norme statistique comme une preuve de risque, et en présentant ce jugement comme le résultat d’une analyse objective plutôt que comme un choix inhérent à la conception du système. Le danger de ces systèmes réside dans leur capacité à blanchir les décisions politiques par des processus techniques. En présentant l’allocation et l’application des lois comme des problèmes d’ingénierie, les institutions peuvent se soustraire à l’examen moral et juridique qui accompagne habituellement les changements de politique. Pour les communautés les plus directement concernées par ces décisions, il en résulte un durcissement des inégalités sociales, imposé par une bureaucratie plus difficile à déceler, à comprendre et, surtout, à combattre. » James O’Sullivan (site).

  • ✇Dans les algorithmes
  • Des protocoles pour les agents IA… à un nouvel internet
    La prochaine version du web sera conçue pour les machines, et non pour les humains (voir notre article « L’IA, un nouvel internet… sans condition »). Mais encore faut-il que les « agents intelligents », des machines capables de lire, d’interpréter et d’agir… puissent agir justement, explique The Economist. Et pour effectuer des tâches, l’infrastructure du web doit évoluer. « Un obstacle majeur réside dans le langage : il faut permettre aux agents de communiquer avec les services en ligne et entr

Des protocoles pour les agents IA… à un nouvel internet

12 février 2026 à 07:00

La prochaine version du web sera conçue pour les machines, et non pour les humains (voir notre article « L’IA, un nouvel internet… sans condition »). Mais encore faut-il que les « agents intelligents », des machines capables de lire, d’interpréter et d’agir… puissent agir justement, explique The Economist. Et pour effectuer des tâches, l’infrastructure du web doit évoluer. « Un obstacle majeur réside dans le langage : il faut permettre aux agents de communiquer avec les services en ligne et entre eux ». Un site web ou un service en ligne communique généralement avec le monde extérieur via une interface de programmation d’application (API), qui indique aux visiteurs ses fonctionnalités, comme la prise de rendez-vous chez le médecin ou l’affichage d’une position géographique, rappelle The Economist. Or, les API sont conçues pour être consultées et implémentées par les humains et chacune possède ses propres spécificités et sa documentation. Cet environnement est complexe pour les agents d’IA : l’utilisation de chaque nouvelle API nécessite l’apprentissage de son langage spécifique. Pour agir de manière autonome sur le web, les agents auront donc besoin d’un mode de communication standardisé. C’est l’objectif du protocole MCP (Model Context Protocol), développé par Anthropic. « Mike Krieger, son directeur produit, explique que l’idée est née lors de la connexion de Claude, son chatbot, à des services comme Gmail, une plateforme de messagerie, et GitHub, un dépôt de code. Au lieu d’intégrer chaque application à Claude au cas par cas, l’entreprise souhaitait un ensemble de règles partagées pour permettre aux agents d’accéder directement aux e-mails ou aux fichiers d’un utilisateur ». Plutôt que de consulter des guides techniques, un agent peut interroger un serveur MCP sur le fonctionnement d’un système (réserver un vol, annuler un abonnement, effectuer un remboursement, etc.) et agir ensuite pour le compte de l’utilisateur, sans code spécifique.

« Imaginez que vous souhaitiez réserver un voyage de Londres à New York. Vous commencez par communiquer vos dates de voyage à une agence de voyages, qui répartit ensuite la tâche entre des agents spécialisés capables de rechercher des vols, des hôtels et des voitures. Ces agents contactent les serveurs MCP des compagnies aériennes, des hôtels et des agences de location de voitures, recueillent des informations, comparent les options et créent une liste d’itinéraires potentiels. Une fois votre option choisie, l’agent de voyages se chargera de la réservation. Je souhaite prendre un vol Londres-New York. Je dois réserver un hôtel et louer une voiture. Je préfère un siège côté couloir et un repas végétalien. Parfait ! Veuillez procéder à la réservation. Utilisateur : voici les détails de votre vol. Souhaitez-vous que je m’en occupe ? ».

Ce type de coordination nécessite donc des règles encadrant l’identification, la communication et la confiance entre les différents agents. La solution proposée par Google est le protocole A2A (agent à agent). Grâce à ce protocole, les agents peuvent présenter leurs services et se répartir les tâches. Laurie Voss, d’Arize AI, une startup d’agents de voyage, affirme que les entreprises se livrent à une véritable course pour définir les normes dominantes du web agentique. Le protocole le plus largement adopté permettra aux outils de ses contributeurs d’être plus performants, plus rapidement et avec plus de fonctionnalités.

Le 9 décembre, Anthropic, OpenAI, Google, Microsoft et d’autres ont annoncé la création de l’Agentic AI Foundation, qui développera des normes open source pour les agents d’IA. Le MCP d’Anthropic en fera partie, signe de son adoption croissante en tant que norme industrielle pour la communication agentique. Pour The Verge, Hayden Field s’enthousiasme. L’Agentic AI Foundation devrait accélérer considérablement le développement des agents. « L’ouverture des API entre applications et services web a été le fondement du Web 2.0, et par la suite, l’explosion extrêmement lucrative des applications mobiles à l’ère des boutiques d’applications. Inciter les utilisateurs (et leurs dépenses) à passer des applications et sites web aux agents d’IA est l’un des rares moyens pour les entreprises d’IA de rentabiliser leurs investissements colossaux. Or, les agents d’IA nécessitent de nouveaux types d’API, et MCP semble être la norme qui les transformera. La page web de MCP, avec une certaine ambition, le compare à l’omniprésent USB-C. » Rien de moins. « L’objectif est de créer un marché d’outils que les agents pourront utiliser ».

Pour l’instant, la majeure partie du web que ces agents parcourront reste conçue pour les humains. Trouver un produit implique toujours de naviguer dans des menus. Lors d’une recherche traditionnelle, l’utilisateur doit souvent cliquer sur des filtres, de lieu ou de type de cuisine quand vous cherchez un restaurant sur Google Maps par exemple. Pour faciliter l’accès aux sites web pour les modèles de langage, Microsoft a créé Natural Language Web (NLWeb), qui permet aux utilisateurs d’interagir avec n’importe quelle page web en langage naturel et de les augmenter d’une interaction structurée pour les agents, « afin de relier l’internet visuel moderne et celui utilisable par les agents », rappelle The Economist.

Les problèmes à venir du web agentique

« À mesure que les agents gagnent en compétences, une nouvelle compétition entre plateformes se dessine, cette fois-ci autour des agents eux-mêmes. Elle rappelle la guerre des navigateurs des années 1990, lorsque les entreprises se disputaient l’accès au web. Aujourd’hui, les navigateurs sont repensés avec les agents au cœur de leur fonctionnement. OpenAI et Perplexity ont lancé des navigateurs pilotés par des agents capables de suivre des vols, de récupérer des documents et de gérer leurs e-mails. Leurs ambitions vont plus loin. En septembre, OpenAI a permis d’effectuer des achats directs sur certains sites web depuis ChatGPT. La plateforme s’est également intégrée à des services comme Spotify et Figma, permettant aux utilisateurs d’écouter de la musique ou de modifier des designs sans changer d’application. Ces initiatives inquiètent les acteurs établis. En novembre, Amazon, le site de vente en ligne, a intenté un procès à Perplexity, accusant la start-up de violer ses conditions d’utilisation en omettant de préciser que son navigateur effectuait des achats à la place d’un utilisateur humain. Airbnb, l’application de location de courte durée, a choisi de ne pas intégrer ChatGPT, estimant que la fonctionnalité n’était pas encore « tout à fait au point ».»

Le problème, c’est que la publicité, moteur de financement d’internet, va également devoir s’adapter à ces transformations. Le web actuel repose sur la monétisation de l’attention humaine. Alphabet et Meta, deux des plus grandes entreprises technologiques, gagnent près de 500 milliards de dollars par an grâce à la publicité, soit plus de 80 % de leurs revenus. Mais qu’en sera-t-il dans un web parcouru par les agents plus que par les humains ?

« Dawn Song, informaticienne à l’Université de Californie à Berkeley, affirme que les spécialistes du marketing devront peut-être s’adresser non pas aux individus, mais à « l’attention des agents ». Les sites de voyage, par exemple, ne devront plus persuader le voyageur, mais son représentant numérique. Les tactiques resteront probablement les mêmes (optimisation du référencement, ciblage des préférences, paiement pour le placement publicitaire), mais l’audience sera constituée d’algorithmes. La navigation pilotée par des agents pourrait également considérablement accroître l’activité en ligne. Parag Agrawal, fondateur de Parallel Web Systems souligne que le web a été conçu pour des humains lisant à leur propre rythme. Les agents, eux, ne sont pas soumis à de telles limites. Ils peuvent analyser des milliers de pages en quelques secondes, suivre des liens que les humains négligent et mener de front plusieurs tâches, souvent invisibles à l’écran. Il prédit que les agents pourraient utiliser le web « des centaines, voire des milliers » de fois plus que les humains. » Au risque que ce web ci génère plus de vues, plus de coûts… mais pas plus de revenus.

« Lorsque les agents agissent, ils peuvent aussi se tromper. Un agent d’IA peut se comporter d’une manière que son utilisateur ne comprend pas pleinement. Il peut commettre des erreurs, puis inventer des explications. Plus inquiétant encore est la manipulation externe. L’injection de prompts – dissimuler des commandes malveillantes dans des pages web ou des fichiers – peut inciter les agents à divulguer des données, à contourner les contrôles de sécurité ou à entreprendre des actions non autorisées. Des mesures de protection permettent de réduire les risques. L’une d’elles consiste à limiter l’accès des agents aux services de confiance. Une autre est de leur attribuer des pouvoirs restreints. Certains pourraient être en « lecture seule », autorisés à récupérer des données mais pas à les envoyer ou à les modifier. D’autres pourraient n’agir qu’avec une confirmation humaine. Pour les tâches les plus sensibles, une intervention humaine peut s’avérer nécessaire. »

« Malgré les risques, les développeurs de logiciels restent optimistes. M. Agrawal envisage un passage d’un internet « à la demande », où les actions sont initiées par les utilisateurs, à un modèle « à l’initiative », où des agents agissent spontanément : ils organisent des réunions, signalent des recherches ou prennent en charge des tâches mineures. Ce modèle pourrait constituer les fondements d’une version nouvelle et radicalement différente du web. »

Pour le radar d’Oreilly, le développeur Andrew Stellman s’inquiète cependant de la généralisation du protocole MCP. « Un seul et même protocole simple permet de fournir à l’IA toutes sortes de données à intégrer dans son contexte »« La promesse est bien réelle : dans de nombreux cas, la connexion des sources de données aux agents IA, qui prenait auparavant des semaines, ne prend plus que quelques minutes. Mais cette rapidité a un prix. »

« Les développeurs utilisent le MCP pour connecter rapidement leurs assistants IA à toutes les sources de données possibles (bases de données clients, tickets de support, API internes, bases de données documentaires) et les déversent dans le contexte de l’IA. Et comme l’IA est suffisamment intelligente pour trier une masse de données et en extraire les informations pertinentes, tout fonctionne parfaitement ! Ce qui, paradoxalement, pose problème. L’IA traite allègrement d’énormes quantités de données et produit des réponses pertinentes, si bien que personne ne songe à remettre en question son approche. C’est ce qu’on appelle l’accumulation compulsive de données. À l’instar des personnes qui accumulent les objets sans pouvoir s’en débarrasser, jusqu’à ce que leur logement devienne invivable, cette accumulation compulsive de données peut engendrer de sérieux problèmes pour les équipes. Les développeurs apprennent qu’ils peuvent extraire bien plus de données que nécessaire à l’IA et les lui fournir sans planification ni structuration, l’IA étant suffisamment intelligente pour les traiter et fournir malgré tout de bons résultats. Lorsque la connexion d’une nouvelle source de données prend des heures au lieu de jours, de nombreux développeurs négligent de se demander quelles données sont réellement pertinentes dans leur contexte. C’est ainsi que l’on se retrouve avec des systèmes coûteux à exploiter et impossibles à déboguer, tandis qu’une génération entière de développeurs passe à côté de l’opportunité d’acquérir les compétences essentielles en architecture de données nécessaires à la création d’applications robustes et maintenables. »

Pour Stellman, MCP fait vite oublier que « trop de données » peut devenir un problème et notamment poser des problèmes d’architecture ou de débogage. Ce contexte hypertrophié, quasiment imperceptible pour vos cent premières requêtes, devient un poste de dépense important dans votre facture cloud lorsque vous gérez des millions de requêtes. Chaque champ inutile transmis à l’IA s’accumule, et vous payez pour ces données redondantes à chaque appel. L’accumulation de données présente également un risque pour la sécurité, souvent négligé par les équipes. Chaque donnée exposée via un outil MCP constitue une vulnérabilité potentielle. Si un attaquant découvre un point d’accès non protégé, il peut récupérer toutes les données fournies par l’outil.

Pire, souligne-t-il : dans un cas extrême d’accumulation de données touchant toute une entreprise, vous pourriez découvrir que chaque équipe de votre organisation construit sa propre base de données. Le support à une version des données clients, les ventes une autre, le produit une troisième. Un même client apparaît complètement différent selon l’assistant auquel on s’adresse.

Quant au spécialiste de la sécurité, Bruce Schneier, il s’alarme : MCP et les protocoles similaires multiplient les surfaces d’attaque. « Des agents d’IA dignes de confiance requièrent l’intégrité, car on ne peut bâtir des systèmes fiables sur des fondations fragiles. Les agents d’IA actuels observent Internet, s’orientent grâce aux statistiques, décident de manière probabiliste et agissent sans vérification. Nous avons construit un système qui fait confiance à tout, et nous espérons maintenant un pare-feu sémantique pour le protéger. (…) Une IA à l’échelle du web signifie une défaillance d’intégrité à l’échelle du web. Chaque fonctionnalité est susceptible de corrompre. L’intégrité n’est pas une fonctionnalité que l’on ajoute ; c’est une architecture que l’on choisit. Jusqu’à présent, nous avons construit des systèmes d’IA où « rapide » et « intelligent » excluent « sécurisé ». Nous avons privilégié les capacités à la vérification, l’accès aux données à l’échelle du web à la garantie de la confiance. Les agents d’IA seront encore plus puissants et de plus en plus autonomes. Et sans intégrité, ils seront également plus dangereux. »

Enfin, comme l’exposent Natàlia Fernandez Ashman et Marta Bienkiewicz de Cooperative AI Foundation, on peut se demander si les régulations européennes sont prêtes pour cette IA agentive. Le projet de lignes directrices et de modèle de rapport sur les incidents graves liés à l’IA qui sera ajouté à l’IA Act, se concentre sur les défaillances d’un seul agent et d’un seul événement, et suppose une causalité simpliste et univoque pour les incidents liés à l’IA. Or, certains des risques les plus graves émergent déjà des interactions entre systèmes d’IA, où de multiples événements peuvent entraîner des effets en cascade et cumulatifs. Nombre d’incidents sont émergents : ils ne découlent pas d’une défaillance d’un système (et ne sont donc pas imputables à un seul acteur), mais d’interactions à l’échelle de l’écosystème agentique.

Hubert Guillaud

Cet édito a été publié originellement dans la lettre de Café IA du 23 janvier 2026.

MAJ du 13/02/2026 : Sur son blog, Thomas Gerbaud revient également sur la folie agentique actuelle, et notamment le projet OpenClaw qui permet de créer des agents IA auto hébergés. Il souligne tout d’abord que piloter ses agents n’est pas encore très accessible à tout à chacun, mais surtout qu’en accédant aux données et applications, ils peuvent « exécuter des commandes arbitraires sur votre ordinateur », au risque d’ouvrir une magnifique collection de brèches de sécurité. « C’est strictement une machinerie conçue pour permettre à des programmes de faire des choses, comme installer d’autres programmes, à votre place. Le tout avec des droits élevés. C’est très exactement ce dont rêvent les pirates informatiques.»

  • ✇Dans les algorithmes
  • Les villes seront-elles les nouveaux régulateurs de la Tech ?
    En intégrant Lina Khan, ex-présidente de la Commission fédérale du commerce américaine dans son équipe pour développer un programme de gouvernance technologique pour la ville de New York, son nouveau maire, Zohran Mamdani, esquisse-t-il un nouveau niveau de gouvernance de la technologie : le niveau municipal ? Les collectivités locales pourraient-elles atteindre des objectifs ambitieux en matière de gouvernance technologique, s’interroge le développeur Nikhil Jain pour Tech Policy Press, rapp

Les villes seront-elles les nouveaux régulateurs de la Tech ?

11 février 2026 à 07:00

En intégrant Lina Khan, ex-présidente de la Commission fédérale du commerce américaine dans son équipe pour développer un programme de gouvernance technologique pour la ville de New York, son nouveau maire, Zohran Mamdani, esquisse-t-il un nouveau niveau de gouvernance de la technologie : le niveau municipal ?

Les collectivités locales pourraient-elles atteindre des objectifs ambitieux en matière de gouvernance technologique, s’interroge le développeur Nikhil Jain pour Tech Policy Press, rappelant que la ville de New York a été pionnière en matière de gouvernance algorithmique et que les villes ont souvent réussi à imposer des modérations spécifiques aux plateformes, par exemple en faisant supprimer les vidéos de subway surfing pour limiter la viralité du phénomène des individus courant sur le toit des métros. « Cependant, les interventions locales en matière de modération du contenu des plateformes sont rarement applicables. Si les villes peuvent réglementer les plateformes de l’économie collaborative comme Uber, Airbnb et DoorDash par le biais de mécanismes juridiques locaux, tels que les règles d’urbanisme, de location, ou en dictant les conditions d’embauches locales, elles se heurtent à des obstacles pour encadrer la liberté d’expression, en l’occurrence le contenu généré par les utilisateurs, sur l’ensemble des plateformes. L’article 230 du Communications Decency Act protège les plateformes comme TikTok et Instagram de toute responsabilité concernant la plupart des contenus tiers, ce qui rend extrêmement difficile l’engagement de poursuites judiciaires par les États et les collectivités locales. Même si une action en justice parvenait à lever cette immunité, les géants du numérique disposent d’importantes équipes juridiques dotées de ressources considérables et d’une expertise pointue en droit de la liberté d’expression, surpassant largement les capacités et le budget des services juridiques des collectivités locales, dont beaucoup sont généralement spécialisés dans des domaines juridiques locaux. » Outre les obstacles juridiques, l’intervention des pouvoirs publics dans le contenu en ligne peut également porter atteinte aux libertés individuelles, notamment en demandant des suppressions de contenus difficiles à motiver. 

Faut-il pour autant que les villes obtiennent un protocole d’intervention spécifique sur les contenus permettant de rendre la responsabilité plus réactive ? Les villes peuvent également élaborer des lois locales qui serviront de modèles pour la gouvernance technologique en général (comme la législation de la ville de New York sur l’audit des algorithmes à usage public et des outils automatisés de décision en matière d’emploi – voir notre analyse sur ce sujet). Reste à savoir si ce modèle est généralisable à d’autres que quelques capitales et mégapoles ? New York possède une expertise et un poids économique et politique qui lui permet d’imposer des règles aux plateformes ou d’influer sur des décisions… Mais en sera-t-il de même avec des villes moins puissantes et bien plus petites ? Le risque de cette piste n’est-il pas de renforcer une gouvernance où seuls les plus forts s’imposent ? Pas sûr que cette solution soit le remède dont nous ayons besoin pour lutter justement contre la puissance des plateformes.

  • ✇Dans les algorithmes
  • Avec l’IA, à quoi ressembleront les logiciels de demain ? 
    « Depuis le début de l’informatique, le logiciel a été quelque chose que les gens consomment, mais ne créent pas. (…) La création de logiciels était l’apanage de professionnels qualifiés comme moi. L’IA est en train de changer la donne. Aujourd’hui, elle devient plus accessible à toute personne ayant un profil proche de la programmation (par exemple, un universitaire qui développe ses propres outils, un créatif qui expérimente avec le code, un expert qui souhaite s’essayer à la création d’une so

Avec l’IA, à quoi ressembleront les logiciels de demain ? 

10 février 2026 à 07:00

« Depuis le début de l’informatique, le logiciel a été quelque chose que les gens consomment, mais ne créent pas. (…) La création de logiciels était l’apanage de professionnels qualifiés comme moi. L’IA est en train de changer la donne. Aujourd’hui, elle devient plus accessible à toute personne ayant un profil proche de la programmation (par exemple, un universitaire qui développe ses propres outils, un créatif qui expérimente avec le code, un expert qui souhaite s’essayer à la création d’une solution). Bientôt, nous serons plus nombreux à pouvoir créer nos propres micro-outils, non pas en tant que programmeurs, mais simplement en tant que personnes ayant des idées ou des problèmes à résoudre. » 

Sur Medium, Fabien Girardin explore la piste de ce qu’il appelle le « logiciel personnel » en passe d’être révolutionné par l’IA. Le logiciel personnel n’est pas un concept nouveau. Ce sont des solutions développées par des individus, comme des petits jeux, des petits outils, issus de la scène indépendante. Par exemple, NetNewsWire, un lecteur de flux RSS pour Mac imaginé par Brent Simmons en 2003 pour quelques amis. A l’aube de l’ère de l’ordinateur personnel, Ivan Illich parlait de convivialité, pour désigner le fait que les individus pouvaient façonner leur propre environnement technologique avec autonomie et créativité. C’est ce qu’incarnent ces micrologiciels personnels. Ils naissent souvent d’une relation personnelle (la demande d’un ami, la frustration d’un collègue…) ou en établit une, à l’image de Rumbo un outil pour transformer les données d’un parcours GPS en animation vidéo que Girardin a développé en 2019 pour un ami. Les logiciels personnels viennent répondre à un besoin immédiat. Ils ne sont pas conçus pour un marché. Ils ne résolvent le plus souvent  qu’un problème spécifique. « Un logiciel personnel est finalisé dès lors qu’il fonctionne pour son créateur. Il n’a pas besoin d’être mis à l’échelle, intégré ou transformé en produit. Ce n’est ni un produit minimum viable en attente d’investisseurs, ni une démonstration de capacités techniques, ni une preuve de concept en attente de validation. Il est prêt lorsqu’il est pertinent. Sa pérennité repose sur une utilisation continue, et non sur une maintenance planifiée ou des versions futures. » Enfin, « un logiciel personnel est conçu pour être utilisé par un groupe spécifique, et non par un ensemble générique d’utilisateurs. Il privilégie la spécificité à l’universalité, l’intimité à l’échelle, l’immédiateté à l’évolutivité. » 

« Le logiciel personnel n’a pas besoin de se transformer. Il peut continuer à s’adapter, ou disparaître lorsque le besoin s’estompe. Mais lorsque des pressions apparaissent, telles que les exigences d’intégration, l’augmentation du nombre d’utilisateurs ou le besoin de contributeurs, il peut migrer vers des modèles spécialisés, commerciaux ou open source. »

« Ce qui caractérise le logiciel personnel, c’est la proximité : il est créé par des personnes qui comprennent le problème plus profondément que la technologie sous-jacente permettant de le résoudre. Pour cette seule raison, il est essentiel d’élargir le cercle des personnes pouvant créer des logiciels. » Et c’est là que le propos de Girardin devient plus politique. 

Il rappelle qu’en 1972, alors que les ordinateurs étaient des mainframes réservées à quelques individus, l’informaticien Alan Kay imaginait les ordinateurs personnels comme des outils que chacun pourrait programmer. Depuis, avec l’avènement de l’ordinateur personnel, de nombreuses approches ont cherché à démocratiser la création de logiciels : langages simplifiés, systèmes WYSIWYG, applications hybrides et macros pour faire augmenter les tableurs, pour n’en citer que quelques-unes. La révolution mobile nous a permis de nous rapprocher de la vision d’Alan Kay. Bien qu’il soit impossible de le quantifier précisément, des dizaines de milliers d’applications sur l’App Store sont créées par une ou deux personnes, généralement pour un public restreint. Par exemple, le romancier Robin Sloan a créé BoopSnoop, une application de messagerie pour sa famille de quatre personnes. Elle permet de prendre des photos et des vidéos, de les envoyer sans modification, et les messages disparaissent après consultation. Pendant des années, elle a conservé quatre utilisateurs actifs quotidiens sans aucun désabonnement, un succès retentissant selon son créateur. L’essai de Sloan sur le projet a popularisé l’expression « logiciel fait maison » : un logiciel conçu comme un repas, pour les personnes que l’on aime, sans obligation de mise à l’échelle. 

L’IA sera-t-elle utilisée pour la conception de logiciels artisanaux ou industriels ? 

En 2023, Andrej Karpathy, cofondateur d’OpenAI, affirmait avec force : « le langage de programmation le plus en vogue est l’anglais ». Cette déclaration a marqué un tournant dans le développement logiciel, permettant aux grands modèles de langage de lier efficacement le langage naturel au code fonctionnel. Les assistants de codage IA et le codage agentiel basés sur les LLM (comme Cursor, Floot, Claude Code, Replit, Agent Builder d’OpenAI…) exploitent de nombreux référentiels de code et de conversations pour générer du code à partir du langage naturel. Ils utilisent également des bibliothèques et des frameworks, open source et propriétaires, pour automatiser la production de logiciels. Et les démonstrations d’utilisation d’agents et de systèmes d’IA complexes fascinent et inspirent les développeurs, à l’image de celle déployée par Boris Cherny, le développeur de Claude, et relatée par VentureBeat

Le développeur Chris Loy qualifie cette évolution d’avènement du logiciel industriel, mais dans un sens finalement assez opposé à la vision que propose Girardin. Pour Loy, avec l’IA, le développement logiciel s’éloigne de l’artisanat qu’il a toujours été, pour adopter des méthodes industrielles, moins onéreuses, plus rapides, indépendantes de l’expertise humaine, même si ces solutions sont largement imparfaites. Le développeur devient un superviseur qui contrôle la qualité du code produit par les systèmes d’IA. Ce qui a pour effet que les barrières à l’entrée diminuent, que la concurrence s’intensifie et que le rythme du changement s’accélère. Cette industrialisation nouvelle facilite la production à grande échelle de produits de faible qualité et à bas coût. Pour Loy, le risque est de produire du « logiciel jetable » : des logiciels créés sans perspective de propriété, de maintenance ou de compréhension à long terme,… comme l’industrialisation de l’agriculture a engendré la malbouffe ultra-transformée. Pour Loy, il est probable que la baisse des coûts de production logiciels entraîne une augmentation de la consommation et de la production. L’IA va faire exploser une production logicielle de basse qualité. Cela ne signifie pas que les produits logiciels sains et durables, maîtrisés, « organiques » vont disparaître… Mais plutôt de savoir quelle sera la place des logiciels écrits par l’homme… « Le logiciel s’industrialise depuis longtemps : grâce aux composants réutilisables (code open source), à ​​la portabilité (conteneurisation, cloud), à la démocratisation (outils low-code/no-code), à ​​l’interopérabilité (normes API, protocoles d’agentification) et à bien d’autres mécanismes ». Nous entrons donc dans une révolution industrielle du logiciel, non pas comme une rupture, mais comme une accélération considérable. « Les écosystèmes logiciels ne font pas exception : chaînes de dépendances, charges de maintenance, failles de sécurité qui s’accumulent à mesure que la production augmente. La dette technique est la pollution du monde numérique, invisible jusqu’à ce qu’elle étouffe les systèmes qui en dépendent. À l’ère de l’automatisation de masse, le problème le plus complexe pourrait bien être la gestion, et non la production. Qui assure la maintenance des logiciels qui n’appartiennent à personne ? » Chris Loy décrivait exactement les inquiétudes qui pointent sous le développement des protocoles d’agentification que j’évoquais dans une récente newsletter de CaféIA.

DIY 2.0 ?

L’émergence des LLM a profondément transformé le paysage logiciel, rappelle également Girardin, et notamment les pratiques des programmeurs professionnels, qui les utilisent largement pour produire du code. Pas seulement. D’innombrables tutoriels en ligne, discussions sur les forums et vidéos YouTube apprennent aux non-professionnels à créer des logiciels avec des modèles à faible code. Par exemple, inspiré par les démonstrations d’OpenAI lors du lancement de GPT-5, le vulgarisateur technologique Azeem Azhar a décrit dans sa newsletter Exponential View comment son équipe, sans connaissances spécialisées, avait créé une application d’apprentissage du coréen. De même, le journaliste technologique Kevin Roose, qui ne programme pas, a créé une alternative à son application de lecture différée préférée en moins de trois heures. Ce phénomène se répète partout sur les réseaux sociaux, constate Girardin. Designers, chefs de produit et universitaires partagent leurs petites applications. Ensemble, ils explorent un vaste champ de nouvelles possibilités, démontrant comment créer des logiciels sans formation formelle. 

Girardin tente de dresser une petite typologie des logiciels personnels, qui vont de simples plug-in, à des petites applications de navigateurs, en passant par des applications spécifiques pour relier deux logiciels entre eux à des assistants en passant par des applications plus complexes. Parmi les exemples que Girardin cite, il distingue notamment Flow, l’outil imaginé par le designer Etienne Mineur, un générateur de création, façonné par la pratique d’une seule personne et les possibilités de l’IA, et non par le marché. « Un outil conçu par une seule personne, qui aurait nécessité une équipe pour être développé il y a quelques années ».

« Contrairement aux modèles commerciaux traditionnels, les logiciels personnels génèrent rarement des revenus directs au-delà de la simple couverture de leurs coûts. Leur valeur réside ailleurs ». Face à des outils trop génériques, trop chers ou trop complexes ou inexistants, ils visent à répondre à des besoins spécifiques, situés, limités. Dans l’esprit du mouvement Do it yourself (DIY), les logiciels personnels ne sont pas là pour être cohérents. Leur succès se mesure plutôt à l’autonomisation des utilisateurs qu’ils permettent. Leur code source a peu de valeur transférable. Certains évoluent vers des formes commerciales ou open source, mais ce n’est certainement pas la majorité. En fait, leur incomplétude, leur bricolage est un atout. « Dans son essai de 1989, Le pire est le mieux, l’informaticien Richard P. Gabriel observait que les systèmes conçus avec une simplicité pratique sont souvent mieux adoptés que les systèmes parfaits et riches en fonctionnalités. L’imperfection ouvre des perspectives : proposer un produit que d’autres savent améliorer est l’un des meilleurs moyens de favoriser la collaboration. » 

Les logiciels personnels sont souvent conçus par une seule personne, pour elle-même, voir quelques proches. Ils n’ont pas à gérer de cas particuliers et peuvent gérer leur imperfection. Alors que les logiciels commerciaux tirent profit d’une base d’utilisateurs, « les logiciels personnels créent de la valeur au sein d’un groupe. La distinction est importante : l’un se développe en acquérant des clients, l’autre se renforce en cultivant des relations. » 

« L’industrie du logiciel mesure le succès à l’aune de l’échelle : nombre d’utilisateurs, chiffre d’affaires, croissance. Cette quête incessante de croissance a engendré des systèmes qui répondent à leur propre logique plutôt qu’aux besoins de leurs utilisateurs. Les outils que nous utilisons quotidiennement sont conçus par des équipes distantes, optimisant leurs performances pour des marchés auxquels nous appartenons. Le logiciel personnel inverse cette relation et les critères de succès : il est construit par les personnes qu’il sert, suffisamment simple pour être compris, suffisamment proche pour être contrôlé, et suffisamment performant pour s’intégrer parfaitement. »

« La barrière à la création de logiciels s’est abaissée, mais elle n’a pas disparu : même avec l’aide de l’IA, les systèmes exigent toujours une certaine aisance avec l’abstraction. Les LLM élargissent le cercle des développeurs, sans pour autant le faire disparaître complètement. Il est plus facile de lancer des projets, mais leur intégration requiert toujours des compétences et une expertise. » Ce que les LLM ne savent pas encore faire. 

Qui l’emportera : les startups de l’IA ou les fournisseurs de modèles ?

The Economist pose le problème sous un autre angle. La plupart des startups de l’IA utilisent les modèles fournis par les géants de l’IA. Mais ces startups pourront-elles survivre à mesure que les géants de la Tech déploient non seulement leurs modèles, mais également des applications et des solutions dédiées ? Et ce alors que les géants de l’IA ont tendance à augmenter les tarifs des services qu’utilisent les startups… Dans le domaine du codage par exemple, Anthropic et OpenAI ont tous deux développé des outils de codage qui rivalisent, avec quelques nuances, avec des solutions comme Cursor. Les startups de l’IA estiment que les entreprises vont avoir besoin d’IA spécialisées, adaptées à leur processus métiers, ce qui leur donnerait un avantage concurrentiel. Pour combien de temps ? 

Pour assurer leur pérennité, les développeurs d’applications expérimentent de nouveaux modèles de revenus. Ils reconnaissent que, contrairement aux précédentes vagues de développement logiciel, plus ils grandissent et plus ils utilisent les LLM, plus leurs coûts marginaux augmentent. Pour compenser cette hausse des coûts, ils ont besoin de nouvelles techniques. L’une d’elles consiste à utiliser une variété de modèles, y compris des modèles open source, afin d’acheminer les requêtes les plus simples vers les serveurs où le traitement est le moins coûteux. Une autre consiste à facturer les clients en fonction des résultats obtenus, plutôt qu’à l’utilisation. Harvey, une solution d’IA pour les cabinets d’avocats, peut se permettre d’opter pour les modèles les plus performants, car les cabinets d’avocats sont prêts à payer pour une précision optimale. De plus, les développeurs d’applications affirment que plus leur activité se prolonge, plus leurs agents accumuleront de données spécialisées, améliorant ainsi leurs performances – un peu comme les voitures autonomes gagnent en fiabilité au fil des kilomètres parcourus. Cela devrait fidéliser davantage les clients et créer un avantage concurrentiel. 

Autrement dit, la perspective de centralisation par les géants de l’IA n’est pas certaine. La faible différence entre les modèles, la facilité avec laquelle les startups qui déploient des solutions spécialisées peuvent passer d’un fournisseur de modèles à un autre (voir en utiliser plusieurs), exposent également les fournisseurs de modèles au risque de banalisation de leurs services généraux. HSBC estime par exemple que d’ici 2030, les géants de l’IA ne pourraient ne détenir que 30% du marché mondial des services informatiques enrichis par l’IA, estimé à 1 300 milliards de dollars. Le reste appartiendrait aux éditeurs de logiciels utilisant leurs plateformes.

  • ✇Dans les algorithmes
  • ChatGPT, une solution pandémique ?
    Dans sa newsletter, l’excellent Eryk Salvaggio tente une courte histoire de ChatGPT.  « ChatGPT a modifié la relation de l’utilisateur au texte, faisant passer l’invite d’un « texte que le modèle doit terminer » à une « question appelant une réponse ».» Mais c’est surtout son succès, quand OpenAI a affirmé que ChatGPT avait conquis 100 millions d’utilisateurs en deux mois, signant ainsi l’une des adoptions logicielles les plus rapides de l’histoire, que s’est installé une sorte d’euphorie, bo

ChatGPT, une solution pandémique ?

9 février 2026 à 07:00

Dans sa newsletter, l’excellent Eryk Salvaggio tente une courte histoire de ChatGPT

« ChatGPT a modifié la relation de l’utilisateur au texte, faisant passer l’invite d’un « texte que le modèle doit terminer » à une « question appelant une réponse ».» Mais c’est surtout son succès, quand OpenAI a affirmé que ChatGPT avait conquis 100 millions d’utilisateurs en deux mois, signant ainsi l’une des adoptions logicielles les plus rapides de l’histoire, que s’est installé une sorte d’euphorie, bouleversant l’orientation de toute l’industrie technologique. Toute l’industrie, d’Alphabet à Meta, a alors changé de braquet. « Le succès mondial de ChatGPT suggère que ces modèles n’avaient pas besoin d’être intelligents pour trouver des utilisateurs ; il leur suffisait de simuler une expérience sociale ». En novembre 2022, le monde sortait de l’expérience sociale improvisée du Covid, rappelle Salvaggio. L’isolement social, fragmenté et continu, était toujours en vigueur, le port du masque était courant, et nous avions connu un faux départ vers un retour à la normale cet été-là, avant d’être confrontés à une nouvelle vague épidémique meurtrière. « Les entreprises technologiques sont devenues, par accident, une infrastructure essentielle : Zoom a remplacé l’école, DoorDash les supermarchés, Animal Crossing les bars et Netflix les cinémas. Aucune de ces solutions n’a pu compenser, même de loin, la déconstruction soudaine du monde social qui constitue le fondement de notre quotidien ». 

« Il est possible que les chatbots constituent l’une des transformations durables de notre vie sociale induites par la pandémie. Le fait de considérer les grands modèles de langage comme intelligents risque de nous empêcher de voir comment la plupart des utilisateurs les perçoivent réellement : comme des outils sociaux », c’est-à-dire comme des substituts aux médias sociaux. Sur les 800 millions d’utilisateurs de ChatGPT, 72 millions de personnes utilisent ChatGPT pour l’interaction sociale et 200 millions d’autres pour le réconfort émotionnel, rappelle Salvaggio. « Si ChatGPT était apparu six ans plus tôt, dans un contexte social différent ? Aurait-il été optimisé pour d’autres cas d’utilisation ? Il ne faut pas surestimer la pandémie comme seul facteur expliquant la définition de l’IA, mais il ne faut pas non plus l’ignorer. (…) Les entreprises ont exploité nos besoins les plus fondamentaux à ce moment historique et ont optimisé les machines pour y répondre, amorçant ainsi un cercle vertueux qui continue de façonner le monde.» « ChatGPT a émergé à une époque où la solitude apparaissait comme une nécessité vitale ». « ChatGPT est apparu dans un monde où la proximité avec autrui était corrélée au risque de mort, où la connexion en ligne était minée par une polarisation politique hostile, où tout était déstabilisé d’une manière que les mots ne pouvaient exprimer. » 

« Face à l’incapacité des mots à décrire nos expériences, ChatGPT pouvait implacablement masquer l’incapacité des mots à décrire nos propres angoisses. Ses flots de conversation textuelle correspondaient aux limites de notre attention anxieuse. Il changeait de ton dès que nous nous ennuyions, et nous n’avions aucune obligation de nous excuser. Il approuvait systématiquement nos positions. Dans nos moments de faiblesse cognitive, il pouvait nous concocter une liste de tâches minimale et plausible pour nous permettre de survivre à la journée. » 

« ChatGPT est comme une chaîne stéréo poussée à l’extrême, une musique de fond pour couvrir le silence : un brouhaha saturé, mais la clarté n’est pas le but. Le but est de créer un petit espace où l’on n’a pas besoin de réfléchir ». Et c’est assurément ce qu’il accomplit le mieux. 

  • ✇Dans les algorithmes
  • La productivité de l’IA au travail est toujours incertaine
    La confiance des dirigeants d’entreprise dans le potentiel de l’IA pour accroître la productivité est mise à rude épreuve par leurs propres employés, rapporte le Wall Street Journal. Alors que les entreprises investissent fortement dans l’IA, les employés « affirment que l’IA ne leur permet pas, pour l’instant, de gagner beaucoup de temps au quotidien, et nombreux sont ceux qui se disent dépassés par la complexité de son intégration à leurs fonctions ». Pire encore, explique la journaliste Linds

La productivité de l’IA au travail est toujours incertaine

6 février 2026 à 07:00

La confiance des dirigeants d’entreprise dans le potentiel de l’IA pour accroître la productivité est mise à rude épreuve par leurs propres employés, rapporte le Wall Street Journal. Alors que les entreprises investissent fortement dans l’IA, les employés « affirment que l’IA ne leur permet pas, pour l’instant, de gagner beaucoup de temps au quotidien, et nombreux sont ceux qui se disent dépassés par la complexité de son intégration à leurs fonctions ». Pire encore, explique la journaliste Lindsay Ellis, le fossé entre l’expérience réelle des cadres supérieurs et celle des employés en matière d’IA générative est considérable. « Deux tiers des employés non cadres ont déclaré avoir gagné moins de deux heures par semaine, voire aucune, grâce à l’IA. À l’inverse, plus de 40 % des cadres ont affirmé que cette technologie leur avait permis d’économiser plus de huit heures de travail hebdomadaires.» Enfin, la plupart des employés déclarent les utiliser pour des tâches basiques, pour générer des brouillons ou remplacer les moteurs de recherche, mais bien peu d’employés les utilisent pour des tâches plus complexes comme l’analyse de données ou la génération de code. Enfin, ceux qui déclarent gagner du temps grâce à l’IA reconnaissent qu’une grande partie de ce temps est absorbée par la correction des erreurs et la refonte du contenu généré par l’IA.

Dans une tribune pour Tech Policy Press, la sociologue Diana Enriquez dresse le même constat. Dans un marché du travail atone, les cadres intermédiaires sont de plus en plus contraints de « feindre la réussite en matière d’IA ». Alors qu’ils sont eux-mêmes de plus en plus souvent gérés par des systèmes automatisés, on leur demande aussi de plus en plus de justifier l’engouement suscité par l’IA. Ils sont mis sous pression par la direction pour adopter une vision« optimiste de l’IA (…) qui les oblige à maintenir l’illusion d’un déploiement de l’IA couronné de succès ». Il en résulte une augmentation de l’anxiété, de l’épuisement professionnel et une baisse de la productivité, au lieu d’une amélioration. Dans le monde des plateformes que la sociologue a étudié, on constatait déjà la tension entre la rigidité et l’inexactitude fréquentes des instructions fournies par les outils automatiques par rapport à la complexité du réel, par exemple en leur intimant de suivre un itinéraire sans tenir compte de sa disponibilité. « Dans ces environnements de travail, les personnes sont perçues comme des problèmes à résoudre et l’automatisation est considérée comme correcte en raison de sa rationalité supposée ». Pour la sociologue, les cadres intermédiaires subissent une pression croissante pour se familiariser avec l’IA et démontrer une utilisation quotidienne, même lorsqu’elle ne leur est pas utile, ni à eux ni à leurs équipes.

Mêmes constats pour les chercheurs de SciencePo, Gabriel Alcaras et Donato Ricci dans une étude pour le programme de recherche Ecologies of LLM Practices du Medialab, qui s’interroge justement sur les pratiques professionnelles situées, dans leur environnement. Que font les LLM au travail ? « Ils n’automatisent ni n’augmentent les tâches de manière directe », répondent les chercheurs de SciencesPo. Pour eux, leur intégration nécessite un « travail de configuration » important pour adapter un système générique à une tâche spécifique. Ce travail de configuration nécessite de discrétiser leur activité, c’est-à-dire de la décomposer en unités traitables par le système. Ensuite, l’utilisation du LLM génère une surcharge de travail qui perturbe les routines, comme de devoir évaluer les réponses et les corriger. C’est peu à peu que les utilisateurs adaptent leurs pratiques à la rigidité des systèmes et leur trouve une place au sein de leurs pratiques. Mais à mesure que les chatbots absorbent certaines tâches, ils transforment le travail et l’orientent vers la manipulation des résultats et éloignent ceux qui les utilisent du sentiment d’accomplissement. Bref, là encore l’adaptation de l’IA au travail n’est pas si simple.

MAJ du 09/02/2026 : Une étude d’Anthropic auprès de 52 jeunes ingénieurs logiciels invités à accomplir des tâches de code avec l’IA a montré que ceux-ci étaient certes « accélérés » par l’utilisation de l’IA, mais que son usage se faisait au détriment de l’amélioration des compétences et de la maîtrise de nouveaux savoir-faire. Sans surprise, là encore, la façon dont les étudiants ont utilisé l’IA n’a pas les mêmes effets. Ceux qui l’utilisent pour poser des questions pour expliquer le code pendant sa génération ou qui posent des questions conceptuelles, plutôt que de faire travailler l’IA à leur place, ont une meilleure mémorisation des problèmes que les autres, explique PCMag. Qui pointe également vers une étude menée par les chercheurs du laboratoire Metr, qui montrait que l’IA ralentissait en réalité les programmeurs qui l’utilisaient : le temps passé à interagir avec elle étant égal, voire supérieur, au temps gagné grâce à son assistance.

  • ✇Dans les algorithmes
  • Internet, la dissonance à portée de main
    « Il y a eu un moment où finir internet semblait presque un objectif atteignable ».  L’historienne de l’art italienne et curatrice, Valentina Tanni signe Vibes Lore Core : esthétique de l’évasion numérique (Audimat édition, 2025), traduction d’un essai paru en anglais en 2023, sous le titre Exit Reality, et nous offre une plongée très documentée dans le « fourmillement du monde » d’internet et plus particulièrement dans les productions culturelles et esthétiques natives du réseau.  Si les

Internet, la dissonance à portée de main

5 février 2026 à 07:00

« Il y a eu un moment où finir internet semblait presque un objectif atteignable ». 

L’historienne de l’art italienne et curatrice, Valentina Tanni signe Vibes Lore Core : esthétique de l’évasion numérique (Audimat édition, 2025), traduction d’un essai paru en anglais en 2023, sous le titre Exit Reality, et nous offre une plongée très documentée dans le « fourmillement du monde » d’internet et plus particulièrement dans les productions culturelles et esthétiques natives du réseau. 

Si les systèmes de recommandation ont eu tendance à homogénéiser la culture en réseau, les sous-cultures y ont également explosé, rappelait-elle dans une interview pour Le Monde. Et ce sont elles sur lesquelles l’historienne pose son regard. Les esthétiques collaboratives nées sur internet ne sont pas à la périphérie de l’art contemporain, mais en son centre, défend-t-elle. « Elles constituent les symptômes les plus fiables du climat culturel qui nous entoure car elles naissent d’une élaboration collective impliquant des millions de personnes ». Son enquête sur des phénomènes créatifs, massifs et insaisissables à la fois, intriqués les uns aux autres, toujours mutants, est une réflexion assez puissante sur ce qu’internet nous fait, sur ce que notre consultation de cet outre-monde produit en chacun de nous. A savoir, un trouble, une dissonance, liée à l’écart entre la réalité et cette autre réalité que nous habitons également.

Dans cette exploration des expressions artistiques les plus étranges de la culture web, allant des mèmes les plus weird à l’ASMR, en passant par la passion pour les espaces liminaux ou les fans-fictions artistiques… Derrière ces esthétiques abandonnées et toujours renouvelées, derrière ces sons que personne ne semble avoir produit, ces images qui se répètent et se transforment, Valentina Tanni explore une forme de surréalisme de masse et derrière lui, le trouble de la réalité qu’internet produit sur chacun d’entre nous. Autant de phénomènes qui témoignent de la perception altérée du monde numérique par ceux qui l’habitent, de sa pesante étrangeté. Le réseau n’est pas seulement le support de ces phénomènes culturels, mais est également « ce qui nourrit ces cultures et les rend possibles ». Ces subcultures d’apparences superficielles semblent des réponses ironiques à l’hypercapitalisme que produit notre connexion au web, une forme de surréalisme de l’ère numérique, une forme d’expression inconsciente d’une mémoire collective en train de se construire et de se dissoudre à la fois. Entre des souvenirs d’un futur qui n’a pas eu lieu et  la nostalgie de futurs passés toujours recomposés. Internet est devenu la porte de notre rapport au monde, dans lequel chacun projette les ruines de la réalité dans un internet qui incarne l’avenir depuis bien trop longtemps. Dans les sous-cultures du web, l’optimisme semble avoir été mis au rebut, expliquait l’artiste Svetlana Boym dans The Future of Nostalgia (2001) : « L’espace idéal de la nostalgie n’est pas la mémoire, mais l’imagination ». Les souvenirs, fragmentaires et instables que nous partageons, sont le point de départ d’une ré-élaboration créative et continue. « Dans l’imaginaire vaporwave, la basse résolution, le glitch et l’interférence » sont les composantes d’un travail sur la mémoire qui se délite à son tour, comme derrière la fragilité de la techno, dans l’archéologie du réseau lui-même, se superposent des couches de mémorisation, les unes sur les autres, qu’il suffirait de mettre à jour. Les productions fantasmatiques des utilisateurs cherchent à exploiter l’état hypnagogique, entre la veille et le sommeil, un territoire liminal, aux marges de la conscience. Dans les esthétiques du réseau, tout tourne autour de « réalités altérées » où irréalité, surréalité, déréalisation sont la norme. Les esthétiques auxquelles s’intéresse Tanni finissent par n’être que des humeurs, des atmosphères, des vibrations, des sensations… comme si l’essence de tout ce qu’on partage via le réseau des réseaux n’avait pas d’autres impacts qu’émotionnels. Piégés dans un gigantesque centre commercial entourés de formes infinies de divertissement, ce que la culture internet produit semble au final n’être qu’une simulation sensorielle. Comme si, en fin de compte, notre immersion dans internet infusait en chacun d’entre nous un même état d’esprit, une même vision du monde, un même épuisement. Comme si les expressions esthétiques produites par le réseau ne menaient qu’aux mêmes désillusions, d’une nostalgie l’autre. Comme si ce monde dans lequel on s’immerge ne finissait par produire qu’une nostalgie de l’avoir toujours laissé passé. On pense aux fils sans fin des réseaux sociaux, à leurs évolutions, à leurs répétitions, même si les formes expressives évoluent. Comme si des premiers mèmes aux flux de vidéos sous IA, quelque chose se répétait inlassablement… dans l’épuisement qu’il produit sur chacun d’entre nous. 

Un internet des sensations

Pour Valentina Tanni, ces expressions culturelles sont d’abord un moyen de produire des sensations, des émotions. Ce sont elles qui parcourent les réseaux et nous marquent. A l’image de l’AMSR, qui vise à produire en chacun d’entre nous des frissons. L’acronyme inventé en 2010 par Jennifer Allen signifie Autonomous Sensory Meridian Response (Réponse autonome du méridien sensoriel). Mais derrière son semblant de nom savant, il ne décrit rien d’autre qu’une pratique totalement empirique où les sons chuchotés sont censés déclencher un plaisir sensoriel, stimulant, relaxant. Né encore une fois comme un phénomène de niche, l’ASMR est devenu un pilier de la culture internet. Mais plus qu’un plaisir sensoriel, l’ASMR crée d’abord une sensation d’intimité, de chaleur humaine, de coprésence physique dans un monde qui en est dépourvu. Là encore, la culture ASMR naît et se développe entièrement sur internet. Apparu en 2007, c’est dix ans plus tard qu’elle apparaît dans la communication commerciale des marques, marquant sa généralisation, comme l’explique la chercheuse Joanna Lapinska, qui voit dans le phénomène l’expression de l’importance accrue accordée au corps et aux sensations dans la culture occidentale, « éléments clés de l’expérience individuelle de la réalité ». Même constat pour l’artiste et curatrice Ariane Koek dans son essai « Ouf of our Minds », pour le catalogue de l’exposition Real Feelings : emotion and technology (CMV, 2020) : « Les sentiments et non les faits sont la nouvelle vérité ». Les sensations restent incontestables. Et face à la dépression d’un monde qui s’effondre tout autour de nous, l’enjeu risque d’être bien plus de les intensifier que le contraire. Tout comme les ASMR sont des impulsions à recevoir, la technologie devient un moyen pour la stimulation. L’écosystème informationnel ne génère pas une plus grande connaissance du monde extérieur, au contraire, elle déclenche un mouvement vertigineux vers l’intériorité. « Si le monde devient inconnaissable, la réalité chaque jour plus instable et la vérité une utopie à abandonner, la seule voie praticable est celle de l’auto-exploration », explique Valentina Tanni. Nombre des mèmes culturels  qui parcourent le réseau sont autant d’instruments pour stimuler ses sensations dans un monde anesthésié par les écrans. L’immersion sensorielle devient le levier pour agir sur ses émotions. Tout est bon pour créer des formes d’hyperstimulation, des phénomènes de flow, comme disait Mihaly Csikszentmihalyi

Sur l’internet, disait Kenneth Goldsmith dans Wasting time on the internet (Harper, 2016, non traduit), nous sommes plongés dans un nouvel inconscient collectif. La distraction est devenu notre état permanent. Le réseau nous transporte vers un nouveau soi, « amplifié, augmenté, hypersensible ». La vibe, l’humeur, l’énergie… sont les mots d’ordre de la contre-culture. Comme le pointait Erik Davis, dans son livre Techgnosis : Myth, Magic, & Mysticism in the Age of Information (1998) notre rapport à la technologie a toujours été imprégné de pensée magique. Ces « vibrations », humeurs et énergies se diffusent de manière mémétique. Elles résonnent dans les mailles du réseau. Et plus le stimulus de départ est fort, plus la résonance sera grande. L’enjeu n’est plus autre que de faire vibrer le réseau lui-même dans une même communion, à l’image de ces vidéos qui deviennent virales et que tout le monde copie, remixe, adapte. « Les vibes glissent les unes sur les autres. L’énergie est en constante mutation ».

Valentina Tanni n’a pas son pareil pour pointer vers ces mèmes qu’elle dissèque. Elle évoque par exemple les Backrooms, les pièces de derrière et avec elles, les histoires étranges qui percent sur l’internet, comme celles que racontait Nicolas Nova dans Persistance du merveilleux. Les Slender Men comme les Backrooms par exemple se répandent sur l’internet d’un forum l’autre. « La narration ouverte et modifiable permet à chacun de contribuer » pour faire vivre les histoires qui parcourent le réseau. Les légendes d’internet, son folklore qui se déverse et s’abreuve de ses propres dynamiques, se nourrisent des anomalies et des bugs du réseau pour produire du sens sur ce qui n’en a pas toujours. Ces jeux de réalités se jouent de nous. La réalité contiendrait des trous, comme notre conscience qui se déconnecte dans le flow. Pour Tanni, ces « narrations infestantes », ce folklore, ce lore, exploite les sous-cultures et contre-cultures, les reconstruit, les agence, tente d’en produire des narrations cohérentes… Le lore est un modèle de connaissance permettant d’interfacer la réalité et la fiction, de structurer la fiction comme si elle était réelle, rappelaient ceux qui se sont penchés sur le phénomène. En retour, ces univers interrogent la réalité, ce que nous appelons la réalité qui est « aujourd’hui la fantaisie créée par les médias de masse ». « L’expansion narrative des utilisateurs est un mécanisme infestant qui s’attache à n’importe quelle histoire et la transforme en un système ramifié en expansion continue, désordonnée ». Et que l’on retrouve des fans fictions aux délires paranormaux ou complotistes comme les recense par exemple la Fondation SCP. Les troubles dans la toile alimentent les fictions qui alimentent en retour les troubles, à l’image des espaces liminaux, ces lieux entre les lieux, abandonnés, vides, à l’image de ceux mis en avant dans la série Severance. Ces espaces à la fois familiers et dépeuplés, comme des souvenirs en ruines. A l’image de bureaux vides voire hyper-vides, qui semblent étranges, pareils à des déserts artificiels. La liminalité est le moment exact où nous sommes sur le point de devenir, mais ne le sommes pas encore, une forme de limbe entre l’adolescence et la vie adulte, entre la veille et le rêve, rappelle Tanni. Un espace intermédiaire propice à être occupé : une suspension. A l’image des mondes virtuels, générés aléatoirement, qui ne sont pas faits pour être habités, mais que nous parcourons sans fin dans les jeux vidéo.Tout cela fait écho à la peur de l’infini, au monde comme illusion. « L’imaginaire liminal tourne autour de sentiments contradictoires : attraction et répulsion, familiarité et étrangeté, confort et terreur ». Une forme de nostalgie incarnée : leur caractère vide ressemble à nos souvenirs dans lesquels nous ne pourrons plus jamais retourner, comme si l’on pouvait retourner dans un passé, désormais inhabité. Les espaces liminaux sont les memento mori d’aujourd’hui, ceux qui nous rappellent l’irréversibilité du temps.

Internet est façonné par les rêves, les traumatismes, les cauchemars de chacun qui se déclinent en d’innombrables esthétiques weirdcore, dreamcore, traumacore… (« dans les esthétiques qui se terminent en -core, le suffixe signifie que le mot principal est le thème de l’esthétique »). Ces esthétiques sont la prolongation des espaces liminaux, leur appropriation. Les espaces qui n’existent pas ou plus évoquent la sortie de la dimension réelle (comme le mode noclipping du jeu vidéo). « Le weirdcore est une représentation visuelle des sensations de dépersonnalisation et de déréalisation », entre la réalité et l’altérité. Comme si une altération de la réalité permettait d’entrapercevoir son autre face, comme un état de dissociation. Comme un écho de notre consommation excessive d’écrans nous débranche également de la réalité, brouille nos sens, déforme la perception. Ces espaces et pratiques, ces mèmes sont des exutoires, où les traumas côtoient des éléments inoffensifs, kawaï, qui représentent l’innocence ou les illusions perdues. Ces propositions esthétiques semblent assez proches de ce que décrivait la sociologue Dominique Pasquier dans son livre, L’internet des familles modestes (Presses des mines, 2018) en évoquant les citations que les gens partagent sur Facebook, comme des petites figures de morale populaires qui se propagent en chaîne. Ici, ce sont des figures esthétiques, des angoisses, des espoirs, des mèmes parmi d’autres qui eux aussi se propagent en chaînes, externalisant et aseptisant les sentiments qu’ils portent. Les figures esthétiques sont autant de templates, de hastags qui facilitent le processus d’appropriation, de copie, d’inspiration, de remix. Les éléments esthétiques partagés créent communauté et « jettent les bases d’une élaboration collective du trauma », jusqu’à leur leur simplification voire leur sublimation, dans des postures morbides et cute à la fois. 

Pour Valentina Tanni, l’accès à l’ordinateur nous a traumatisé. « Internet n’est pas seulement un lieu où exorciser des peurs, des troubles, des frustrations. Il est aussi, à son tour, une source potentielle de trauma. C’est un grand réservoir où des générations entières d’être humains continuent de déverser des idées, des sentiments, des émotions, des instincts et des désirs ». David Bowie dans une interview datant de 1999 le disait très bien : internet,« c’est une forme de vie extraterrestre ». Une esthétique du chaos, réaction à la perfection marketing du réseau et seul moyen de rendre compte du chaos d’un cerveau constamment en ligne, comme disait Rebecca Jennings. Les œuvres esthétiques d’internet, les mèmes, sont le résultat d’une forme de « catharsis collective », une forme de communion face à l’apocalypse qui s’annonce. Même constat pour Geert Lovink dans Extinction Internet qui rappelle que les mèmes célèbrent souvent l’effondrement, une rupture que la culture internet « transmet, incarne et reproduit ». Ce que propose le réseau n’est-il pas de passer de la réalité actuelle à la réalité désirée, entre le sommeil et l’éveil, la conscience et l’inconscience ? Où sommes-nous vraiment quand nous sommes sur le réseau ?, interroge Tanni. Dans un rêve lucide sans fin ? Dans une forme de tulpamancie comme le disait déjà l’immense Rémi Sussan ? Internet est-il le moyen de s’évader de la réalité ou de la rejoindre ? 

Le réseau semble démultiplier les leviers pour rejoindre une réalité qui n’est plus ni stable ni permanente, « une réalité que nous avons de plus en plus de mal à distinguer de la fiction, qui naît souvent déjà fictionnelle, et qui nous apparaît chaque jour plus incontrôlable »

Internet est rempli de contenus qui ironisent sur la nature de la réalité (comme les créations hyperréalistes de la pâtissière turque Tuba Geçkil) bien avant l’apparition du slop et de l’IA générative qui semblent être venu accélérer cette tendance. Comme si le réseau nous ramenait toujours à chercher le sens de ce que nous voyons : qu’est-ce que la réalité ? qu’est-ce que l’existence ? Quel est le sens de l’existence ? « Dans les expressions culturelles en ligne, le concept de réalité est continuellement remis en question »

Quelle est la réalité de ce qu’internet produit en nous ?

Valentina Tanni nous rappelle que « les utilisateurs d’internet ont continuellement affaire au problème de l’interprétation de ce qu’ils voient, entendent et lisent. Ils sont submergés par des contenus d’origine diversifiée et souvent inconnue ; chaque message reçu doit être attentivement évalué et confronté à l’ensemble des connaissances déjà possédées, en soi déjà instable et sujet aux fluctuations imprévues de la mémoire et des humeurs. Les outils pour s’orienter à l’intérieur de l’océan informationnel, chaque jour plus obscur et tumultueux, sont peu nombreux et fonctionnent de moins en moins. » Le concept de réalité n’a jamais été simple et stable. Nous avons longtemps cru qu’il suffisait d’accumuler des documents pour avoir des preuves d’existence, pour certifier la réalité. « Maintenant, nous nous apercevons que c’est la quantité même des preuves qui enraye le regard, le trouble, le rend inutilisable ». Conçus pour mettre de l’ordre au monde, les ordinateurs finalement nous ont conduit à la complexité et au chaos. Même le concept de post-vérité apparaît désormais réducteur et dépassé. Le vrai et le faux ne seront plus jamais distinguables. La multiplication des points de vue fragilise la réalité même. Chaque histoire produit des versions infinies, et toutes sont accessibles via une page web. Et ces histoires s’annoncent plus nombreuses encore demain avec une IA générative prête à les démultiplier. Entre les bots, les contenus génératifs, le spam… nous naviguons plus que jamais dans un internet mort, zombie, où nous tentons de percevoir des signes de vie. Selon les partisans de la dead internet theory, hypothèse conspirationniste, l’internet des être humains serait déjà mort depuis 2016. L’activité des bots occuperait d’ailleurs déjà 64% du trafic internet. Le monde réel, la nature, deviennent l’antidote au détachement systématique de notre environnement que produit notre connexion continue au réseau. (go outside and touch grass). Dans le documentaire de la réalisatrice Hayley Garrigus, You can’t kill meme (2021), les virus mentaux nous contaminent via des pratiques rituelles que l’internet permet. « Une méfiance croissante envers le système, alliée à la sensation d’une perte intégrale du contrôle sur le destin du monde servent de bouillon de culture pour l’émergence de mécanismes alternatifs d’interprétation de la réalité ». « Le réseau reste une porte toujours prête à être franchie ». Un grand organisme dont nous sommes les cellules. Prêts à dériver comme disait Debord. En 2009, l’artiste américain Justin Kemp, avec son projet Adding to the internet montrait qu’il n’y avait pas tout sur l’internet, en proposant de créer des images quand Google images ne produisait pas de résultats, produisant du slop avant l’heure. « Les produits culturels imaginaires » que produisent les IA génératives vont accélérer l’influence des choses qui n’existent pas. 

« Un demi-siècle d’hypersaturation médiatique, et au moins une vingtaine d’années de culture participative en ligne, ont conduit à la naissance d’une société entièrement centrée sur la création et l’échange de contenus. Produire et consommer des médias est le rituel clé du monde contemporain, en plus d’être son jeu collectif préféré ». Et l’IA ouvre encore plus ces possibilités, jusqu’à la perte totale du contrôle. 

Sur le réseau, nous sommes toujours au seuil d’une autre réalité

L’écran est un seuil. Une porte, vers des espaces qui n’existent que lorsque les machines fonctionnent, conclut Tanni. Sur le réseau, nous sommes nulle part. Ni ici, ni là. La vie sur écran est férocement hallucinatoire. « Le PC est le LSD des années 90 » déclarait déjà Timothy Leary en 1994. La connexion à internet a l’apparence d’un voyage extracorporel, comme quand on participe à une visioconférence. Marc Augé le disait déjà en évoquant les non-lieux : « La télévision et l’ordinateur occupent maintenant l’espace de l’ancien foyer ». Nous habitons une dimension intermédiaire désormais, quitte à délaisser le monde réel, comme l’évoquent les battlestations, les images de nos écrans, des lieux d’où nous nous connectons au monde, qui ne sont pas toutes propres et lissent, mais parfois délabrées. Ces cabines de pilotage, ces capsules de téléportation, ces espaces d’emprisonnement, ressemblent bien plus souvent à des ruines qu’autre chose, montrant combien nos esprits ont basculé en ligne au détriment du monde. « La technologie nous a placés dans un endroit étrange, où nous ne sommes jamais totalement présents ». Un endroit incorporel. Une caverne, entre celle de Platon et la panopticon de Jeremy Bentham, dont il n’est pas sûr que nous puissions sortir, pris dans les rets des entreprises de la Tech, « otages des plateformes », coincés dans une forme d’auto-stimulation sans fin, un flux constant de spectacles. Pour l’artiste et théoricien Vladan Joler dans New Extractivism (2020), notre grotte, notre cellule, est un lieu de plaisir d’où le prisonnier n’a pas même la volonté de sortir. Nous observons un spectacle, des mêmes, des archétypes, à l’image de la plus célèbre photo du monde, celle qui a été le fond d’écran de Windows, prise par Charles O’Rear. Un logo sous forme de paysage, une scène hyperréelle, « une représentation parfaite d’un lieu intérieur, d’un paysage de la conscience ». Nos ordinateurs et nos smartphones sont colonisés par les images (boutons, icônes…) qui nous semblent invisibles et qui pourtant pénètrent notre inconscient et dont les esthétiques influencent notre imaginaire bien plus que nous le pensons. N’avons-nous pas passé plus de temps dans les décors de jeux vidéo que dans les espaces où nous avons séjourné ? Les images se transforment en lieu. C’est là que nous habitons. Oui, c’est là. Tout au fond du réseau. Et Valentina Tanni nous rappelle combien cet espace nous transforme, sans que nous sachions très bien comment. 

Hubert Guillaud

La couverture du livre de Valentina Tanni.
  • ✇Dans les algorithmes
  • Recherches financées par les entreprises : un semblant de générosité
    OpenAI a annoncé un financement « pouvant atteindre 2 millions de dollars » pour des études sur la sécurité et le bien-être liés à l’IA. À première vue, cela peut sembler généreux, expliquent les chercheurs J. Nathan Matias et Avriel Epps dans une tribune pour Tech Policy Press, mais à l’instar d’autres géants de la tech mis en cause pour l’impact de leurs produits sur la santé mentale, il ne s’agit que d’un « grantwashing ». Cette pratique courante consiste à allouer des sommes dérisoires à la

Recherches financées par les entreprises : un semblant de générosité

4 février 2026 à 07:00

OpenAI a annoncé un financement « pouvant atteindre 2 millions de dollars » pour des études sur la sécurité et le bien-être liés à l’IA. À première vue, cela peut sembler généreux, expliquent les chercheurs J. Nathan Matias et Avriel Epps dans une tribune pour Tech Policy Press, mais à l’instar d’autres géants de la tech mis en cause pour l’impact de leurs produits sur la santé mentale, il ne s’agit que d’un « grantwashing ». Cette pratique courante consiste à allouer des sommes dérisoires à la recherche sous couvert de générosité, est souvent vouée à l’échec en raison de la rétention d’informations et de ressources par les entreprises. L’entreprise distribue des bourses, mais continue à pratiquer la rétention d’information empêchant les chercheurs d’accéder aux données ou orientant les jeunes chercheurs vers des recherches limitées voire trop orientées dans l’intérêt des entreprises. 

« Le grantwashing nuit à la sécurité des technologies, comme l’a récemment souligné la revue Science. Il introduit de l’incertitude et des débats dans des domaines où les entreprises cherchent à se dégager de toute responsabilité, et cette incertitude donne une apparence de rigueur scientifique. Ces études sous-financées produisent inévitablement des résultats non concluants, obligeant d’autres chercheurs à redoubler d’efforts pour corriger les idées fausses qui en résultent. » Sans compter que la pratique sape également la crédibilité des scientifiques qui acceptent ces émoluments qui les marquent comme étant à la solde des entreprises. 

En interne, les dirigeants apaisent les employés engagés par des mesures symboliques qui semblent avoir un impact. Les scientifiques externes acceptent l’argent, obtiennent des résultats non concluants et perdent la confiance du public. 

« Le problème est que nous avons un besoin urgent de recherches scientifiques plus approfondies et plus rapides sur la sécurité des technologies ». Et les chercheurs d’en appeler à s’inspirer du projet Génome Humain, qui, dans les années 90 a alloué 3 à 5 % de son budget annuel de recherche à une « enquête éthique, juridique et sociale » indépendante sur la génomique. 

« Si OpenAI et d’autres entreprises d’IA consacraient 3 à 5 % de leurs budgets annuels de recherche à une science de la sécurité véritablement indépendante, les scientifiques pourraient s’engager à trouver de véritables réponses aux questions concernant les risques les plus importants que leurs produits peuvent engendrer ». 

Mais en l’état, « la politique de grantwashing d’OpenAI est la stratégie idéale pour nous empêcher de trouver les réponses pendant des années ».

  • ✇Dans les algorithmes
  • Les enjeux des applications de rencontres façonnées par la tech
    Confrontés à une chute certaine d’audience, les applications de rencontres cherchent à se renouveler, explique le journaliste Jason Parham pour Wired. L’engagement des utilisateurs dans les applications de rencontre, selon la société d’analyse Apptopia a diminué de 7% en un an. Face aux difficultés qu’elles rencontrent (comme le fait qu’elles ne protègent pas suffisamment leurs utilisatrices), beaucoup cherchent à renouveler leur image en intégrant de l’IA pour renforcer la sécurité. D’autres vo

Les enjeux des applications de rencontres façonnées par la tech

3 février 2026 à 07:00

Confrontés à une chute certaine d’audience, les applications de rencontres cherchent à se renouveler, explique le journaliste Jason Parham pour Wired. L’engagement des utilisateurs dans les applications de rencontre, selon la société d’analyse Apptopia a diminué de 7% en un an. Face aux difficultés qu’elles rencontrent (comme le fait qu’elles ne protègent pas suffisamment leurs utilisatrices), beaucoup cherchent à renouveler leur image en intégrant de l’IA pour renforcer la sécurité. D’autres voient dans l’IA un moyen de développer l’appariement amoureux « psychométrique » (c’est-à-dire, sans grands cadres théoriques), comme le racontait la journaliste Amanda Hess en faisant un compte rendu hallucinant du Love Symposium qui se tenait en novembre à San Francisco qui semblait surtout tenir de l’asile d’aliéné. En tout cas, d’innombrables nouveaux entrants mobilisent l’IA pour améliorer l’appariement ou la connexion entre utilisateurs ont fait leur apparition, comme Tai, un service de coaching lancé par Three Day Rule, Iris, Rizz ou Elate qui ont déployé des fonctionnalités d’IA pour faciliter les premiers échanges… Ou encore Grindr qui tente d’accomplir une transformation via l’IA… Ou encore – le très expérimentalBrowser Dating, une application qui propose de faire matcher les gens selon l’historique de recherche de leur navigateur ! Pourtant, pour Parham, les jeunes semblent surtout « rechercher de meilleures alternatives aux applications de rencontre. Ils ont toujours soif d’amour, mais ils ne croient plus que la solution se trouve sur leur téléphone »

Pour Eric Waldstein, le PDG de Beyond, qui se définit comme un « club social », les gens aspirent surtout à refaire connaissance en personne, sans la barrière d’un téléphone. Les évènements de rencontres physiques sont de retour en force, comme le « Sit at the Bar September » ou des soirées flirts. Selon Eventbrite, les événements de rencontres ont progressé de 25% en 2025 par rapport à l’année précédente. De nouvelles applications ont vu le jour, comme Cerca qui met en relation des personnes en fonction de leurs relations communes, Breeze s’est donné pour mission de réinventer le rendez-vous à l’aveugle, et Timeleft qui propose d’organiser des dîners entre amis avec des groupes de personnes choisies au hasard dans leur ville. « Les gens veulent que le numérique facilite les interactions dans la vie réelle, pas qu’il les remplace », explique Waldstein. 

L’amour au temps du capitalisme

Pour Jacobin, les chercheuses suédoises Evelina Johansson Wilén, Maria Wemrell et Lena Gunnarsson, estiment que les applications de rencontre ont transformé l’intimité en un marché de la frustration qui alimente des conflits de genre de plus en plus marqués. L’amour est de plus en plus façonné par les plateformes. En Suède, un tiers des 15-34 ans utilisent désormais des applications de rencontre.

Cependant, ce qui pourrait passer pour un élargissement du champ des possibles en matière de relations amoureuses coïncide avec une augmentation du célibat, tant en chiffres absolus qu’en proportion de la population. Si certains considèrent le célibat comme un choix positif, d’autres le vivent comme une solitude non désirée, incapables de trouver l’intimité qu’ils recherchent. Ces frustrations ne sont plus privées : elles se sont politisées, alimentant une nouvelle polarisation entre les sexes, avec d’un côté les incels, ces célibataires involontaires marqués par l’antiféminisme et la misogynie ; et de l’autre des femmes qui ont perdu toute foi dans les relations hétérosexuelles, reprenant à leur compte les affirmations féministes radicales selon lesquelles l’intimité avec les hommes est inévitablement structurée par la domination et l’objectification. Une désillusion que l’écrivain Asa Seresin a qualifié d’hétéropessimisme. Si ces deux positions extrêmes restent minoritaires, de nombreux hommes et femmes expriment des sentiments similaires. « Cela met en lumière la force politique explosive des besoins non satisfaits en matière de sexualité et d’intimité. Dans cette perspective, le célibat n’est pas seulement une situation individuelle, mais le reflet de tensions sociales plus profondes »

Les marxistes féministes affirment depuis longtemps que le capitalisme façonne les conditions de l’amour. Mais ce ne sont pas seulement le sens de l’amour ou la dynamique des relations qui sont remodelés. La difficulté que beaucoup rencontrent aujourd’hui pour rencontrer des partenaires doit être comprise en lien avec l’expansion du capitalisme à des dimensions toujours plus nombreuses de la vie. Notre quête même de l’amour a été colonisée. Comme le soutiennent le philosophe italien Sandro Mezzadra et le théoricien social australien Brett Neilson, dans plusieurs de leurs livres (The Rest and the West, Verso Books, 2024 ; The Politics of Operations, Duke University Press, 2019 ; La frontière comme méthode ou la multiplication du travail, les éditions de l’Asymétrie, 2019), le capitalisme contemporain extrait de plus en plus de valeur des biens communs et des communautés sociales. Les applications de rencontre en sont un exemple flagrant. « Plus les gens recherchent désespérément l’amour, plus ils deviennent rentables pour les plateformes. Certaines études suggèrent que baisser la qualité des profils ou privilégier certains utilisateurs « populaires » peut prolonger la recherche. Des fonctionnalités telles que le défilement infini, les systèmes de récompenses addictifs et les abonnements payants encouragent une utilisation compulsive plutôt que des relations authentiques. Si les applications étaient réellement efficaces – si elles permettaient de nouer des relations durables – elles compromettraient leurs propres sources de revenus. L’amour devient la marchandise la plus intime qui soit : une promesse rarement tenue, sans cesse reportée et pourtant sans cesse mise en avant. »

Les contradictions entre ce que les gens recherchent – ​​l’amour, l’intimité, la stabilité – et ce que les applications offrent facilement – ​​un choix infini, des récompenses immédiates, des interruptions constantes – semblent propices à la critique. Pourtant, le principal conflit politique et idéologique autour des rencontres amoureuses aujourd’hui n’oppose pas le capital à l’amour, mais les hommes aux femmes. Dans leurs recherches sur le célibat involontaire et le célibat forcé, les chercheuses constatent que les plateformes de rencontre sont devenues des espaces où se rejouent, sous de nouvelles formes, d’anciens conflits de genre. Le discours sur la marginalisation masculine à l’ère des rencontres numériques ne se limite pas aux incels ; il se retrouve dans une large partie de la population masculine. Lors d’entretiens, de nombreux hommes célibataires expliquent que les hommes sont les perdants de la société contemporaine, notamment en matière d’amour et de sexualité. Si les hommes portent beaucoup plus d’attention aux femmes sur les applications de rencontre que l’inverse, cela s’explique en partie par la démographie – les hommes sont généralement plus nombreux que les femmes sur ces plateformes. Mais cela reflète aussi les schémas de séduction hétérosexuels traditionnels, que la conception des applications tend à amplifier. 

Les hommes swipent plus largement, souvent sans discernement. Les femmes, plus sélectives, se retrouvent ainsi dans le rôle de gardiennes du temple. De ce point de vue, les femmes peuvent apparaître comme les « gagnantes » des rencontres en ligne, avec plus de choix et de pouvoir de négociation. Mais la réalité est plus complexe. En entretiens, les femmes elles-mêmes rejettent souvent cette idée, soulignant le poids et les risques liés au fait d’être la cible d’une attention masculine massive. Pour beaucoup, il est pratiquement impossible de trier le nombre considérable de messages et de profils proposés. Certaines femmes interrogées ont décrit les rencontres en ligne comme émotionnellement épuisantes, voire menant au burn-out. « Ce que les hommes perçoivent comme un privilège féminin peut tout aussi bien être vu comme une délégation du travail de sélection aux femmes » : ces dernières doivent effectuer le tri, le filtrage et l’évaluation, des tâches et une charge mentale qui comportent non seulement un coût émotionnel, mais aussi des risques réels. Car l’attention masculine n’est pas seulement flatteuse ; elle peut aussi être menaçante. Un refus provoque souvent de l’hostilité, des insultes, voire des menaces. Les femmes qui utilisent les sites de rencontre consacrent une énergie considérable à gérer le risque de harcèlement et de violence. Ainsi, si le rejet et l’invisibilité vécus par les hommes sont bien réels, la surcharge, l’hostilité et le danger ressentis par les femmes le sont tout autant. Aucun des deux camps ne « gagne ». Tous deux sont pris au piège de structures de frustration et d’asymétrie, façonnées par les normes patriarcales et exacerbées par le capitalisme numérique. L’amour est une marchandise, le conflit son sous-produit !

Si beaucoup trouvent un partenaire grâce aux applications de rencontre, les algorithmes de ces applications contribuent également à maintenir une grande partie des utilisateurs dans un état de frustration persistant. Ce faisant, ils alimentent non seulement l’accumulation de capital, mais aussi l’exacerbation des conflits de genre. Hommes et femmes se tournent vers ces applications en quête de lien social. Mais au lieu de nouvelles relations sexuelles, voire d’une simple intimité, ils se heurtent souvent à la méfiance. Les hommes se perçoivent comme marginalisés, tandis que les femmes se sentent accablées et menacées. Plus les applications ne tiennent pas leurs promesses, plus la frustration grandit – et plus elle risque de se diriger vers l’autre sexe plutôt que vers le capital qui les façonnent. C’est l’un des paradoxes de l’amour sous le capitalisme. Nos désirs les plus intimes – notre soif de proximité, de reconnaissance, de partenariat – sont devenus le carburant d’un système qui prospère sur notre frustration. Le capitalisme numérique extrait de la valeur de nos interactions sociales, et dans le cas des applications de rencontre, il en résulte un cercle vicieux : plus l’intimité devient difficile, plus nous dépendons des applications ; plus nous dépendons des applications, plus nous sommes frustrés.

Nombre d’utilisateurs déclarent vouloir quitter les applications de rencontre, mais ne voient aucune alternative viable pour trouver un partenaire. Ces applications ont non seulement transformé notre façon de faire des rencontres, mais aussi notre rapport au rejet, au désir et à la vulnérabilité. Elles ont fait de l’intimité un terrain où les conflits de genre sont exacerbés, mais où le véritable vainqueur est le capital. Dès lors, la question se pose : qui contrôle l’amour ? Laisser ce contrôle au capital, qui promet de nous satisfaire tout en se nourrissant de notre désir d’amour, semble une mauvaise idée. Mais si nous reconnaissons l’amour comme une chose pour laquelle il vaut la peine de se battre, nous pouvons commencer à imaginer des alternatives – où l’intimité n’est pas exploitée à des fins lucratives, et où notre besoin d’amour et d’attention n’est pas instrumentalisé contre nous, concluent les chercheuses suédoises.

  • ✇Dans les algorithmes
  • Augmentation Washing
    L’automatisation est de plus en plus promue comme une augmentation des travailleurs, expliquent les chercheuses Sarah E. Fox, directrice du Tech Solidarity Lab, et Samantha Shorey dans une tribune pour Tech Policy Press. Or, ce discours sur la collaboration humains-machines, « réorganise bien plus le travail en fonction des limitations des machines plutôt que d’augmenter les capacités humaines ». « Les machines présentées comme un complément, voire un substitut, à l’effort humain transfèrent sys

Augmentation Washing

2 février 2026 à 07:00

L’automatisation est de plus en plus promue comme une augmentation des travailleurs, expliquent les chercheuses Sarah E. Fox, directrice du Tech Solidarity Lab, et Samantha Shorey dans une tribune pour Tech Policy Press. Or, ce discours sur la collaboration humains-machines, « réorganise bien plus le travail en fonction des limitations des machines plutôt que d’augmenter les capacités humaines ». « Les machines présentées comme un complément, voire un substitut, à l’effort humain transfèrent systématiquement les responsabilités de coordination, l’imprévisibilité et de nouvelles formes de supervision aux travailleurs eux-mêmes. Ces derniers passent leur temps à surveiller les robots, à intervenir en cas de panne et à s’adapter aux rythmes dictés par les machines ». Derrière la fable de l’augmentation, celle-ci devient un simple artifice rhétorique masquant une vitesse accrue, une autonomie réduite et la priorité donnée à la logique de la machine au détriment de l’initiative des employés. « Le décalage entre les discours et la réalité peut être conceptualisé comme un « blanchiment de l’augmentation » (augmentation washing). De même que l’écoblanchiment masque les dommages environnementaux par une image de marque positive, le blanchiment de l’augmentation utilise le langage de l’autonomisation, de la collaboration et du contrôle partagé pour dissimuler des changements plus profonds dans les relations de travail ». 

Selon un article du New York Times, des documents internes d’Amazon suggèrent que l’objectif de l’augmentation des travailleurs est d’éviter les embauches en repensant l’interface homme-machine de manière à ce que les machines prennent en charge un maximum de tâches, laissant aux humains le soin de gérer les exceptions, les cas particuliers et le dépannage. « Il ne s’agit pas d’une autonomisation au sens d’un renforcement de l’autonomie des employés, mais plutôt d’une réaffectation de leurs compétences au service du rendement des machines. Le discours sur l’augmentation des capacités humaines est une diversion stratégique : au lieu de proposer un véritable partenariat homme-machine, il masque une forme d’automatisation qui repose sur une intensification du travail humain au service des machines. » « L’utilisation actuelle des cobots en entreprise s’appuie sur leur potentiel d’enrichissement, mais leur déploiement s’inscrit souvent dans une logique de remplacement (voir ce que nous disions sur les licenciements massifs au prétexte de l’IA, qui semblent d’abord un moyen de présenter de bons résultats). En pratique, l’humain n’est plus le sujet augmenté ; c’est la machine qui l’est », expliquent les deux chercheuses en rappelant l’histoire de la symbiose homme-machine. Pour elles, le terme « cobot » devrait être associé à des technologies apportant des avantages mesurables aux travailleurs, tels que la réduction du rythme de travail, l’augmentation de l’autonomie, l’amélioration de la sécurité ou le soutien d’activités plus significatives.

« Sans mécanismes contraignants – limites de surveillance, obligations de transparence, garanties de formation, protections de l’emploi, voire droit de veto absolu –, les affirmations de « collaboration » risquent de se transformer en une nouvelle forme de blanchiment de l’augmentation plutôt qu’en un véritable chemin vers des avantages partagés. Les politiques et la gouvernance organisationnelle peuvent s’appuyer sur ces modèles. Que ce soit dans le secteur public ou privé, les employeurs qui introduisent des cobots devraient être tenus de démontrer qu’ils ont constaté des avantages documentés et validés par les travailleurs eux-mêmes. Les entreprises doivent également proposer des parcours concrets d’intégration au travail avec les machines – et non de vagues promesses de « renforcement des compétences », mais avec des engagements contraignants, appuyés par des fonds de formation, des garanties de redéploiement et des plans de transition professionnelle négociés. En fin de compte, une véritable collaboration repose sur la parole des travailleurs, et non sur les promesses des fournisseurs ».

  • ✇Dans les algorithmes
  • Doit-on refuser d’utiliser l’IA ?
    « À l’instar des luddistes d’autrefois, nous devons revendiquer la maîtrise et le contrôle de l’IA, et non l’abstinence. » Brandon Ogbunu et Cristopher Moore.  Pour autant, rappelle Emily Bender, « la résistance n’est pas le déni ».

Doit-on refuser d’utiliser l’IA ?

30 janvier 2026 à 07:01

« À l’instar des luddistes d’autrefois, nous devons revendiquer la maîtrise et le contrôle de l’IA, et non l’abstinence. » Brandon Ogbunu et Cristopher Moore

Pour autant, rappelle Emily Bender, « la résistance n’est pas le déni ».

  • ✇Dans les algorithmes
  • Annotateurs de données d’élite
    Les annotateurs de données ne sont plus seulement des travailleurs du clic précarisé. « À mesure que les modèles d’IA se perfectionnent, des experts en finance, en droit et en médecine, entre autres, sont de plus en plus sollicités pour leur entraînement. Mercor, une start-up qui a créé une plateforme permettant de recruter des spécialistes pour concevoir des bots, a récemment été valorisée à 10 milliards de dollars. Son PDG, Brendan Foody, indique que ses employés gagnent en moyenne 90 dollars

Annotateurs de données d’élite

30 janvier 2026 à 07:00

Les annotateurs de données ne sont plus seulement des travailleurs du clic précarisé. « À mesure que les modèles d’IA se perfectionnent, des experts en finance, en droit et en médecine, entre autres, sont de plus en plus sollicités pour leur entraînement. Mercor, une start-up qui a créé une plateforme permettant de recruter des spécialistes pour concevoir des bots, a récemment été valorisée à 10 milliards de dollars. Son PDG, Brendan Foody, indique que ses employés gagnent en moyenne 90 dollars de l’heure. » Via The Economist.

  • ✇Dans les algorithmes
  • Coincés dans les indus de la CAF
    En interview pour le MediaTV (ça commence vers 28’30), Bastien Le Querrec, juriste à La Quadrature du Net, explique le fonctionnement des algorithmes de scoring de la Caisse d’allocations familiales (CAF). Ce score de risque de fraude (qui est en réalité un score de risque d’indu, c’est-à-dire de sommes trop perçues par les bénéficiaires) est un chiffre entre zéro et un qui calcule le risque d’avoir perçu « 600 euros d’allocations en trop sur 6 mois » et qui permet de générer des listes d’alloca

Coincés dans les indus de la CAF

29 janvier 2026 à 07:00

En interview pour le MediaTV (ça commence vers 28’30), Bastien Le Querrec, juriste à La Quadrature du Net, explique le fonctionnement des algorithmes de scoring de la Caisse d’allocations familiales (CAF). Ce score de risque de fraude (qui est en réalité un score de risque d’indu, c’est-à-dire de sommes trop perçues par les bénéficiaires) est un chiffre entre zéro et un qui calcule le risque d’avoir perçu « 600 euros d’allocations en trop sur 6 mois » et qui permet de générer des listes d’allocataires à contrôler. Différents facteurs viennent augmenter ce score, comme l’ont montré les travaux de la Quadrature ou de Lighthouse Reports et du Monde, comme le fait de percevoir le RSA ou l’allocation adulte handicapé… Mais également d’être mère isolée (écoutez l’édifiant reportage des Pieds sur Terre ou celui d’Algorithmique de la journaliste Mathilde Saliou consacrés à ces enjeux, ou procurez-vous Les algorithmes contre la société, où une vingtaine de pages sont consacrées aux enjeux du scoring de la CAF). Chaque mois, la CAF calcule donc pour l’ensemble des allocataires, soit la moitié de la population française, un score de probabilité d’avoir 600 euros d’indus sur les 6 derniers mois. « La conséquence, c’est que ce sont les personnes les plus précaires qui accumulent des critères de précarité, qui vont être surciblées »

Bastien Le Querrec rappelle que depuis plusieurs années la Quadrature a tenté de faire la lumière sur ce score de suspicion, sans avoir accès au code source de l’algorithme utilisé actuellement. Mise en cause par les critiques, la CAF a fini par modifier sa doctrine : elle vient ainsi de publier le code source des algorithmes de score de risque sur son site (voir également le dossier de presse publié par la CAF). 

Les critères comme le fait de toucher le RSA ou d’avoir de faibles revenus sont toujours présents, souligne Le Querrec. Avec les différents modèles de ce score, les critères ont évolué, rappelle le juriste. Dans la version actuelle, les critères les plus problématiques ont été retirés (la nationalité, le sexe, l’adresse n’entrent pas dans les calculs du modèle… Le nombre de fois où vous vous connectez à votre espace personnel sur le site de la CAF ou le fait d’avoir déjà fait l’objet d’un contrôle n’entre plus en ligne de compte, rappelle Clubic), mais les effets sont restés les mêmes, car la suspicion se dirige toujours vers les mêmes personnes du fait d’effets proxies, c’est-à-dire de variables de substitution. Une étude interne de la CAF a été communiquée à son comité d’éthique mis en place en 2025 (mais n’a pas été publiée). Elle montrerait que dans le modèle 2018 comme dans le modèle 2025, on a une sureprésentation de certaines catégories de personnes en fonction des minimas sociaux ou de la composition du foyer (comme c’est le cas des familles monoparentales et des mères isolées notamment), ainsi que des personnes de nationalité étrangère.

En octobre 2024, la Quadrature et 14 autres associations ont déposé un recours au Conseil d’Etat pour faire reconnaître l’illégalité de l’algorithme utilisé par la CAF (elles sont désormais 25 et la Quadrature a rendu disponible son mémoire). Le Défenseur des droits qui a été interrogé par le Conseil d’Etat en octobre a produit des observations (non publiées) dans lesquelles le Défenseur parle de présomption de discrimination et estime que la CAF n’a pas démontré l’absence de discrimination indirecte à l’encontre de populations protégées. Mediapart, rapporte les constatations du Défenseur qui estime que le traitement algorithmique : « paraît produire un surcontrôle des populations les plus précaires et donc constituer une différence de traitement fondée sur la particulière vulnérabilité économique. Une présomption de discrimination indirecte semble établie ».

Les indus sont souvent liés à des erreurs de déclaration plus qu’à de la fraude. En 2022, la CAF indiquait que sur l’ensemble 100 milliards de prestations, il y avait un peu moins d’un milliard d’indus retrouvés et 350 millions de fraude constatés, ce qui, proportionnellement à la surveillance générale de la population produite par ce scoring, semble un résultat assez anecdotique. « L’algorithme va chercher là où c’est le plus efficace d’aller trouver des indus, c’est-à-dire là où les prestations sont complexes », rappelle Le Querrec, donc cible les personnes les plus précaires, celles qui dépendent d’un faisceau d’aides pour survivre. 

Dans son mémoire de défense envoyé au Conseil d’Etat, la CAF continue à estimer que son algorithme ne produit pas de discrimination, ni de surveillance de masse (elle ne l’a pas publié). Mais ce n’est pas l’avis des associations qui contestent les modalités de calcul devant le Conseil d’Etat. 

Dans les comptes rendus des réunions du Comité d’éthique que la CAF a mis en place (où quelques associations ont pris place aux côtés d’experts et de représentants de la CAF) ont apprend par exemple que 6 déclarations sur 10 comportent des erreurs et que la réforme de la solidarité à la source a pour but de les réduire en envoyant des informations pré-remplies aux allocataires. Dans un autre compte-rendu, les participants du Comité d’éthique estiment  qu’il « serait utile de comparer les effets d’une campagne de prévention des indus. Il serait également utile de connaître précisément les causes des indus et des erreurs. La Cnaf indique qu’un travail d’analyse des causes des indus est en cours.» 

Un autre enjeu est que la solidarité à la source (c’est-à-dire le préremplissage d’information via des échanges d’informations entre administration ou avec les employeurs, comme la Déclaration sociale nominative que nous évoquions ici) favorise une asymétrie d’information accrue entre les allocataires et les services au risque d’éloigner encore l’enjeu majeur « de l’accompagnement, de la facilitation et de la simplification de certaines prestations » (même si la CAF reconnaît qu’il va lui falloir faire des efforts en ce sens).

Malgré ce premier effort de transparence qui constitue une vraie évolution de la part de la CAF, on regrettera que les études spécifiques que la CAF a présentées à son comité éthique ne soient pas publiées. Par exemple, dans le compte-rendu de la réunion du comité d’éthique du 6 octobre 2025, il a été présenté une méthodologie de réduction des biais pour diminuer le ciblage des familles monoparentales à laquelle les citoyens devraient pouvoir accéder.

On pourrait interroger bien d’autres enjeux encore. Par exemple, le seuil défini de risque d’indu à 600 euros sur 6 mois (alors que ce seuil pourrait être différent selon que les personnes sont seules ou avec enfants… et qu’elles reçoivent des montants de prestations différents)… ou le fait d’observer les indus pour des montants bien plus élevés pour identifier les situations vraiment problématiques… Des évolutions de règles possibles dont la CAF se défend d’avance auprès de son Comité d’éthique en indiquant que le changement de ces seuils nécessiterait un lourd travail pour réadresser la sélection des variables. 

Dans le dernier compte-rendu de réunion de son comité éthique de novembre 2025, la CAF rappelle que le Conseil de l’Europe invite à abandonner les modèles de ciblage depuis 2017 pour renforcer une sélection aléatoire et que les contrôles de la CAF vont devoir s’inscrire dans ce cadre à l’avenir, ce qui laisse supposer que l’automatisation va devoir être contrebalancée. La CAF indique également avoir pris note « qu’elle doit communiquer largement les éléments de documentation du modèle de façon transparente, avec un effort de vulgarisation pour les rendre accessibles aux publics les moins initiés, et intelligible pour les personnes concernées (les allocataires).» A regarder les explications fournies par la CAF pour le moment, malgré l’effort de transparence, nous n’y sommes pas encore.

  • ✇Dans les algorithmes
  • Comment la livraison bouleverse le modèle économique de la restauration
    Aux Etats-Unis, en 2024, près des trois quarts des commandes passées dans les restaurants n’ont pas été consommées sur place, selon les données fournies par la National Restaurant Association, une association professionnelle américaine, rapporte The Atlantic. Si la livraison a explosé avec la pandémie en 2020, depuis, la situation n’est jamais revenue à son état pré-pandémique. Avant la pandémie, les clients bénéficiaient d’une livraison bon marché, qui permettaient aux restaurants d’en tirer de

Comment la livraison bouleverse le modèle économique de la restauration

28 janvier 2026 à 07:00

Aux Etats-Unis, en 2024, près des trois quarts des commandes passées dans les restaurants n’ont pas été consommées sur place, selon les données fournies par la National Restaurant Association, une association professionnelle américaine, rapporte The Atlantic. Si la livraison a explosé avec la pandémie en 2020, depuis, la situation n’est jamais revenue à son état pré-pandémique. Avant la pandémie, les clients bénéficiaient d’une livraison bon marché, qui permettaient aux restaurants d’en tirer des bénéfices, parce que les acteurs de la livraison de la Silicon Valley la finançait à perte. Suite aux fermetures liées à la pandémie, beaucoup de restaurants qui n’avaient jamais envisagé la livraison ont commencé à la proposer, notamment pour tenter de résoudre leur endettement. La livraison a changé la consommation et est devenue banale très rapidement.

Le problème désormais, c’est que les clients paient plus cher, que les livreurs gagnent moins… et surtout, que ce sont les restaurants qui y perdent. « Les entreprises de livraison prélèvent une commission d’au moins 5 %, et souvent bien plus, jusqu’à 30 %. Elles facturent généralement le traitement des paiements, la publicité intégrée à l’application et le référencement privilégié dans les résultats de recherche. Elles facturent également les commandes à emporter ». Tant et si bien que beaucoup de restaurants sont au bord de la faillite. 

« En 2024, l’un de ses restaurants a réalisé environ la moitié de son chiffre d’affaires grâce à la livraison, soit 1,7 million de dollars de recettes brutes. Sur cette somme, 400 000 dollars – soit 23 % – sont allés aux entreprises de livraison » (soit l’équivalent de deux emplois). Ce restaurant qui était rentable avant 2023, n’a généré aucun bénéfice en 2024. « La livraison nous a sauvés pendant la pandémie », a déclaré sa gérante. « Maintenant, elle nous ruine ».

Avec l’explosion de la livraison, les restaurants sont vides. Selon les données de la National Restaurant Association, environ un tiers des restaurants traditionnels ont modifié leur espace ces dernières années pour s’adapter à l’essor de la livraison. À l’extrême, de nombreux nouveaux restaurants qui ouvrent dans les grandes villes ne sont pas du tout conçus pour la consommation sur place : ce sont des cuisines fantômes (des dark kitchen), spécialement conçues pour la livraison : de véritables usines à repas.
L’essor de la livraison a également changé la restauration elle-même, rappelle The Atlantic. Car elle exige une autre cuisine, moins de fritures qui ramollissent, plus de plats braisés et davantage de sauces à part. C’est la cuisine elle-même qui s’adapte. Avec l’essor de la livraison, nous ne mangeons plus la même chose.

  • ✇Dans les algorithmes
  • Google Maps n’est pas un annuaire et Airbnb n’est pas un ogre
    Pour sa newsletter, la data scientist Lauren Leek s’est intéressée aux recommandations de restaurants que produit Google Maps à Londres. « Google Maps n’est pas un annuaire, c’est un créateur de marché algorithmique où la survie des établissements est de plus en plus déterminée par le code ».  « L’image publique de Google Maps est celle d’un reflet passif des préférences des utilisateurs : plus d’étoiles, plus d’avis, une meilleure cuisine. Mais cette vision occulte le fonctionnement réel de

Google Maps n’est pas un annuaire et Airbnb n’est pas un ogre

27 janvier 2026 à 07:00

Pour sa newsletter, la data scientist Lauren Leek s’est intéressée aux recommandations de restaurants que produit Google Maps à Londres. « Google Maps n’est pas un annuaire, c’est un créateur de marché algorithmique où la survie des établissements est de plus en plus déterminée par le code »

« L’image publique de Google Maps est celle d’un reflet passif des préférences des utilisateurs : plus d’étoiles, plus d’avis, une meilleure cuisine. Mais cette vision occulte le fonctionnement réel de la plateforme. Google Maps ne se contente pas d’indexer la demande ; il l’organise activement grâce à un système de classement basé sur un petit nombre de critères clés que Google a lui-même publiquement reconnus : la pertinence, la distance et la notoriété. La « pertinence » est déduite de la correspondance textuelle entre votre requête de recherche et les métadonnées de l’établissement. La « distance » est purement spatiale. Mais c’est la « notoriété » qui marque le début de l’économie politique. Google définit la notoriété à l’aide de critères tels que le volume et la fréquence des avis, la note moyenne, la notoriété de la marque et la visibilité web globale. Autrement dit, il ne s’agit pas seulement de l’opinion des gens sur un lieu, mais aussi de la fréquence à laquelle ils interagissent avec lui, en parlent et le connaissent déjà. La visibilité dans ces classements détermine la fréquentation. La fréquentation détermine la vitesse d’accumulation des avis. L’accumulation d’avis contribue ensuite directement au signal de notoriété. Le système s’auto-entretient ». C’est en quelque sorte l’effet Matthieu décrit par le sociologue Robert Merton appliqué aux kebabs : « à chacun selon ce qu’il a, il sera donné ».

« Ce système avantage de manière disproportionnée les chaînes et les établissements déjà bien situés. Les chaînes bénéficient d’une notoriété de marque partagée entre leurs différents points de vente. Les zones à forte fréquentation génèrent des avis plus rapidement, ce qui signifie que les établissements situés dans ces zones grimpent plus vite dans le classement de notoriété, même à qualité égale. À l’inverse, les nouveaux indépendants sont confrontés à un problème classique de démarrage à froid : sans avis, ils sont difficiles à trouver, et sans être trouvés, ils peinent à accumuler des avis. » Cette dynamique s’apparente à la logique d’un détendeur de marché : « un intermédiaire qui ne se contente pas de refléter l’offre et la demande sous-jacentes, mais qui influence activement la liquidité, la mise en relation et la formation des prix ». Mais plus que les prix, Google Maps contrôle la visibilité : « les algorithmes de classement agissent comme des répartiteurs d’attention, orientant la demande vers certaines entreprises et la détournant d’autres ».

Lauren Leek a construit un contre modèle, afin de prédire la note Google d’un restaurant, en se basant uniquement sur ses caractéristiques structurelles. « Google Maps est étonnamment mauvais pour catégoriser les cuisines. Une grande partie des restaurants sont étiquetés de manière vague (« restaurant », « café », « plats à emporter »), incohérentes, ou tout simplement incorrectes. J’ai donc fini par créer un modèle de classification des cuisines distinct qui prédit la cuisine à partir des noms des restaurants, de la langue du menu et du texte des avis, lorsqu’ils sont disponibles ». Le but : faire que les filtres ne soient pas simplement les étiquettes de Google, mais qu’ils soient issus de l’apprentissage automatique. Cela permet de générer une note contrefactuelle attendue pour chaque restaurant : celle que la plateforme attribuerait généralement dans ces conditions. La différence entre la note réelle d’un restaurant sur Google Maps et cette note prédite est un résidu de note. « Un résidu positif signifie que le restaurant obtient des résultats nettement supérieurs à ce que la plateforme suggérerait. Un résidu négatif signifie qu’il obtient des résultats inférieurs à ce que l’algorithme valorise habituellement. Ce n’est pas une mesure parfaite de la qualité des plats, mais c’est un indicateur pertinent des erreurs de tarification algorithmiques : les situations où la valeur sociale ou culinaire diverge de ce que la plateforme met en avant ». Bien sûr, comme certains restaurants paient pour être visibles (sans que ce ne soit transparent) ces résidus peuvent en partie refléter des dépenses publicitaires inobservables.

Lauren Leek a ainsi créé un prototype de tableau de bord gastronomique londonien. Plus les bulles sont grosses et foncées, plus les établissements sont sous-évalués par le modèle de Lauren Leek. 

« Les restaurants ne font pas faillite seuls : ils échouent au sein d’écosystèmes », explique la data scientist qui a ajouté une deuxième couche de modélisation selon les quartiers en prenant en compte, la densité de restaurants, la note moyenne, le résidu moyen, le nombre total d’avis, la part de marché des chaînes, et le niveau de prix… pour classer les zones en quatre types structurels : hubs d’élite, hubs forts, hubs ordinaires et hubs faibles. Ce qui lui permet d’identifier les cinq pôles de restauration les plus puissants de Londres. Ce sont des lieux où densité, visibilité algorithmique, autonomie et pouvoir d’achat des consommateurs convergent. « La diversité culinaire londonienne n’est pas répartie uniformément au sein de son économie numérique. Les cuisines issues de l’immigration se concentrent fortement dans les quartiers où la visibilité algorithmique est structurellement plus faible. Cuisine italienne, indienne, turque, chinoise, thaïlandaise, britannique, japonaise, française, américaine et fish and chips : toutes ces cuisines ont des histoires d’implantation, des réseaux de main-d’œuvre, des formats de vente et des rapports au capital et aux loyers distincts. Certaines cuisines forment de longs corridors continus. D’autres apparaissent sous forme de regroupements ponctuels, liés à des rues commerçantes spécifiques ou à des tranches de revenus particulières. »

« Le résultat le plus important n’est pas le classement des quartiers, mais la prise de conscience que les plateformes structurent désormais, discrètement, la survie des restaurants sur les marchés urbains du quotidien. La scène gastronomique londonienne n’est plus uniquement régie par le goût. Elle est structurée par une visibilité croissante, des loyers qui augmentent avec la notoriété, et des algorithmes qui captent l’attention bien avant l’arrivée des consommateurs. Ce qui apparaît comme un « choix » est de plus en plus la conséquence des systèmes de classement. »

« Pour les politiques publiques, cela change la donne. Si la découverte détermine aujourd’hui la survie des petites entreprises, alors la concurrence, l’équité et la revitalisation urbaine ne peuvent plus ignorer les systèmes de classement des plateformes. Les municipalités peuvent rénover les rues et libéraliser les licences autant qu’elles le souhaitent, mais l’invisibilité algorithmique peut laisser des territoires économiquement isolés. La transparence et l’auditabilité des plateformes ne sont plus des débats techniques de niche ; elles deviennent discrètement des outils de politique économique locale. À tout le moins, les algorithmes de classement ayant un tel impact économique devraient être auditables. On audite les marchés financiers. On devrait aussi auditer les marchés de l’attention. »

Airbnb : réguler l’espace plus que le temps

Dans un autre billet, Lauren Leek s’est intéressée à l’ogre Airbnb à Londres. Et là aussi, elle revisite les idées reçues. Les annonces Airbnb sur Londres sont très concentrées dans des zones très spécifiques. Plus qu’une submersion, les offres se concentrent dans des zones où la pénurie de logements, la pression salariale et les lacunes en matière d’urbanisme faisaient déjà de la location de courte durée la solution rationnelle. Elle a à nouveau créé une carte pour montrer où se concentrent les locations de courtes durées. 

Londres – comme la plupart des grandes villes – réglemente les locations de courte durée. Depuis 2015, les Londoniens peuvent louer leur logement entier jusqu’à 90 nuits par an, afin de permettre aux propriétaires de rentabiliser leur appartement, alléger la pression sur les prêts immobiliers et dynamiser le marché du tourisme. Au-delà de 90 nuits, il ne s’agit plus d’une location de logement, mais d’un « hébergement temporaire », nécessitant une autorisation expresse de la mairie. Dans les zones à forte demande, des arrondissements comme Camden, Westminster et Hackney refusent systématiquement ces demandes, avec des taux de rejet de 60 à 80 %.

« Reste, que le système est très perméable : il enregistre les réservations, et non l’occupation réelle. Le système ne permet pas de repérer les hôtes qui publient des annonces sur plusieurs plateformes (Airbnb + Booking.com + Vrbo = soit 270 nuits, ce qui est techniquement légal), qui créent des comptes dupliqués ou qui font de fausses déclarations concernant les autorisations. Et si Westminster dispose d’agents chargés de faire respecter la réglementation, ce n’est pas le cas de la plupart des arrondissements. Les règles sont respectées individuellement, mais les transformations de quartiers en hôtels, eux, continuent. Le critère réglementé (le temps) ne correspond pas au lieu où se situe le problème (l’espace et la densité). » La loi régule le temps, alors que le problème est spatial. 

La carte de Lauren Leek pondère les annonces par rapport au nombre réel de logements, ce qui permet de comparer la pression. Elle montre que Airbnb n’est pas en train d’envahir Londres. « Si la règle des 90 jours influençait réellement les comportements, la densité serait la plus faible là où les contrôles sont les plus stricts : Camden, Westminster, Hackney – des arrondissements qui appliquent des restrictions explicites et le font savoir. La carte y montre pourtant des regroupements. Elle montre également des regroupements là où l’application de la réglementation est fragmentée et où les règles sont surtout théoriques. Qu’elle soit stricte ou laxiste, le résultat est le même. La réglementation n’est pas absente. Elle est simplement mal ciblée. »

« Dans un arrondissement où le salaire médian couvre le loyer médian, louer son  appartement est généralement un choix de vie. Là où ce n’est pas le cas, il s’agit plutôt d’une stratégie de survie : quelqu’un qui transforme son seul actif évolutif en liquidités. Cela ne rend pas la plateforme inoffensive pour autant, mais cela la rend endogène : l’interdire, c’est déplacer la pression vers un autre exutoire, peut-être pire. Cette pression n’est pas apparue avec Airbnb. Airbnb est la forme qu’elle a prise. Les plateformes n’ont pas de morale. Elles sont conçues pour l’optimisation. » Pour la datascientist, le véritable problème n’est pas la transgression des règles, mais le fait que ces règles décrivent un Londres qui n’existe plus.

La stagnation des salaires a fait du logement le seul actif dont la plupart des ménages disposent pour faire évoluer leurs revenus. Une planification défaillante et une faible construction de logements ont engendré une pénurie. Dans ce schéma, Airbnb se comporte alors comme toute plateforme bien conçue : elle oriente la demande par le chemin le plus facile. Si l’on souhaite une réponse plus radicale que « interdire Airbnb », les politiques publiques doivent être en adéquation avec le fonctionnement réel du système, explique Leek. « Si les interdictions procurent une satisfaction émotionnelle, elles ne constituent pas une solution durable au changement »

Pour Leek, il faudrait plutôt instaurer des plafonds au niveau de la rue ou du pâté de maisons : au-delà d’un certain pourcentage de logements dans une zone donnée, aucune nouvelle location de courte durée ne serait autorisée. De plus, les autorisations devraient être liées au taux de saturation local : un arrondissement avec 0,2 % de logements Airbnb n’est pas comparable à un arrondissement à 3 %.

Si les collectivités locales sont dépassées, c’est aussi parce qu’elles n’ont pas vraiment accès à ces informations. Il faudrait que les plateformes déclarent leurs activités de location de courtes durées dans un registre central et que les données soient accessibles à la recherche pour en évaluer les effets. Elle propose d’affecter une partie des recettes fiscales et des redevances issues des locations de courte durée aux fonds de logement locaux du même arrondissement et suggère de baisser la taxe d’habitation là où la pression est forte. De proposer des procédures d’urbanisme accélérées ou des allégements fiscaux aux propriétaires qui transforment des logements de courte durée en locations de longue durée dans les zones à forte tension sur le marché. 

Pour elle, il faut s’attaquer aux causes profondes du problème du logement ET des salaires. « Rien de tout cela n’est radical. Ce qui est radical, c’est de continuer à réguler un problème spatial avec un outil temporel. Je ne suis pas assez naïve pour croire qu’une publication sur Substack puisse modifier la politique d’urbanisme. Mais je suis assez obstinée pour penser que rendre le problème visible est un premier pas, et bien moins coûteux qu’une nouvelle consultation. »

Airbnb a proposé une interface à un problème qui lui préexistait, estime-t-elle.

Leek a rapidement observé ce qu’il en était ailleurs. A Florence, on compte 10 500 annonces Airbnb pour 360 000 habitants. A Amsterdam, la location de courte durée est de 30 nuits maximum avec permis obligatoire et interdictions dans certains quartiers de la ville depuis 2019. « Le centre et le quartier De Pijp pourraient être limités à 15 nuits à partir d’avril 2026. Malgré ces restrictions, les loyers à long terme ont augmenté de 37 % depuis leur mise en place. » La pression reste trop forte. Amsterdam ne parvient pas à résoudre le problème. « C’est le système sous-jacent – ​​celui qui a rendu les revenus des plateformes parfaitement rationnels – qu’il faut repenser. » Cartographier la réalité permet de mieux circonscrire le problème, explique-t-elle. L’enjeu n’est pas de se demander comment arrêter Airbnb, mais « que ne fait plus la ville par elle-même, et qu’est-ce que les plateformes ont pris en charge ? »

A New York, où l’ogre Airbnb a été chassé, « la réglementation n’a pas permis de faire baisser les loyers, ni d’améliorer le taux de vacance comme annoncé », expliquait déjà Le Monde. « Au contraire, elle a pénalisé les New-Yorkais, en particulier les résidents de quartiers défavorisés, qui bénéficient de la location de courte durée pour faire face à la crise du logement. »

  • ✇Dans les algorithmes
  • Mieux comprendre l’efficacité des mesures d’atténuation des risques de l’IA
    Sur son blog, le professeur de mathématiques appliquées, Arthur Charpentier, revient sur les deux rapports de l’International AI Safety Report, publiés par le AI Security Institute britannique en octobre et novembre. « Le premier raconte comment des changements techniques déplacent la frontière des usages possibles, et donc des dommages plausibles. Le second raconte comment le secteur tente de fabriquer de la sûreté (par couches, par procédures, par audits) tout en reconnaissant explicitement qu

Mieux comprendre l’efficacité des mesures d’atténuation des risques de l’IA

26 janvier 2026 à 07:00

Sur son blog, le professeur de mathématiques appliquées, Arthur Charpentier, revient sur les deux rapports de l’International AI Safety Report, publiés par le AI Security Institute britannique en octobre et novembre. « Le premier raconte comment des changements techniques déplacent la frontière des usages possibles, et donc des dommages plausibles. Le second raconte comment le secteur tente de fabriquer de la sûreté (par couches, par procédures, par audits) tout en reconnaissant explicitement que l’efficacité des mesures reste incertaine et variable selon les contextes ».

Le premier rapport explique que la vitesse de changement des technologies d’IA « dépasse la vitesse de contrôle, le risque n’est pas seulement dans les “mauvais événements” possibles, il est dans la désynchronisation entre innovation, déploiement et apprentissage collectif ». Le second se demande comment acteurs publics et privés organisent la gestion du risque depuis « des mécanismes de maîtrise qui s’inventent, avec des trous, des asymétries et des angles morts ». Le cœur du second rapport estime qu’aucun garde-fou ne suffit et qu’il faut donc empiler les couches de mesures pour atténuer les risques dans un environnement où les menaces ne cessent de changer.  

Mais pour passer d’une gouvernance basée sur les risques à une gouvernance fondée sur les faits, il manque encore la base des incidents permettant de comprendre la fréquence, la sévérité, la causalité des défaillances et l’efficacité des contrôles, comme l’envisage d’ailleurs un rapport de l’OCDE : Towards a common reporting framework for AI incidents. Comme le dit Charpentier : « sans vision systémique et sans boucle d’apprentissage (monitoring, reporting, amélioration), le risk management IA restera un exercice cosmétique ». Pour améliorer l’efficacité des mitigations, c’est-à-dire des mesures d’atténuations des risques, nous devons mieux comprendre leur efficacité.

  • ✇Dans les algorithmes
  • Drop, laisse tomber les données
    L’Agence californienne de protection de la vie privée a débuté l’année 2026 en lançant un outil – la plateforme de demande de suppression et de désinscription (dont l’acronyme en anglais est Drop, qui signifie aussi laisse tomber) – permettant aux résidents de l’État d’obliger les courtiers en données à supprimer leurs informations personnelles et à cesser de les vendre. Jusqu’à présent, ces demandes devaient être transmises individuellement à chaque courtier en données – une tâche complexe, éta

Drop, laisse tomber les données

23 janvier 2026 à 07:01

L’Agence californienne de protection de la vie privée a débuté l’année 2026 en lançant un outil – la plateforme de demande de suppression et de désinscription (dont l’acronyme en anglais est Drop, qui signifie aussi laisse tomber) – permettant aux résidents de l’État d’obliger les courtiers en données à supprimer leurs informations personnelles et à cesser de les vendre. Jusqu’à présent, ces demandes devaient être transmises individuellement à chaque courtier en données – une tâche complexe, étant donné que plus de 500 courtiers étaient enregistrés en Californie à la fin de l’année dernière. Via The Markup.

  • ✇Dans les algorithmes
  • Amnesty : une boîte à outils pour l’analyse des algorithmes publics
    Fort de nombreuses analyses menées par son laboratoire dédié, Amnesty international publie une boîte à outils pour l’analyse des algorithmes publics. Ce guide pour une gestion responsable des algorithmes détaille « non seulement comment enquêter sur ces systèmes opaques et les violations des droits humains qui en découlent, mais présente également des stratégies complètes pour celles et ceux qui œuvrent à mettre fin à ces systèmes abusifs en recherchant le changement et la responsabilisation par

Amnesty : une boîte à outils pour l’analyse des algorithmes publics

23 janvier 2026 à 07:00

Fort de nombreuses analyses menées par son laboratoire dédié, Amnesty international publie une boîte à outils pour l’analyse des algorithmes publics. Ce guide pour une gestion responsable des algorithmes détaille « non seulement comment enquêter sur ces systèmes opaques et les violations des droits humains qui en découlent, mais présente également des stratégies complètes pour celles et ceux qui œuvrent à mettre fin à ces systèmes abusifs en recherchant le changement et la responsabilisation par le biais de campagnes, de plaidoyer ou de recours juridiques ». Amnesty rappelle que cet outil n’a pas pour but de se restreindre aux aspects techniques, mais vise aussi à « placer les témoignages des personnes et des communautés au cœur de la recherche car eux-seuls permettent de démontrer les problèmes causés par les systèmes algorithmiques d’une manière accessible, sans jargon technique ». Les audits purement techniques, sans témoignages de ceux impactés par les systèmes, « véhiculent l’idée fausse que tous les problèmes peuvent être résolus par des solutions techniques ». Le guide rappelle que documenter les preuves des préjudices causés par un système algorithmique ne suffit pas à lui seul à induire un changement. « Sensibiliser le public n’est qu’une première étape ; après la publication d’une enquête, il est important que les chercheurs et les organisations continuent de rechercher la responsabilité et la justice pour les personnes touchées par le biais du plaidoyer, des poursuites judiciaires et d’autres moyens ». Le guide renvoie vers des exemples et des techniques d’enquête à déployer et des techniques de mobilisation juridiques et politiques vers les populations concernées.

  • ✇Dans les algorithmes
  • Que font les « patrons » algorithmiques au travail ?
    Les chercheurs Antonio Aloisi et Valerio De Stefano sont les auteurs de Your Boss Is an Algorithm (Bloomsbury, 2022, non traduit). Dans un article de recherche pour un ouvrage collectif à paraître (Artificial Intelligence and Labour Law, M. Biasi ed.), ils posent une question pertinente sur l’usage de l’IA au travail : « que font ces nouveaux patrons algorithmiques au travail ? »  L’IA remodèle les rapports de force au travail, répondent-ils. « Loin d’être de simples outils d’optimisation, le

Que font les « patrons » algorithmiques au travail ?

22 janvier 2026 à 07:00

Les chercheurs Antonio Aloisi et Valerio De Stefano sont les auteurs de Your Boss Is an Algorithm (Bloomsbury, 2022, non traduit). Dans un article de recherche pour un ouvrage collectif à paraître (Artificial Intelligence and Labour Law, M. Biasi ed.), ils posent une question pertinente sur l’usage de l’IA au travail : « que font ces nouveaux patrons algorithmiques au travail ? » 

L’IA remodèle les rapports de force au travail, répondent-ils. « Loin d’être de simples outils d’optimisation, les systèmes algorithmiques amplifient de plus en plus les prérogatives managériales, en les intégrant à des processus automatisés difficiles à examiner ou à contester. Ces évolutions donnent lieu à un paradoxe : managers et employés sont simultanément augmentés et dépossédés de leur pouvoir, pris au piège de systèmes qui intensifient le contrôle tout en érodant l’autonomie »

De la vulnérabilité des employés soumis aux machines

Pour les deux chercheurs, les garanties existantes, allant des droits à la protection des données aux droits à l’information et à la consultation, sont mal adaptées pour faire face à cette transformation. Ils critiquent « l’illusion de la conformité procédurale » et appellent à une refonte structurelle de la gouvernance des technologies au travail. Plutôt que de renforcer les hiérarchies verticales, l’IA pourrait être mise à profit pour démocratiser le monde du travail, accroître l’autonomie et permettre de nouveaux modèles de participation, estiment-ils. Mais pour y parvenir, il faut remettre en question les présupposés socio-juridiques qui sous-tendent les formes actuelles de contrôle numérique et d’imaginer d’autres avenirs où la technologie est au service des travailleurs, et non seulement de leurs dirigeants.

« L’une des dimensions les plus préoccupantes de l’intelligence artificielle dans les environnements de travail contemporains est le degré d’influence quasi illimitée que ces systèmes peuvent exercer, souvent au détriment des contrepoids traditionnels conçus pour limiter l’autorité managériale ». « Au lieu de repenser le travail de manière à transcender, voire à réinventer, les paradigmes obsolètes de commandement et de contrôle, l’IA est trop souvent déployée pour reproduire, et dans certains cas, exacerber, les rigidités et les hiérarchies mêmes qu’elle était censée démanteler »

Pour les deux chercheurs, les systèmes d’IA sont de plus en plus déployés pour soutenir, amplifier et parfois même remplacer les rôles traditionnellement confiés aux décideurs humains : les chefs ou, mieux encore, les employeurs. Un phénomène que les chercheurs désignent comme « l’augmentation des prérogatives managériales classiques ». Si les motivations de cette évolution peuvent varier, elles se regroupent généralement autour d’une triade de justifications bien connue : une efficacité accrue (souvent assimilée à une réduction des coûts), une précision améliorée et une cohérence opérationnelle. Il est donc essentiel de se demander non seulement si ces résultats promis sont atteints, mais aussi à quel prix, notamment en termes d’atteinte aux droits des travailleurs et d’impact plus large sur la qualité des conditions de travail. 

De la vulnérabilité des entreprises qui intègrent des outils d’IA

Compte tenu de la concentration du marché des fournisseurs d’IA et de la structure dominée par les PME dans la plupart des économies, les entreprises intégrant ces outils deviennent elles-mêmes progressivement plus vulnérables. Faute de capacité à concevoir ces systèmes en interne, elles sont contraintes de louer ou d’acheter des technologies prêtes à l’emploi. Au final, elles sont confrontées aux mêmes risques systémiques que leurs employés, notamment parce que les systèmes d’IA en question sont majoritairement développés par des entreprises américaines, dont les logiques de conception et les cadres de conformité sont ancrés dans une culture socio-juridique sensiblement différente de celle des pays européens et de l’Union européenne. À cet égard, le problème est double. D’une part, ces technologies risquent d’éroder le savoir-faire organisationnel et nuire à la compétitivité. D’autre part, elles donnent lieu à ce que les chercheurs appellent « la dépossession des entreprises », un phénomène par lequel les entreprises et leurs dirigeants – sans parler de leurs employés – sont partiellement dépassés, surpassés, voire manœuvrés par des systèmes qu’ils ne maîtrisent ni ne comprennent pleinement. Pourtant, ces mêmes acteurs demeurent légalement et éthiquement responsables des actions et des résultats des systèmes qu’ils ont adoptés

Les grands modèles de langage et les systèmes de prise de décision automatisée, bien que techniquement distincts, reposent néanmoins sur une « infrastructure » commune, qui combine plateformes, données personnelles et processus d’apprentissage automatique. En substance, l’IA n’est pas un monolithe, mais un phénomène multicouche. Il est donc essentiel de déplacer l’attention des technologies les plus spectaculaires vers les contextes et les usages spécifiques dans lesquels elles sont déployées. Des travailleurs occupant un large éventail de postes administratifs et cognitifs ont commencé à intégrer des outils d’IA générative dans leurs tâches quotidiennes. Les premiers résultats suggèrent que cette « adoption discrète », libère du temps et ouvre de nouvelles perspectives d’autonomie, dans un environnement de travail plus satisfaisant. 

Cependant, cette émancipation est loin d’être acquise, explique Sarah O’Connor dans le Financial Times qui rappelle que selon une grande enquête britannique la « latitude décisionnelle » des salariés est en chute libre depuis les années 90. « En 1992, 62 % des travailleurs interrogés déclaraient disposer d’une grande latitude décisionnelle. En 2024, ils n’étaient plus que 34 % à l’affirmer. Avant 2017, ce déclin était surtout visible chez les personnes occupant des emplois peu rémunérés. Mais entre 2017 et 2024, la latitude décisionnelle a également diminué chez les cadres et les travailleurs hautement qualifiés. » Pour le chercheur Alan Felstead, le facteur le plus probable de cette chute est « l’utilisation accrue des technologies numériques » au travail. Les logiciels ont rendu le travail plus structuré et prescriptif, tout en améliorant la standardisation et la productivité.

​​Dans de nombreux cas, les gains de productivité ne sont pas réorientés vers l’amélioration de l’autonomie ou l’amélioration de la qualité du travail, au contraire, concluent Antonio Aloisi et Valerio De Stefano. Il faut faire plus avec moins, au risque d’un managérialisme en roue libre.

Pour les deux chercheurs, les outils d’IA ne sont ni des outils neutres ni des outils efficaces, mais des moyens de prédiction et de production qui doivent être interrogés à travers le prisme du pouvoir. Le risque est que le monde du travail se retrouve contronté à un « trou noir » de pouvoir algorithmique incontrôlé.

Vers une asymétrie de pouvoir sans contrepoids

Dans la plupart des systèmes juridiques, le contrat de travail confère à l’une des parties, (l’employeur), le pouvoir unilatéral de commander à l’autre. Cette asymétrie est justifiée au nom de l’ efficacité organisationnelle, permettant aux entreprises de coordonner l’activité productive avec un minimum de frictions. Le travailleur est censé accepter les changements unilatéraux apportés à sa discipline de travail, avec peu ou pas de possibilité de consentement ou d’objection, même si le droit a souligné que ce pouvoir n’était pas inconditionnel via des mécanismes de contrôle et d’équilibre destinés à limiter ses excès. Dans toutes les juridictions, ces contraintes juridiques remplissent une double fonction : elles sont censées aligner l’autorité managériale sur les valeurs des sociétés démocratiques et garantir que les processus décisionnels sont prévisibles, transparents et susceptibles de contestation. En bref, elles visent à rendre le pouvoir responsable et légitime aux yeux des personnes qui le subissent, comme c’est le cas des lois qui encadrent la surveillance des employés, qui limitent le temps de travail ou qui exigent un motif valable pour un licenciement ainsi que les droits d’information, de consultation, de négociation et d’action collectives. 

Toute la question désormais est de savoir si ces « contrepoids » peuvent résister aux turbulences causées par l’IA et les systèmes de prise de décision automatisée. Autrement dit de savoir si ces limites ont été soigneusement élaborées pour trouver un équilibre délicat, quoique imparfait, entre des intérêts concurrents. 

Mais que se passe-t-il quand l’employeur est augmenté d’une forme de pouvoir bien plus puissante, comme c’est le cas des systèmes algorithmiques et d’IA ? 

Le travail atypique dans l’économie des plateformes a servi de laboratoire à ces outils et pratiques qui, depuis, ont commencé à se répandre sur l’ensemble du marché du travail. C’est également pourquoi les interventions sectorielles, comme la directive sur le travail sur plateforme de la Commission européenne, bien que louables dans leur ambition, risquent de ne pas apporter de réponse crédible à la tendance structurelle plus large. Pourtant, la  gestion pilotée par l’IA est souvent présentée comme « inoffensive ». Elle ne serait qu’une « baguette magique » capable de résoudre nombre de problèmes du travail… Une vision qui vient d’abord alimenter un discours puissant qui « favorise une culture de complaisance et d’acceptation non critique »

En vérité, les logiciels basés sur les données sont de plus en plus impliqués dans tout le spectre des pouvoirs de l’employeur, de l’embauche au licenciement. Mais, « les nouvelles formes de gestion numérisée ne remplacent pas les structures d’autorité traditionnelles ; elles interagissent plutôt avec elles et les renforcent souvent. En pratique, les gestionnaires ont tendance à déployer ces technologies pour routiniser, étendre et consolider leur contrôle, amplifiant ainsi les sources et la portée de leur autorité. De ce fait, les prérogatives managériales se sont partiellement éloignées de ce qui était autrefois un régime d’autorité patronale plus discret et prévisible, donnant naissance à une forme de supervision et de gouvernance plus diffuse, persistante et technocratique », au risque de produire une « surveillance des travailleurs sans limites», comme le dénonçaient Kate Crawford, Ifeoma Ajunwa et Jason Schultz (voir également notre dossier). « Les systèmes de gestion automatisée peuvent intensifier les prérogatives managériales, amplifiant et intégrant les biais structurels et de conception au cœur même de l’architecture de la gouvernance du lieu de travail »… permettant d’étendre le contrôle et la surveillance au suivi cognitif, aux espaces privés et au-delà des horaires de travail. « Pire encore, la nature mécaniste de ces systèmes, combinée à leur capacité à extrapoler des schémas qui ne font que reproduire le statu quo, affaiblit les mécanismes de responsabilisation en créant un voile d’impénétrabilité et d’incompréhension ». Au niveau individuel, la plupart des travailleurs ignorent qu’ils sont « surveillés, évalués ou organisés » par des algorithmes, et sont tenus à distance du fonctionnement de ces systèmes et des critères qu’ils appliquent, ce qui érode la confiance. Au niveau collectif, le pouvoir de l’IA exerce un effet dissuasif sur l’exercice des droits collectifs, puisque la dégradation algorithmique peut être liée à l’engagement syndical, au risque de rendre la représentation collective impossible. 

Mais ces effets néfastes ont aussi des répercussions au niveau des entreprises elles-mêmes. Nombre d’entreprises utilisent des logiciels non européens, qu’elles ne maîtrisent pas et l’IA Act européen réserve aux déployeurs de systèmes beaucoup plus de contraintes qu’aux fournisseurs de systèmes d’IA. « La course actuelle à la « transformation par l’IA » des entreprises pourrait bien se révéler une pilule amère enrobée d’innovation ». Derrière la dépossession des entreprises, comme le pointait un éditorial du Financial Times : les gestionnaires commencent à déléguer la réflexion critique au système lui-même, cédant progressivement leur jugement et leur flexibilité à des machines qui sont, au mieux, sélectivement compétentes et, au pire, capricieuses et défaillantes. Leurs responsabilités pourraient se retourner contre elles. « En matière de réglementation sociale, les employeurs qui utilisent des systèmes algorithmiques sont tenus de démontrer et de documenter leur conformité à un large éventail d’obligations. Autrement dit, certaines réglementations numériques, comme la loi sur l’IA, ne s’appliquent pas en vase clos. D’où l’importance d’adopter une conception multidimensionnelle de la conformité, qui prenne en compte non seulement les normes techniques, mais aussi les droits des travailleurs, les principes de protection des données et les effets structurels de l’automatisation sur la gouvernance du travail ». Le dilemme est donc de savoir comment concilier les règles qui offrent une sécurité juridique aux employeurs avec les garanties qui protègent réellement les droits des travailleurs.

Dans ce contexte, la question juridique centrale est l’adéquation des mécanismes de contrôle existants. Par exemple, lorsque le pouvoir est fragmenté entre plusieurs entités, l’efficacité des recours existants est diluée. La responsabilité devient diffuse, et les mécanismes conçus pour contrôler les risques de sur-pouvoir managériaux deviennent inopérants. D’un point de vue individuel, engager la responsabilité des responsables du traitement des données ou des déployeurs d’IA devant les tribunaux peut s’avérer extrêmement difficile. D’un point de vue collectif, le défi est encore plus grand : contraindre un développeur, souvent basé dans des juridictions éloignées, à s’asseoir à la table des négociations et à « négocier l’algorithme » demeure un objectif largement idéal. Cette dynamique compromet l’application des garanties juridiques.

La protection des données risque d’être de plus en plus insuffisante

Les chercheurs donnent un autre exemple : le droit de la protection des données est souvent cité comme un outil prometteur pour insuffler de la transparence et permettre un examen attentif des décisions prises par l’IA. Par exemple les droits de notification et d’accès, de contestation et de rectification des décisions, l’obligation de réaliser des analyses d’impact relatives à la protection des données, et des limitations à la collecte de données et aux utilisations secondaires qui s’écartent de la finalité initiale de la collecte.. permettent souvent de rendre concret l’application de la protection des données. Mais ces droits ne sont pas suffisants. 

Premièrement, le cadre actuel, uniforme et standardisé, repose sur une logique individualiste et axée sur le consommateur (et attend toujours d’être complété par des instruments sectoriels adaptés au monde du travail). De plus, le contexte réglementaire évolue : la perspective d’une déréglementation, à peine déguisée en simplification, plane désormais sur le RGPD. 

« Deuxièmement, et c’est plus grave encore, une focalisation excessive sur les données personnelles risque de renforcer un raisonnement erroné : elle oriente l’attention vers le vecteur – la technologie elle-même – plutôt que vers les effets qu’elle produit, en particulier lorsque ces effets façonnent concrètement la vie, les opportunités et les droits des individus au travail ».

Les droits à l’information et à la consultation relatifs aux systèmes automatisés sont tout aussi insuffisants, Ils peuvent créer une illusion de transparence et d’activation des droits collectifs. On pourrait au contraire affirmer que « les systèmes d’IA se substituent de fait au cœur de la négociation collective, en permettant au système, et par extension à l’employeur, de fixer unilatéralement des conditions de travail essentielles, telles que la répartition des tâches, le temps de travail, les critères d’évaluation et même la modulation des salaires ». « Dans ce contexte, se contenter de droits à l’information et à la consultation n’est pas un compromis pragmatique: cela revient à vider de sa substance même la négociation collective ». Les employeurs ne doivent rendre des comptes que sur les procédures. Dans la loi sur la protection des données personnelles et l’intelligence artificielle – et l’on pourrait dire la même chose de la nouvelle initiative du Parlement européen sur la gestion des actifs numériques au travail – la logique est inversée. Ici, l’information et la consultation ne servent pas de contraintes, mais potentiellement de légitimations procédurales d’un système qui a déjà déplacé le pouvoir en amont, loin de la table des négociations et dans les rouages ​​internes d’une « autorité codée ». « En effet, lorsque la technologie joue le rôle de l’employeur sans les devoirs, l’obligation de rendre des comptes nie la visibilité qui incombe aux véritables employeurs : la consultation devient une formalité a posteriori. Ce qui relevait traditionnellement du champ de la négociation collective est rendu intouchable car préstructuré par une conception technique ».

« Il est donc impératif de modifier notre approche théorique et notre stratégie réglementaire lorsqu’il s’agit d’aborder les systèmes d’IA dans le monde du travail. Ce serait une erreur d’aborder ces technologies uniquement sous l’angle de la législation sur la protection des données et la sécurité, ou par une approche fragmentaire, fonction par fonction, qui associe les droits à la vie privée à, par exemple, les dispositions relatives à la non-discrimination ou à la santé et la sécurité au travail. Jusqu’à récemment, les technologies sur le lieu de travail ciblaient principalement les actifs de l’entreprise (par exemple, les machines), produisant des effets indirects sur le travail. Ces changements relevaient des prérogatives managériales et étaient généralement protégés par la liberté d’entreprendre. Lorsque les systèmes d’IA régissent les personnes plutôt que les outils, y compris sur le lieu de travail, l’accent réglementaire devrait passer des libertés économiques à la protection des droits fondamentaux. Dans ce contexte, le droit de la protection des données à lui seul est insuffisant pour faire face aux risques posés par l’IA.» 

Bien que la protection des données soit importante, elle est loin de couvrir l’ensemble des préoccupations qui surgissent dans les relations de travail. « De nombreux préjudices associés aux systèmes algorithmiques comme l’opacité, le renforcement du contrôle ou les résultats discriminatoires ne découlent pas nécessairement d’atteintes à la vie privée et ne se limitent pas à la violation du droit au respect de la vie privée des travailleurs. Pour bien appréhender les risques liés à la gestion automatisée des données, la protection de la vie privée doit être replacée dans le contexte plus large des lieux de travail, où l’autorité managériale imprègne toute la personne du travailleur. Le pouvoir de l’employeur ne s’exerce pas de manière cloisonnée – affectant la rémunération un jour, le temps de travail un autre, et la vie privée ou la discrimination à d’autres occasions. Au contraire, chaque expression de la prérogative managériale engage le travailleur de manière multidimensionnelle. Elle cible la personne dans son ensemble, avec des implications potentielles simultanées dans de multiples domaines juridiques et personnels. C’est pourquoi les réponses aux abus de pouvoir de l’employeur doivent aller au-delà de la protection des données et s’appuyer sur les outils traditionnels du droit du travail – notamment les droits collectifs des travailleurs, mais aussi les protections individuelles qui imposent à l’employeur des obligations de justification et de proportionnalité ». On peut penser par exemple au fait que les plateformes débranchent leurs employés au prétexte d’une mauvaise note du client ou d’une rapidité d’exécution insuffisante, sans possibilité de recours, ou au fait que sur les plateformes de travail, il soit très difficile aux employés de contacter l’employeur… 

« Les systèmes algorithmiques et d’IA au travail incarnent en réalité une forme de pouvoir radicalement nouvelle, capable d’étendre excessivement les pouvoirs managériaux et de supplanter les mécanismes de contrôle et d’équilibre établis ». « Ils ne fragmentent pas le pouvoir de l’employeur : ils l’étendent et l’intensifient ». C’est précisément pourquoi ils doivent être traités comme une catégorie réglementaire et conceptuelle distincte au sein de la notion d’autorité patronale. Il serait erroné de les considérer comme des intrusions techniques isolées plutôt que comme des expressions d’une autorité managériale unifiée et étendue.

« Les technologies ne doivent pas être considérées comme de simples actifs de l’entreprise, fondés sur des droits de propriété. Compte tenu de leur impact considérable et de leur influence sur le comportement, les conditions et les perspectives des travailleurs, des garanties renforcées, notamment des formes de codétermination, devraient être mises en place. L’ensemble des principes du droit du travail doit être déployé : justification des décisions, droits à la codétermination, dialogue social, transparence et, le cas échéant, interdictions pures et simples». « Le pouvoir doit être à la fois autorisé et encadré pour rester légitime ». 

Ce que font les patrons algorithmiques au travail, estiment les chercheurs : c’est une transformation structurelle du pouvoir et non une simple évolution. L’IA et les systèmes de gestion automatisée intensifient, consolident et obscurcissent les prérogatives managériales, intégrant le pouvoir de l’employeur dans des systèmes techniques difficiles à examiner ou à contester. Il en résulte un paradoxe : l’autorité managériale est à la fois renforcée et supplantée. Les décideurs peuvent se fier à des résultats qu’ils ne comprennent pas pleinement, tandis que les travailleurs sont confrontés à des structures de contrôle opaques et axées sur les données qui résistent à toute responsabilisation. Par conséquent, les cadres juridiques existants, tels que la loi sur la protection des données et les droits à l’information et à la consultation en vertu de la loi sur l’IA ou de la loi sur la protection des données personnelles sont insuffisants. Ils fonctionnent souvent selon une logique fragmentée et individualisée, mal adaptée pour appréhender les mutations systémiques du pouvoir. 

Une nouvelle approche est donc nécessaire. Plutôt que de traiter l’IA comme un actif neutre pour l’entreprise, l’IA doit être appréhendée comme une forme d’autorité distincte qui nécessite des garanties renforcées, faisant appel à des outils juridiques spécifiques et à l’ensemble des droits du travail et des mécanismes de contrôle habituellement utilisés pour « dompter » les prérogatives managériales, et notamment les droits à la négociation collective et à la codécision. 

Si l’IA est un instrument de pouvoir, elle recèle également le potentiel de démocratiser ce pouvoir, estiment pourtant Antonio Aloisi et Valerio De Stefano. Correctement conçue et déployée de manière responsable, l’IA pourrait être mise à profit pour créer des environnements de travail plus sûrs, plus inclusifs et plus participatifs. Une vérité souvent négligée est que l’IA peut servir de catalyseur pour repenser les structures de travail, la dynamique d’équipe et l’organisation de l’entreprise, par exemple en permettant de s’extraire de l’occupation permanente que les entreprises survalorisent, ce « théâtre de la productivité ». Les transformations technologiques pourraient permettre d’accorder aux travailleurs des niveaux croissants de pouvoir et d’autonomie, leur permettant d’organiser leurs tâches, de structurer leurs horaires et de consacrer du temps à des efforts créatifs et innovants. La littérature montre que les environnements qui soutiennent l’autonomie personnelle tendent à renforcer le sens des responsabilités des travailleurs, à stimuler la motivation intrinsèque et à promouvoir le développement des compétences.

« Pourtant, les travailleurs sont fréquemment exclus de la définition des aspects fondamentaux de leur travail, tels que la définition des objectifs, le choix des méthodes, la détermination des échéanciers et la participation à la conception des systèmes de mesure du rendement ». Et il est probable que la généralisation des outils d’IA et de contrôle algorithmique les en éloigne toujours plus

Plus qu’un outil d’émancipation, « l’IA est utilisée pour aggraver les asymétries en intégrant le contrôle à l’architecture même des processus de travail »

Les débats sur l’essor de l’IA agentive, conçue non seulement pour répondre à des sollicitations, mais aussi pour agir de manière autonome, prendre des décisions et exécuter des séquences de tâches complexes promettent une intervention humaine toujours plus minimale. La question du pouvoir d’agir des travailleurs – leur capacité à agir, et à influencer leurs propres conditions de travail – reste  étonnamment absente de ce débat. Ce pouvoir d’agir peut s’épanouir dans des environnements anti-hiérarchiques, caractérisés par des structures démocratiques et des dispositions progressistes et souhaitables, mais trop souvent relégués au second plan. Or, les hiérarchies existantes au travail ne sont pas innées. Bien que souvent justifiées par l’efficacité, elles restent, en particulier dans leurs formes les plus rigides et stéréotypées, sujettes à contestation. Une approche de conception technologique centrée sur le travailleur pourrait être l’occasion de réexaminer ces hypothèses. Elle pourrait permettre de remettre en question les idées reçues sur la verticalité des structures organisationnelles pour privilégier des modèles plus responsabilisants, inclusifs et à l’écoute des personnes traditionnellement exclues de la prise de décision. Jusqu’à présent, ces théories sont restées largement confinées aux cercles universitaires ou à des modèles organisationnels marginaux, tels que les coopératives de travailleurs. La recherche a cependant démontré que la consultation entre travailleurs, gestionnaires et représentants du comité d’entreprise peut produire des résultats gagnant-gagnant, améliorant à la fois la performance organisationnelle et le bien-être des employés. De même, les résultats tendent à être plus positifs lorsque les travailleurs ou leurs représentants sont consultés lors de l’introduction et de l’utilisation des technologies d’IA sur le lieu de travail. Ils sont mieux placés pour sélectionner des technologies fonctionnelles, définir des limites claires, identifier les indicateurs clés et éviter les erreurs, en adoptant une attitude pragmatique. L’IA pourrait-elle ouvrir une nouvelle voie, permettant de repenser les lieux de travail selon des modalités plus participatives ? ​​

Pas sûr que nous en prenions la voie. Mais cette histoire là reste encore à écrire.

  • ✇Dans les algorithmes
  • De la mainmise des entreprises sur le savoir
    Pour le San Francisco Chronicle, le spécialiste de la sécurité Bruce Schneier et l’avocat de l’association Public Citizen J.B. Branch comparent le comportement de la justice américaine à l’égard d’Aaron Swartz et des entreprises d’IA aujourd’hui. Alors que la course à l’armement actuelle en matière d’IA implique une appropriation de l’information bien plus vaste que celle que dénonçait Swartz par son action il y a 16 ans, la violation du droit d’auteur est présentée désormais comme une étape reg

De la mainmise des entreprises sur le savoir

21 janvier 2026 à 07:00

Pour le San Francisco Chronicle, le spécialiste de la sécurité Bruce Schneier et l’avocat de l’association Public Citizen J.B. Branch comparent le comportement de la justice américaine à l’égard d’Aaron Swartz et des entreprises d’IA aujourd’hui. Alors que la course à l’armement actuelle en matière d’IA implique une appropriation de l’information bien plus vaste que celle que dénonçait Swartz par son action il y a 16 ans, la violation du droit d’auteur est présentée désormais comme une étape regrettable mais nécessaire pour l’innovation.

« Les systèmes entraînés sur de vastes corpus de recherches financées par des fonds publics deviennent de plus en plus le principal moyen d’accès à l’information scientifique, juridique, médicale et politique. La recherche, la synthèse et l’explication étant assurées par des modèles d’IA, le contrôle des données et de l’infrastructure d’entraînement se traduit par un contrôle des questions posées, des réponses proposées et des experts reconnus comme faisant autorité. Si le savoir public est absorbé par des systèmes propriétaires que le public ne peut ni inspecter, ni auditer, ni contester de manière significative, l’accès à l’information n’est plus régi par les normes démocratiques, mais par les priorités des entreprises.» Swartz avait compris que l’accès au savoir est une condition préalable à la démocratie. « La manière dont nous traitons le savoir – qui peut y accéder, qui peut en tirer profit et qui est puni pour le partager – est devenue un test de notre engagement démocratique.»

  • ✇Dans les algorithmes
  • Coincés dans les applications de nettoyage
    En Europe, des milliers d’agents d’entretien travaillent via des applications de nettoyage comme CleanWhale ou Helpling. La dernière enquête sur l’économie des travailleurs de plateformes estimait qu’en 2021, 28 millions d’Européens effectuaient au moins une fois par mois un travail via une application. Parmi eux, 3 millions étaient chauffeurs et 1 million occupaient des emplois « peu qualifiés, sur site » et les autres travaillent en ligne…, mais aucune ventilation plus précise par secteur n’es

Coincés dans les applications de nettoyage

20 janvier 2026 à 07:00

En Europe, des milliers d’agents d’entretien travaillent via des applications de nettoyage comme CleanWhale ou Helpling. La dernière enquête sur l’économie des travailleurs de plateformes estimait qu’en 2021, 28 millions d’Européens effectuaient au moins une fois par mois un travail via une application. Parmi eux, 3 millions étaient chauffeurs et 1 million occupaient des emplois « peu qualifiés, sur site » et les autres travaillent en ligne…, mais aucune ventilation plus précise par secteur n’est disponible. 

« Le secteur du nettoyage a pourtant déjà été largement « ubérisé » bien avant Uber », rappelle le journaliste Nicolas Kayser-Bril dans la newsletter d’Algorithm Watch. L’activité a toujours été largement informelle, et l’emploi à temps plein est l’exception. La tendance à l’externalisation depuis les années 90 a fait disparaître la stabilité de l’emploi et les rémunérations décentes. 

Si les chercheurs ont beaucoup étudié les chauffeurs et les coursiers, c’est moins le cas des travailleurs du ménage. Mais de nombreuses études nationales sont venues éclairer le secteur, notamment via le projet de recherche Origami (hOme caRe dIGital plAtforM and Industrial relations, Plateforme numérique de soins à domicile et relations industrielles) qui estime que les services à la personne et le travail domestique proposés par les plateformes représentent environ 22 % de l’ensemble du travail sur les plateformes.

« Pour les agents de nettoyage utilisant des applications, un aspect du travail est entièrement automatisé : l’estimation du temps nécessaire pour une intervention. La plupart des services en ligne fixent ce temps en fonction de la superficie des locaux (une information saisie par le client). Ce calcul très approximatif – sans parler de la tentation pour les clients de mentir et de sous-estimer la durée – est souvent source de conflits. Une fois sur place, les agents doivent expliquer qu’ils ne peuvent pas terminer la prestation ou qu’ils doivent rester plus longtemps et être rémunérés en conséquence. Or, en pratique, les agents de nettoyage ont très peu de marge de manœuvre sur ces espaces en ligne. Une mauvaise note des clients pouvant les empêcher de trouver d’autres missions, et la charge de la preuve leur incombant en cas de litige, beaucoup considèrent que travailler gratuitement est la solution la moins mauvaise. Au Danemark, une femme de ménage a expliqué qu’elle vérifiait la superficie du logement sur le cadastre avant d’accepter une mission, afin de s’assurer que les informations fournies par le client correspondaient à la réalité ». 

« Les femmes de ménage, majoritairement immigrées, sont également victimes de harcèlement sexuel. À cet égard, les applications fonctionnant grâce à des algorithmes ne changent pas grand-chose. Ces applications présentent souvent les femmes de ménage avec de grandes photos, les incitant à paraître plus attirantes et les clients à les objectifier ». Ce qui n’est pas vraiment une solution pour s’attaquer au problème !

Comme le pointent les conclusions du projet Origami (voir également les productions), le manque de transparence est problématique, car les travailleuses et les travailleurs ne peuvent souvent pas contester les évaluations injustes ni les licenciements arbitraires (suspension ou désactivation, temporaire ou permanente). Et les problèmes de sécurité sont souvent ignorés par la plateforme (notamment, le harcèlement). En fait, dans les applications de ménage comme sur nombre de services numériques, il n’y a pas de voie de recours. 

Si les modèles basés sur les plateformes améliorent la flexibilité, l’accessibilité et la visibilité du travail domestique et des services à la personne. Ils reproduisent et intensifient les vulnérabilités sectorielles de longue date, telles que la précarité du temps de travail, l’instabilité des revenus et la fatigue physique et psychosociale. « La planification algorithmique entraîne des horaires imprévisibles, des horaires très courts ou très longs, des périodes d’attente non rémunérées, contribuant à l’instabilité des revenus et à la pauvreté au travail, affectant de manière disproportionnée les femmes. La précarité de l’emploi est encore aggravée par le fait que la majorité des plateformes instaurent un modèle de travail indépendant, privant ainsi les travailleurs de leurs droits légaux, tels que le salaire minimum, le temps de travail, les congés payés, l’assurance maladie et les régimes de retraite »

La faible représentation des travailleurs, atomisés par l’indépendance et la plateformisation et la faible couverture des conventions collectives sont toujours plus marquées chez les travailleurs des plateformes que dans tout autre secteur. 

Améliorer la directive sur les travailleurs des plateformes

Dans une note de synthèse du projet Origami, signée par Ilda Durri, Diana Dovgan, Slavina Spasova et Danai Konstantinidou, les chercheurs examinent comment la législation européenne pourrait garantir de meilleures conditions de travail et une protection sociale adaptée aux travailleurs des plateformes. Ils observent comment les principes inscrits dans la directive sur le travail des plateformes (comme la présomption d’emploi, la transparence algorithmique et la participation des travailleurs) pourraient s’appliquer au secteur du travail de soins de plus en plus plateformisé. 

Fin 2024, les institutions européennes ont adopté la directive sur le travail sur plateforme, qui devrait entrer en vigueur fin 2026 et faciliter l’obtention du statut de salarié pour les travailleurs indépendants. Or, soulignent les chercheurs, « la très grande diversité des statuts d’emploi dans le secteur, sa grande fragmentation, la faible représentation collective, les relations de travail ambiguës et la surveillance réglementaire limitée entravent les efforts à produire des normes réglementaires cohérentes ». « Dans tous les contextes, la numérisation est apparue à la fois comme un une source de nouvelle précarité » tout en échappant au contrôle réglementaire. Les problèmes existants dans le secteur des soins à domicile – tels que la précarité du temps de travail, l’instabilité des revenus et la fatigue physique et psychosociale – sont souvent amplifiés par les plateformes numériques. La planification algorithmique des horaires entraîne des horaires imprévisibles, très courts ou très longs et du temps d’attente non rémunéré. Des dynamiques qui contribuent à l’instabilité des revenus et à la pauvreté au travail, dans un secteur où les travailleurs sont déjà systématiquement sous-payés. 

La gestion algorithmique et la dépendance aux évaluations des clients sabotent davantage l’organisation collective. Les plateformes s’opposent fréquemment aux conventions collectives, arguant qu’elles ne sont pas des employeurs, ce qui aggrave la précarité des travailleurs. Les performances des travailleurs sont suivies, classées et sanctionnées par des systèmes de notation opaques qui déterminent l’accès aux emplois futurs. Cette forme indirecte de contrôle accroît la pression sur la performance et peut entraîner une désactivation en cas de performance jugée insuffisante ou d’insatisfaction du client. Le flou des responsabilités entre les plateformes et les clients rend plus difficile l’établissement des responsabilités concernant les conditions de travail et les violations des droits. « Sans intervention réglementaire efficace aux niveaux national et européen, les plateformes numériques risquent d’aggraver la précarité des soins à domicile plutôt que d’en améliorer la qualité ou la pérennité », préviennent les chercheurs. 

Ceux-ci rappellent qu’il y a plusieurs modèles de plateformes qui déploient des processus de mise en relation différents : 

  • La place de marché – la plateforme ne gère ni le processus de mise en relation ni la relation de travail ; 
  • L’agence numérique – la plateforme gère à la fois la mise en relation et la régularisation (soit en tant qu’employeur, soit en formalisant le contrat de travail entre les parties) ; 
  • La relation à la demande – la plateforme gère le processus de mise en relation mais pas la relation de travail ; 
  • Et la place de marché réglementée – la plateforme ne gère pas directement la mise en relation mais assure la régularisation de la relation de travail, directement ou indirectement.


Selon le modèle adopté, il y a différents degrés de contrôle sur les travailleurs qui sont cruciaux pour la responsabilité juridique des plateformes et le statut professionnel des travailleurs.

Un pilier central de la directive sur le travail des plateformes est la présomption légale réfutable de relation de travail (article 5), conçue pour lutter contre la requalification abusive généralisée des travailleurs en indépendants. La présomption pourrait conduire à la requalification des travailleurs des plateformes à domicile, passant de travailleurs indépendants à salariés, leur donnant ainsi accès aux droits fondamentaux du travail et à la protection sociale. La plupart des personnes prodiguant des soins étant des femmes, il est essentiel qu’elles bénéficient de droits tels que le congé de maternité et le congé parental. 

L’exemple de la convention collective adaptée par la plateforme de nettoyage danoise Hilfr et le syndicat 3F (qui, en 2018, a permis aux travailleuses, après 100 heures de travail pour la plateforme, de devenir salariées, comme l’explique l’article dédié de L’Humanité et du Digital Platform Observatory) souligne pourtant que les modèles fondés sur l’emploi constituent une option viable, même dans le secteur des services à domicile et du nettoyage. D’autres modèles semblent vertueux, expliquent encore les chercheurs, comme modèle français du mandataire, où le client a le statut légal d’employeur, tandis que la plateforme exerce des fonctions essentielles liées à l’emploi, telles que le paiement, la gestion des congés et les licenciements, conformément à la convention collective nationale. La relation est régie par un contrat de délégation précisant les responsabilités respectives de chaque partie. De manière générale, la typologie de la plateforme – allant de la place de marché à l’agence numérique – joue un rôle déterminant pour établir si la présomption de travail s’applique.

Une disposition importante pour la protection des aides à domicile et des travailleurs domestiques contre les pratiques algorithmiques discriminatoires est l’obligation faite aux fournisseurs de services de traitement des données de réaliser des analyses d’impact évaluant comment le traitement des données personnelles au moyen de systèmes automatisés affecte la protection des données personnelles des travailleurs. Ceci garantit que les plateformes identifient et atténuent les biais algorithmiques et la discrimination, notamment sur des critères tels que le sexe, l’origine ethnique ou l’âge. Ceci est particulièrement pertinent dans le travail domestique et les services à domicile, où les femmes, les migrants et les travailleurs âgés sont surreprésentés. De plus, compte tenu de l’impact potentiellement néfaste des systèmes automatisés, en particulier en matière de discrimination, les plateformes sont tenues de mettre en place des ressources humaines pour les surveiller et les évaluer. Malgré ces avancées, des risques de conformité superficielle persistent. Les plateformes peuvent ne fournir que des informations algorithmiques génériques ou invoquer le secret commercial pour éviter une transparence réelle. Sans application rigoureuse et des normes de divulgation claires, la capacité des travailleurs à exercer leurs nouveaux droits pourrait être compromise.

La directive promeut le droit à la négociation collective et impose aux plateformes de travail l’obligation de faciliter les canaux de communication entre les travailleurs et leurs représentants. Ces canaux sont d’autant plus nécessaires en raison de l’absence de lieu de travail partagé. Cependant, leur mise en œuvre concrète demeure incertaine pour diverses raisons, notamment la sécurité de ces canaux vis-à-vis des plateformes qui en sont en dernier ressort responsables. Là encore, l’accord Hilfr illustre concrètement comment la négociation collective peut être applicable dans l’économie des plateformes. Il permet au syndicat d’intégrer à la plateforme un lien portant son logo, qui redirige les travailleurs vers un espace numérique dédié – un « club syndical numérique » – exclusivement accessible aux travailleurs et non à l’entreprise.

Enfin, la directive sur le travail des plateformes exige des plateformes qu’elles prennent des mesures préventives et établissent des mécanismes de signalement pour protéger la sécurité et la santé des travailleurs, notamment contre la violence et le harcèlement. Ces dispositions sont particulièrement importantes pour les aides à domicile et les travailleurs domestiques, qui travaillent souvent seuls dans des foyers privés. La directive oblige également les plateformes à évaluer et à atténuer ces risques, y compris les risques psychosociaux. 

Une autre option devrait enfin être encouragée, expliquent les chercheurs : le développement de coopératives de plateformes. Alors que la directive sur le travail sur plateforme est une intervention réglementaire descendante, des initiatives émergentes telles que les coopératives de plateformes démontrent comment la numérisation peut s’aligner sur la justice sociale et le travail décent. Les coopératives de plateformes, basées sur le modèle coopératif, sont apparues partout comme une réponse efficace aux défis posés par l’économie des plateformes. Bien qu’encore en développement, leur potentiel pour transformer le travail de soins organisé par les plateformes numériques est immense. Les coopératives restent la forme d’organisation où, plutôt que d’utiliser des algorithmes pour contrôler ou surveiller les travailleurs, ceux-ci sont déployés pour les autonomiser. Mais surtout, les travailleurs possèdent et contrôlent les données générées par la plateforme, garantissant ainsi qu’elles servent leurs intérêts, et non ceux d’éventuels actionnaires externes. Reste qu’il y a une concurrence très inégale entre les plateformes et les coopératives que le législateur devrait adresser. Les plateformes coopératives, qui privilégient les pratiques éthiques, des normes de travail et sociales plus élevées, peinent à être compétitives. L’absence de législation spécifique aggrave ce problème, permettant aux plateformes capitalistes d’opérer en toute impunité et de saper les efforts des acteurs de bonne foi, tels que les coopératives de plateformes. 

Les juristes Antonio Aloisi et Nastazja Potocka-Sionek estiment dans un article très structurant que la directive sur les travailleurs des plateformes pourrait avoir du mal à s’appliquer aux femmes de ménages. Les intermédiaires que sont les plateformes pourraient ne pas être considérés comme des employeurs, à la fois parce que le client fixe souvent le tarif et les conditions (même si le personnel d’assistance des applications exerce souvent des pressions, incitant les femmes de ménage à attendre leurs clients ou réprimandant ou invisibilisant celles qui fixent des tarifs trop élevées ou qui refusent des missions). Les intermédiaires numériques perpétuent et exacerbent des problèmes structurels de longue date, notamment la précarité temporelle, l’instabilité des revenus et les asymétries de pouvoir. Pour eux, la directive sur les travailleurs des plateformes ne permet pas de prendre pleinement en compte la complexité du travail domestique et ses défis spécifiques.

Eux aussi soulignent que la plateformisation revêt de nombreuses formes. Reste que l’intermédiation de la relation et l’organisation du travail par le biais de plateformes dédiées introduisent toutes des pratiques organisationnelles en s’appuyant sur des outils technologiques de contrôle et des systèmes de prise de décision automatisés qui ont des impacts profonds sur le quotidien des travailleurs domestiques. Les modèles économiques des plateformes restent très variées (entre places de marché, plateformes à la demande et agences de placement…). « Certaines s’apparentent à un moteur de recherche où travailleurs et clients sont mis en relation avec un minimum de supervision. D’autres fonctionnent comme des plateformes numériques de type « Uber », offrant une intermédiation plus structurée et un contrôle accru sur le processus de travail. Enfin, certaines adoptent un modèle plus proche d’une agence de travail temporaire « traditionnelle », gérant directement les placements et les relations entre travailleurs et clients ». Les modalités de travail liées aux plateformes s’avèrent difficiles à classifier, notamment lorsque le contrôle des travailleurs domestiques est partagé entre les clients et la plateforme (et la directive n’a pas pour objectif d’uniformiser les modèles économiques des plateformes). Un nombre important de travaux de recherche soutient que l’émergence de nouveaux acteurs a intensifié, remodelé et perpétué des problèmes structurels profondément enracinés. Cette perspective illustre les « continuités historiques » entre les plateformes numériques et leurs homologues pré-numériques, montrant comment nombre des problèmes observés aujourd’hui font écho à ceux associés aux intermédiaires traditionnels du secteur. Les arrangements triangulaires, voire multipartites plus complexes, ont longtemps été la norme plutôt que l’exception dans ce domaine, tout comme le travail non déclaré. 

Sur ces plateformes, les algorithmes jouent un rôle central non seulement lors du recrutement et de l’intégration, mais aussi dans la mise en relation des intervenants et des clients. Sur certaines plateformes, la surveillance électronique permet de raccourcir la durée des visites en raison de la pression liée à l’enchaînement des visites. Nombre d’outils incitent les travailleurs à étendre leur disponibilité sur de longues plages horaires ou à des horaires atypiques. La disponibilité est souvent un critère fort de l’évaluation par le client comme par la plateforme. La tarification dynamique algorithmique influe considérablement sur la détermination des taux horaires. En bref, résument les deux juristes, « le surplus de données collectées et générées par les plateformes est principalement exploité au profit des clients finaux, plutôt que pour résoudre des problèmes tels que l’imprévisibilité, les risques pour la santé et la sécurité, ou améliorer les rémunérations ». Bien que conçus en apparence pour améliorer la productivité, les systèmes de gestion des activités servent principalement à suivre les heures de travail et à exercer un contrôle sur la répartition des tâches au profit des intermédiaires. 

Les asymétries d’information se reflètent également dans la conception de l’application, où les clients peuvent recevoir des informations détaillées sur les travailleurs, tandis que, d’autre part, les travailleurs ne reçoivent que peu d’informations sur les clients. 

Il est indéniable que les modèles de travail axés sur les tâches, les horaires irréguliers entraînant une instabilité des revenus, des heures fragmentées, des durées de travail excessivement longues ou, à l’inverse, l’absence de garanties d’emploi stables, contribuent tous à la précarité des conditions de travail des travailleurs domestiques. Mais l’adoption des systèmes de gestion active aggrave ces problèmes en imposant des horaires dictés par les demandes fluctuantes des clients et des plateformes, laissant souvent aux travailleurs peu de contrôle sur l’organisation de leur temps. Le secteur du travail domestique est parmi ceux où les horaires de travail non conventionnels sont depuis longtemps la norme. « Dans un cercle vicieux, l’instabilité des revenus est étroitement liée à l’intensification du travail ».

La directive sur les travailleurs des plateformes poursuit trois objectifs principaux contribuant à l’objectif général d’amélioration des conditions de travail des travailleurs sur plateforme :  faciliter l’établissement d’un statut d’emploi correct ; protéger les données personnelles des travailleurs sur plateforme ; et améliorer la transparence concernant le travail sur les plateformes. La directive réaffirme le principe de la primauté des faits, selon lequel c’est l’exécution effective du travail, et non la description contractuelle de la relation entre les parties, qui est déterminante pour la qualification de l’emploi. Deuxièmement, elle prévoit que si une relation de travail est établie, « la ou les parties assumant les obligations de l’employeur » doivent être clairement identifiées. Troisièmement, et surtout, les travailleurs qui fournissent leurs services par le biais de plateformes numériques bénéficient de la présomption d’une relation de travail avec ces plateformes. 

L’entrée en vigueur de la directive pourrait entraîner une augmentation des litiges qui, jusqu’à présent, sont restés marginaux dans le domaine du travail domestique. Reste que la qualification des travailleurs domestiques comme employés de plateformes pourrait s’avérer complexe, concluent les juristes. L’exercice du « contrôle et de la direction » par les plateformes de travail domestique est généralement plus ténu que dans d’autres secteurs, tant et si bien que certains parlent de « gestion algorithmique mineure ». Par exemple, cela se manifeste dans le domaine du temps de travail, où l’horaire précis est fixé par le client et le travailleur, mais la plateforme peut sanctionner les travailleurs en cas de non-respect de cet horaire ou de modification à préavis trop court. Mais la directive sur le travail des plateformes ne contient aucune disposition relative au temps de travail ou au cadencement… Alors que c’est bien ce que les plateformes organisent.

  • ✇Dans les algorithmes
  • Travailleurs d’intimité
    L’enquête sur les travailleurs de la donnée (Data Workers’ Inquiry Project) est une initiative de recherche participative mondiale et radicale qui consiste à transformer les travailleurs du clic en chercheurs et chercheuses au sein de leur communauté afin qu’elles et qu’ils produisent des formats pour raconter leurs histoires. Pour y parvenir, les chercheuses et chercheurs qui ont initié le projet – notamment le Distributed AI Research Institute (DAIR, mené par Timnit Gebru et Alex Hanna) ont cr

Travailleurs d’intimité

19 janvier 2026 à 07:00

L’enquête sur les travailleurs de la donnée (Data Workers’ Inquiry Project) est une initiative de recherche participative mondiale et radicale qui consiste à transformer les travailleurs du clic en chercheurs et chercheuses au sein de leur communauté afin qu’elles et qu’ils produisent des formats pour raconter leurs histoires. Pour y parvenir, les chercheuses et chercheurs qui ont initié le projet – notamment le Distributed AI Research Institute (DAIR, mené par Timnit Gebru et Alex Hanna) ont créé et développé une méthodologie de recherche spécifique, « un cadre conçu pour transformer le travail invisible et précaire en un espace partagé et politisé de production de connaissances, d’engagement citoyen et de changement concret », capable de s’adapter à d’autres contextes, comme l’explique leur article de recherche.

Mais il n’y a pas que la méthode qui est intéressante dans le Data Workers’ Inquiry. Il y a aussi les résultats. Sous la plume du chercheur et travailleur de la donnée Michael Geoffrey Asia, le programme vient de publier un rapport sur « Le travail émotionnel derrière l’intimité de l’IA ». Michael Geoffrey Asia est opérateur de messagerie instantanée à Nairobi, au Kenya. Pendant des années, il a été payé pour entretenir des conversations à caractère romantique et sexuel avec des personnes du monde entier. Michael touchait 0,05 $ par message et devait taper au moins 40 mots par minute, tout en gérant plusieurs conversations simultanément. Michael explique que son travail de « modérateur de tchat » nécessitait d’adopter plusieurs identités fictives depuis des profils créés par l’entreprise pour engager des conversations intimes et explicites avec des hommes et des femmes seuls. « L’entreprise exigeait que nous posions des questions personnelles, que nous nous souvenions de détails sur la vie des utilisateurs et que nous répondions de manière à ce qu’ils se sentent écoutés et importants. Je passais des heures à rédiger des messages destinés à faire en sorte que des inconnus se sentent spéciaux, désirés, voire aimés ». Mais ce que raconte Michael, c’est le conflit de valeur entre ce poste et lui-même, contraint par ce travail à tenir des propos spécifiques. L’accord de confidentialité qui semblait une simple protection de la vie privée des conversations qu’il avait à gérer est devenu un instrument pour silencier la réalité de son travail : c’est-à-dire dire à des inconnus qu’il les aimait.« L’accord de confidentialité ne protégeait pas seulement le modèle économique de l’entreprise ; il nous isolait, nous empêchant de demander de l’aide ou même d’expliquer à nos familles ce que nous faisions réellement pour gagner de l’argent ». « Comment expliquer qu’on est payé pour dire à des inconnus qu’on les aime, alors que sa vraie famille dort à trois mètres de là ? » 

Il ne s’agissait pas d’un simple travail de tchat, mais d’un système de production étroitement surveillé. Chaque interaction était suivie grâce à des indicateurs clés de performance (KPI), notamment le volume de messages, le temps de réponse, l’engagement des utilisateurs et la continuité. Atteindre ces objectifs était obligatoire. Nous devions maintenir de longues conversations personnalisées avec plusieurs utilisateurs et sur plusieurs équipes, sans sortir de notre rôle, explique Michael. Notre précision, notre créativité et notre vitesse de frappe étaient constamment mesurées. Le non-respect des indicateurs de performance pouvait entraîner des avertissements, une réduction des missions, voire un licenciement. Ce qui semblait être un simple rôle de conversation était en réalité un système de haute pression exigeant une performance continue. « J’entraînais mon propre remplaçant. J’apprenais aux machines à manipuler les personnes seules de la même manière que j’étais forcée de le faire

  • ✇Dans les algorithmes
  • Hubris ingénieuriale
    « Il est fréquent que des ingénieurs débarquent dans les administrations avec une confiance démesurée, persuadés que leur expertise technique permettra de lever les blocages existants et de résoudre tous les problèmes du gouvernement.  (…) Dans une étude récente, mes collègues et moi avons demandé à des informaticiens de développer un logiciel fournissant des conseils automatisés sur l’éligibilité à une procédure de faillite. Les informaticiens ont accompli la tâche rapidement, l’un d’eux rem

Hubris ingénieuriale

16 janvier 2026 à 07:00

« Il est fréquent que des ingénieurs débarquent dans les administrations avec une confiance démesurée, persuadés que leur expertise technique permettra de lever les blocages existants et de résoudre tous les problèmes du gouvernement. 

(…) Dans une étude récente, mes collègues et moi avons demandé à des informaticiens de développer un logiciel fournissant des conseils automatisés sur l’éligibilité à une procédure de faillite. Les informaticiens ont accompli la tâche rapidement, l’un d’eux remarquant même : « Cela semble très simple ». Cependant, l’analyse des logiciels qu’ils ont développés a révélé de nombreuses erreurs et des interprétations juridiques erronées. Malgré ces défauts, les informaticiens étaient convaincus de l’utilité pratique de leurs outils. 79 % d’entre eux ont déclaré qu’ils accepteraient volontiers que leur outil remplace les juges au tribunal des faillites. » Ben Green.

  • ✇Dans les algorithmes
  • L’emprise autoritaire 
    « Fin juillet 2025, au cœur même de la machine bureaucratique du Pentagone, l’armée américaine a discrètement cédé une part de sa souveraineté. Un contrat de dix milliards de dollars avec Palantir Technologies – l’un des plus importants de l’histoire du département de la Défense – a été présenté comme une mesure visant à « gagner en efficacité ». Il a regroupé soixante-quinze accords d’approvisionnement en un seul contrat. Un transfert stratégique de fonctions militaires essentielles à une entre

L’emprise autoritaire 

15 janvier 2026 à 07:00

« Fin juillet 2025, au cœur même de la machine bureaucratique du Pentagone, l’armée américaine a discrètement cédé une part de sa souveraineté. Un contrat de dix milliards de dollars avec Palantir Technologies – l’un des plus importants de l’histoire du département de la Défense – a été présenté comme une mesure visant à « gagner en efficacité ». Il a regroupé soixante-quinze accords d’approvisionnement en un seul contrat. Un transfert stratégique de fonctions militaires essentielles à une entreprise privée ». Bienvenue dans le réseau technologique autoritaire (The Authoritarian Stack), explique l’économiste Francesca Bria – également initiatrice du projet EuroStack, son exact pendant, qui prône une « souveraineté technologique européenne ». Derrière les strates qui composent le réseau, comme l’avait défini Benjamin Bratton dans son livre, Le Stack (UGAP, 2020), comme autant de régimes de souveraineté qui se superposent et s’imbriquent, la strate autoritaire semble l’envers de la proposition d’autonomie d’EuroStack. 

Sous la bannière d’une « technologie patriotique », un ensemble d’acteurs construisent l’infrastructure du contrôle : la couche technologique autoritaire. Un régime où les conseils d’administration, et non le droit public, fixent les règles. « La Silicon Valley ne développe plus des applications. Elle bâtit des empires »

Avec Palantir, « l’armée n’achète pas ici un simple logiciel : elle cède son autonomie opérationnelle à une plate-forme dont elle ne pourra plus se passer », expliquait-elle dans le Monde diplomatique. Les ex-employés de Palantir sont désormais à des postes clés du gouvernement américain et intègrent même les rangs militaires. « Contrairement à l’ancien autoritarisme fondé sur la peur et la force, ce nouveau système règne par le biais du code, du capital et des infrastructures, rendant toute résistance architecturalement impossible ». La logique est simple et circulaire. « L’idéologie justifie l’investissement. L’investissement s’empare du pouvoir d’État. Le pouvoir d’État garantit les contrats. Les contrats construisent les infrastructures. Les infrastructures deviennent indispensables. L’indispensabilité génère des rendements. Les rendements financent davantage d’idéologie ».

Les infrastructures étatiques critiques sont privatisées notamment dans cinq domaines : les données, la défense, l’espace, l’énergie et la monnaie, fondements du pouvoir démocratique. Le site détaille les contrats, les marchés, les liens entre les acteurs. 

Cette privatisation menace désormais l’Europe, s’inquiète Francesca Bria, qui achète à son tour les outils de Starlink, d’Anduril, de Clearview, de Palantir… « Aucune de ces décisions n’a suscité de véritable débat. Rares sont celles qui ont fait la une des journaux. Ensemble, elles révèlent l’externalisation systématique de la souveraineté européenne au profit d’oligarques américains dont l’idéologie sape ouvertement la démocratie ». « L’Europe est confrontée à un choix existentiel : construire dès maintenant une véritable souveraineté technologique, ou accepter une gouvernance par des plateformes dont les concepteurs considèrent la démocratie comme un système d’exploitation obsolète ».

La droite technologique autoritaire de la Silicon Valley ne théorise pas ce monde. Elle le construit déjà. « La démocratie persiste comme une interface héritée – maintenue pour assurer la stabilité, tout en étant systématiquement vidée de sa substance et remplacée ».

« La question est maintenant de savoir si les sociétés démocratiques peuvent reconnaître cette situation pour ce qu’elle est – et construire des alternatives avant que l’infrastructure du contrôle ne soit trop profondément enracinée pour être délogée »

Dans sa newsletter, l’économiste américain Paul Krugman, rappelle que trop souvent, les économistes eux-mêmes ne s’intéressent pas aux manœuvres des entreprises, comme les contrats qu’elles passent ou les entreprises qu’elles rachètent. A tort, explique-t-il en tentant de démêler les enjeux du rachat de Warner Bros. Car derrière l’enjeu de ce rachat, « il ne s’agit pas de divertissement, mais de démocratie ». Conformément à son objectif de paralyser une société pluraliste et démocratique, la broligarchie, cette « droite technologique autoritaire » s’emploie à prendre le contrôle de la société… Et contrôler les médias pour imposer sa vision du monde est capital. C’est pourquoi Musk a racheté Twitter, Bezos, le Washington Post… Et c’est pourquoi ce monde se bat pour Warner. « Ces médias ne dégagent que des revenus modestes, et pourtant, les magnats de la presse y investissent des milliards. Les rachats précédents ont démontré que les médias gagnent encore moins d’argent lorsqu’ils sont contraints de servir une idéologie de droite ». La perspective d’une mainmise autoritaire sur les médias est terrifiante, conclut Krugman. Mais elle est déjà largement en cours.

  • ✇Dans les algorithmes
  • Vérification d’âge (3/4) : la panique morale en roue libre
    Contrôler plutôt qu’éduquer Le gouvernement Français travaille à un projet de loi pour interdire les réseaux sociaux aux moins de 15 ans pour la rentrée 2026 [qui vient d’être considérablement mis à jour par le Conseil d’Etat puisque celui-ci propose que l’interdiction ne soit pas obligatoire et suggère d’enlever les sanctions pour les plateformes. La députée et rapporteuse du projet de loi a annoncé renoncer à son projet de couvre-feu numérique de 22 heures à 8 heures pour les 15-18 ans et à

Vérification d’âge (3/4) : la panique morale en roue libre

14 janvier 2026 à 07:00

Contrôler plutôt qu’éduquer

Le gouvernement Français travaille à un projet de loi pour interdire les réseaux sociaux aux moins de 15 ans pour la rentrée 2026 [qui vient d’être considérablement mis à jour par le Conseil d’Etat puisque celui-ci propose que l’interdiction ne soit pas obligatoire et suggère d’enlever les sanctions pour les plateformes. La députée et rapporteuse du projet de loi a annoncé renoncer à son projet de couvre-feu numérique de 22 heures à 8 heures pour les 15-18 ans et à son délit de négligence numérique imputable aux parents, du fait des réserves du Conseil d’Etat. Une grande incertitude plane désormais sur le projet de loi, estime Le Monde]. La première mouture de ce projet de loi proposait d’abord le renforcement des mesures de vérification d’âge, et avec lui le contrôle plutôt que l’éducation, la coercition plutôt que la pédagogie, la répression plutôt que la responsabilisation. C’est ce que répète avec constance la professeure en sciences de l’information et de la communication Anne Cordier, co-autrice notamment de Faut-il interdire les réseaux sociaux aux jeunes ? (Usbek et Rica et Robert Laffont, 2025). « Les jeunes deviennent une population à contrôler plutôt qu’à éduquer ». « Interdire rassure, donne l’illusion que l’on agit ». « Enfants et écrans : refusons que la peur devienne le seul moteur de l’action publique ». Anne Cordier semble être la dernière boussole dans un monde en flamme, où tout le monde propose gaiement de criminaliser les comportements des plus jeunes en ligne

Même constat pour le juriste Eric Goldman qui qualifie les restrictions d’âge de mesures  « de ségrégation et de répression » : une politique qui punit la jeunesse plutôt que de responsabiliser les plateformes. On n’interdit pas aux enfants d’aller dans les aires de jeux, mais on attend de ces espaces qu’ils soient sûrs. La popularité croissante des interdictions des réseaux sociaux, des écrans, des téléphones… traduit un retour en force de valeurs conservatrices dans nos vies numériques. Internet est devenu un champ de bataille moral. Et il est probable que cela ne nous mène nulle part. 

Le téléphone ruine-t-il vraiment la vie des adolescents ?

Pour le New Yorker, la journaliste Molly Fisher s’interroge : le téléphone ruine-t-il vraiment la vie des adolescents ? C’est en tout cas le raccourci que partagent beaucoup de parents et d’adultes. « Un smartphone, équipé de TikTok et d’Instagram, contient dans un seul et même boîtier élégant un assortiment de forces qui pourraient rendre un adolescent malheureux : une dynamique sociale toxique, une image corporelle irréaliste, une incitation à une conscience de soi paralysante, voire une raison d’éviter des éléments fondamentaux du bien-être comme une bonne nuit de sommeil ». C’est oublier que l’emprise des téléphones n’est pas non plus génératrice de bien être pour les adultes, mais le consensus explicatif sur celui-ci est bipartisan, « il fait appel aussi bien au moralisme de droite qu’au sentiment anti-entreprise de gauche ». Si tout le monde déplore être dépendant au téléphone, cerner les détails du problème s’avère plus délicat. « Quels médias numériques sont mauvais, dans quelles circonstances et pour qui ? »

Pour répondre à la question, Fisher convoque un autre journaliste du New York Times, Matt Richtel, auteur de How we grow up : understanding adolescence (Comment nous grandissons : comprendre l’adolescence, Mariner, 2025, non traduit). Son livre s’inscrit dans une série de livres sur le rapport des jeunes aux écrans. Par exemple avec les travaux de Jean Twenge, professeure en psychologie à l’Université d’État de San Diego, auteure de Generation Me (2006) puis de iGen (2017, Génération Internet: Comment les écrans rendent nos ados immatures et déprimés, Mardaga, 2018). Ou plus récemment, le bestseller de Jonathan Haidt, Génération anxieuse (Les arènes, 2025). 

Haidt soutient qu’entre 2010 et 2015, un « recâblage » générationnel s’est opéré, sous l’effet de deux forces. La première était l’importance excessive accordée par les parents à la sécurité des enfants. La seconde était l’avènement des téléphones. Cette combinaison de « surprotection dans le monde réel et de sous-protection dans le monde virtuel » a entraîné un glissement d’une enfance « axée sur le jeu » vers une enfance « axée sur le téléphone », écrit-il, au détriment de la santé mentale des jeunes. 

Le succès de Haidt s’explique par sa prescription stricte et confiante, explique Fisher : « pas de smartphone avant le lycée, pas de réseaux sociaux avant seize ans, pas de téléphone à l’école, et davantage de jeux indépendants pendant l’enfance ». Ses conseils s’inspirent des travaux d’une ancienne journaliste, Lenore Skenazy qui a connu la notoriété en 2008 avec une chronique pour le New York Sun où elle expliquait laisser son enfant de 9 ans prendre seul le métro. Militante contre la parentalité hélicoptère, Haidt s’est associée à elle pour fonder Let Grow, une association qui milite pour une plus grande indépendance des enfants. 

Le livre de Haidt a suscité des critiques bien sûr, notamment quand il avance que les téléphones seraient la seule explication raisonnable du déclin marqué de la santé mentale des adolescents. Or, ce déclin n’est pas homogène, le taux de dépression des adolescents Sud-Coréens a lui diminué et aux Etats-Unis, les taux de suicides ont augmenté dans toutes les tranches d’âges et pas seulement pour les adolescents. Même la hausse des taux de dépression des adolescentes américaines qu’il constate ne s’explique pas uniquement par l’arrivée du smartphone. Le journaliste scientifique David Wallace-Wells a souligné que l’augmentation soudaine de la dépression chez les adolescentes coïncide aussi avec une évolution des pratiques de dépistage suite à l’Affordable Care Act, avec l’augmentation des dépistages annuels et une prise en charge par les assurances santé ainsi qu’une diminution du nombre d’adolescents sans assurance maladie. Autant de facteurs ayant contribué à l’augmentation des chiffres… sans pour autant modifier nécessairement la prévalence. 

Santé mentale : il est plus facile d’accuser le téléphone que la société

Pour le Times Educational Supplement, TES magazine, le journaliste Jon Severs fait le point sur les arguments de Haidt. Figure de proue des campagnes mondiales pour interdire l’accès aux téléphones des moins de 16 ans (en Australie, c’est visiblement la femme du premier ministre australien qui a lu le livre de Haidt et qui a conduit au déclenchement des hostilité. En France, Macron l’a visiblement rencontré, rappelait Mediapart dans son émission Accès libre), Haidt vend de la peur, estime Andrew Przybylski. Les effets des médias sociaux sur le bien-être des adolescents diffèrent beaucoup d’un adolescent à un autre. S’il y a bien une dégradation de la santé mentale des adolescents, nous ne sommes pas confrontés à un tsunami, même si nous sommes peut-être plus attentifs aux troubles de l’adolescence qu’on ne l’était dans le passé. Tamsin Ford, psychiatre de l’enfance et de l’adolescence britannique, estime que la corrélation qu’évoque Haidt entre les troubles mentaux et le fait que les adolescents aillent moins bien pourraient refléter l’impact sur un très petit groupe d’adolescents déjà vulnérables aux contenus extrêmes faisant l’apologie de l’automutilation ou de l’anorexie. Mais « ce sont généralement des jeunes déjà confrontés à de multiples difficultés. Dès lors, la question de la part de responsabilité des téléphones dans leurs difficultés se pose. » D’autres facteurs entrent en compte, explique encore Ford en observant les données britanniques, notamment la fermeture des centres de jeunesse et autres lieux sûrs pour les jeunes, la complexification et l’augmentation du coût de la vie, ainsi que l’évolution des mentalités et l’affaiblissement des liens communautaires. « L’un des facteurs les plus fortement et systématiquement associés à une mauvaise santé mentale est la pauvreté. Or, de plus en plus d’enfants vivent dans la pauvreté, et l’accès aux services sociaux a considérablement diminué… ce qui conduit à la diminution des interventions précoces permettant de limiter les troubles anxieux », explique-t-elle. « Imputer ce problème aux téléphones portables est non seulement totalement erroné, mais aussi dangereux, car cela ne tient pas compte d’autres facteurs essentiels. » Candice Odgers, professeure de psychologie et d’information dresse le même constat aux Etats-Unis. Anne Cordier également quand elle évoque les « vulnérabilités associées » : autrement dit, les usages problématiques des écrans et des réseaux sociaux tendent à amplifier des risques déjà présents, eux-mêmes liés aux fragilités personnelles des individus et au contexte social. 

Addiction ou distraction ? 

Dans son livre, Haidt estime que l’autre dommage que cause les téléphones, est l’altération de la capacité de concentration. Pour Haidt, selon les études qui quantifient l’usage problématique des réseaux sociaux, des jeux vidéo et des technologies, le nombre d’accros se situerait entre 5 et 15%. 

Pour David Ellis, professeur de science comportemental à l’université de Bath, la logique de l’addiction au smartphone est très fragile, ironise-t-il. En reprenant les chiffres qui évaluent l’addiction au téléphone « nous avons réussi à créer une échelle d’addiction à l’amitié qui a démontré que 80 % de notre échantillon étaient dépendants de leurs amis, ce qui est évidemment absurde. » La psychiatre, Nora Volkow, directrice de l’Institut national américain sur l’abus de drogues, rappelle qu’il n’y a pas de définition précise de la dépendance au téléphone. Pour elle, l’estimation des 5 ou 15% d’adolescents dépendants au téléphone n’est confirmée nulle part. Nous concluons bien trop vite à la dépendance, explique-t-elle. « Pour la plupart d’entre nous, nous ne sommes pas dépendants de nos téléphones, nous sommes simplement distraits par eux… La dépendance survient lorsque la perte de contrôle est telle qu’elle entraîne des conséquences pathologiques pour l’individu ». Pour elle, le problème n’est pas tant l’information numérique présentée par les réseaux sociaux, que l’information tout court, par exemple la façon dont les chaînes d’information présentent l’information de manière plus courte et plus divertissante. « La façon dont nous fournissons l’information est de plus en plus éphémère et très percutante pour capter notre système dopaminergique », explique Volkow. « On s’attend donc à ce que le stimulus suivant soit similaire, et lorsqu’il n’est pas accompagné de tous les artifices qui accompagnent certaines de ces informations, on est forcément beaucoup moins attentif. » Elle ajoute que l’avantage des informations plus courtes est que nous pouvons désormais traiter une quantité considérable de données, mais que ce traitement sera « moins approfondi »et le risque de désinformation plus élevé.

Concernant l’affirmation de Haidt selon laquelle les réseaux sociaux auraient causé des dommages « incalculables » à l’attention de la « majorité des personnes » nées après 1995 dans le monde occidental, Gaia Scerif, professeure de neurosciences cognitives du développement à l’Université d’Oxford et spécialiste du contrôle attentionnel, explique que la perception du pouvoir de distraction des réseaux sociaux et des smartphones est bien plus complexe que la simple question de l’âge. Le cortex préfrontal ne s’active pas « soudainement à 25 ans » et le contrôle attentionnel varie considérablement en fonction de facteurs génétiques et sociaux. « Pour certains, le coût d’un téléphone en termes de distraction sera énorme ; pour d’autres, il sera minime ; et pour d’autres encore, nul ». Ce qui est sûr, c’est que la technologie ne recâble pas le cerveau. Si pour Scerif et Volkow nos smartphones sont distrayants, ils ne sont qu’une distraction parmi bien d’autres, et d’abord les autres personnes : les gens qu’on admire comme nos proches. Notre attention est toujours sollicitée par d’innombrables stimulis. 

Concernant l’argument qu’avance Haidt selon lequel les dirigeants de la tech tiendraient leurs propres enfants éloignés des écrans, Margaret O’Mara, professeure d’histoire à l’Université de Washington et auteure de The Code : Silicon Valley and the Remaking of America (Penguin, 2020), affirme qu’il n’existe aucune preuve que la plupart des dirigeants des entreprises technologiques interdisent les écrans à leurs enfants (comme l’avait montré également Damien Leloup pour Le Monde). Quant à la baisse du niveau des élèves depuis 2012, elle est effective. Mais là encore, l’introduction des téléphones n’expliquent pas tout. Pour le spécialiste de l’éducation et de l’économie de l’éducation, Matthew Kraft, il faut aussi prendre en compte les réformes de l’école. Selon Pisa, les données montrent une stabilité des scores en mathématiques dans les pays participants entre 2003 et 2018. Si les trajectoires sont légèrement à la baisse en lecture et en sciences, les données globales ne montrent aucun effondrement… Et là encore, les causes sont polyfactorielles. 

La simplification de l’interdiction

Les solutions proposées par Haidt ont également été très critiquées, rappelle Jon Severs dans son article. Haidt souhaite que « les gouvernements imposent une vérification obligatoire de l’âge et relèvent l’âge de la majorité numérique de 13 à 16 ans. Cela contribuerait à instaurer de nouvelles « normes » : pas de smartphones avant 14 ans, pas de réseaux sociaux avant 16 ans, des écoles sans téléphone et une enfance davantage axée sur le jeu ».

Pour Volkow, c’est oublier que « les téléphones portables offrent de nombreux avantages aux jeunes. Il est donc important de réglementer les algorithmes utilisés, car ce sont eux qui ciblent les comportements compulsifs de certaines personnes. En les réglementant, on protège les utilisateurs.» Avoir un usage plus encadré des téléphones est pour beaucoup un bon levier, mais cela suppose d’avoir des programmes dédiés, pour les plus jeunes et ceux qui les accompagnent, notamment les parents. Pour Ford, les interdictions ne reposent sur « aucune preuve » et pourraient même être néfastes. Beaucoup de jeunes se soutiennent mutuellement pendant des moments très difficiles, grâce à leurs téléphones. 

C’est ce qu’expliquait le poignant témoignage d’Ezra Sholl, un jeune tétraplégique australien qui expliquait combien l’interdiction des réseaux sociaux allait l’isoler et combien ceux-ci lui ont permis de rester connecté aux jeunes de son âge. Sholl soulignait d’ailleursle contraste entre cette interdiction stricte et le fait que les signalements pour incitation à la haine ou harcèlement, restent, eux, sans effet. « Ce n’est pas mon comportement en ligne qui pose problème, et pourtant, ce sont des jeunes comme moi qui sont punis ». Même constat pour les jeunes transgenres ou à la sexualité non hétéronormée… 

« Haidt est assez incohérent sur ce point : il affirme que nous surprotégeons les enfants par ailleurs, que nous les empêchons de découvrir le monde et d’apprendre, mais concernant les réseaux sociaux et les téléphones, il propose de les interdire purement et simplement », déclare Tasmin Ford. 

Mais, le narratif de l’interdiction développé par Haidt a l’avantage d’être simple et de parler aux gens. Il a aussi l’avantage de proposer des solutions accessibles, même si radicales. Pour le dire autrement, il y aurait plein de raisons pour interdire TikTok ou nombre de réseaux sociaux problématiques comme X. L’interdiction a l’avantage de porter un coup d’arrêt. De dire que cela suffit. Mais ici, ce n’est pas aux entreprises que ces discours s’adressent. La vérification d’âge n’interdit pas TikTok ou X, n’exige pas de leur part de meilleures pratiques, mais interdit seulement l’accès à l’information aux plus jeunes. Il permet finalement d’abaisser les pratiques de surveillance et de modération des réseaux sociaux, et de rendre internet de moins en moins sûr pour tous les autres. L’interdiction aux mineurs fait reposer la responsabilité des plateformes sur le maillon le plus faible de la chaîne : les mineurs. Et ce sont eux dont on va criminaliser les comportements d’information s’ils contreviennent aux interdictions, pas les entreprises qui permettent à tous de consulter des contenus qui ne sont pas adaptés. Dans le principe de la vérification d’âge, celui sur lequel s’abat l’interdiction est celui qui en subit tous les coûts

Accepter le téléphone, c’est accepter de rompre le lien parent-enfant

Revenons à l’article du New Yorker. Dans ce débat, Richtel se positionne entre Haidt et les sceptiques. Plutôt que de remettre en question l’existence d’une crise de santé mentale chez les adolescents, Richtel cherche à la contextualiser. Selon lui, les téléphones ne constituent pas une explication unique, même s’ils constituent une préoccupation légitime. « Je ne pense pas qu’il soit nécessaire d’être biologiste évolutionniste ou anthropologue pour en saisir la logique fondamentale », écrit-il. « Passer dix heures par jour le visage figé devant un écran n’est pas bon pour le développement du cerveau. » 

Comme Twenge et Haidt avant lui, Richtel propose un nom pour les adolescents d’aujourd’hui : « Génération rumination ». Mais il situe leur tourment dans une réflexion sur l’adolescence comme une étape culturelle, sociologique et psychologique apparue au cours des derniers siècles. La détresse ressentie par les adolescents est, selon lui, une réponse raisonnable. Un monde dont les défis sont de plus en plus abstraits et intellectuels plutôt que physiques. « La génération rumination grandit dans le domaine de l’esprit et de la psyché », écrit-il. « Se demander pourquoi certains sont en difficulté, c’est comme se demander pourquoi certains adolescents d’autrefois se sont écorchés les genoux et se sont cassés les os en gravissant une montagne pour explorer de nouveaux territoires. » Parallèlement, l’adolescence elle-même a évolué avec le recul de la puberté. Depuis les années 1980, de plus en plus de recherches montrent que les filles, en particulier, commencent leur puberté beaucoup plus tôt que ce qui était autrefois considéré comme la norme, dès six ou sept ans parfois. Richtel soutient que cela signifie que les jeunes sont désormais bloqués plus longtemps que jamais dans un état de vulnérabilité accrue ; il décrit des études indiquant que le cerveau des adolescents est particulièrement attiré par la nouveauté et les informations sociales (en plus de la prise de risque et du manque de jugement pour lesquels ils sont traditionnellement connus), ce qui les expose particulièrement aux tentations du téléphone. « Changement d’environnement + changement de puberté = inadéquation neurologique », écrit-il. Richtel mêle ses recherches aux témoignages de plusieurs adolescents, qui illustrent les grandes lignes de sa théorie. « Je ne veux pas blâmer Internet, mais je veux le blâmer », confie à Richtel un jeune souffrant d’anxiété et de dépression. « J’ai l’impression que si j’étais né 2000 avant J.-C. dans les Alpes, je serais toujours dépressif, mais je pense que le climat actuel aggrave considérablement ce phénomène. »

Pour Richtel, le rapport des adolescents au téléphone est plus un drame culturel qu’autre chose. Derrière le discours de panique morale sur le rapport des adolescents aux téléphones, il faut lire la crainte que la technologie puisse rompre le lien parent-enfant. Mais n’est-ce pas justement ce que produit l’adolescence, qui transforme un enfant de 9 ans joyeux en un enfant obsédé par les écrans à 15 ans ? « À l’instar du débat actuel sur les enfants et le genre, le discours sur les adolescents et les téléphones exploite la crainte que votre enfant ne découvre de nouvelles idées, très probablement en ligne, et ne soit transformé de manière irréversible. » C’est pourtant bien ce que produit l’adolescence plus que le téléphone. Et c’est peut-être ce que refuse la vérification d’âge : que nos enfants grandissent et nous échappent en imposant l’autorité parentale alors même que, fort heureusement, elle se délite.  

Pour Fisher, les longues heures passées en ligne par les baby-boomers devraient faire écho aux pratiques des adolescents. Mais ce que font les plus âgés ne suscite pas la même fascination ou la même inquiétude que les adolescents, alors que leurs usages peuvent-être tout aussi problématiques (voir ce que nous en disions dans l’article « Le pic des médias sociaux est derrière nous… sauf pour les plus âgés » pour la lettre Café IA). 

Sortir de la répression ?

« Faute de pouvoir véritablement réguler les médias sociaux, les États semblent donc se rabattre sur une obstruction de ces derniers », expliquait le journaliste David-Julien Rahmil pour l’ADN. Alex Beattie, maître de conférences en médias et communication à l’université Victoria de Wellington, évoque un tournant culturel et moral qu’il compare à l’ère victorienne. Dans un article publié sur The Conversation, il explique qu’on profite de la panique morale liée au Web pour brosser un portrait caricatural des adolescents connectés. Spectateurs passifs, incapables de critiquer les contenus qu’ils ingurgitent, ou bien totalement accros au défilement des vidéos, les adolescents finiraient forcément avec des troubles mentaux liés à Internet.

En phase avec une société qui ne voit le monde que par la répression, la vérification d’âge ne propose, à terme, qu’une règle autoritaire et absurde. Comme le disait Anne Cordier : « Ce que je trouve frappant, c’est l’usage de termes profondément autoritaires et militarisés comme « couvre-feu numérique ». C’est clairement une mesure de contrôle de population utilisée en temps de guerre ou de crise. En transposant ce terme dans le champ éducatif ou familial, on installe un imaginaire de coercition et de peur.

Au fond, cela traduit une vision très infantilisante, très défiante même. On a l’impression que le numérique est un adversaire à neutraliser et que les jeunes doivent avant tout être contenus plutôt que compris. Je trouve inquiétante cette confusion entre régulation éducative et discipline répressive reposant sur la contrainte.»

« Ce n’est pas avec deux ou trois heures d’ateliers de sensibilisation aux fake news qu’on va régler le problème. Ce qu’il faut, ce sont de véritables démarches d’éducation aux médias, à l’information, à la culture numérique, dès le plus jeune âge, avec des professionnels dévolus au sujet et des vrais moyens.» Mais ce sont là des mesures coûteuses à mettre en œuvre. L’interdiction, elle, ne coûte rien en politiques publiques. La répression est bien moins chère. Qu’importe si elle nous conduit à faire de mauvaises politiques, comme disait Joseph Stieglitz.

Eric Goldman ne dit pas autre chose. « Il n’existe pas de solution miracle pour protéger les mineurs en ligne, et aucune mesure politique unique ne garantira miraculeusement la sécurité des enfants en ligne ». Comme le dit l’expression, il faut tout un village pour élever un enfant : pour aider les mineurs à rester en sécurité en ligne et s’y épanouir, la coopération et la coordination de nombreux acteurs est nécessaire, quand les lois de ségrégation des jeunes en ligne tentent de contraindre les éditeurs de contenus à résoudre un problème qui touche toute la société et pour laquelle aucune solution unique ne convient à tous, comme l’expliquait un rapport du Center for Democracy & Technology ou celui de l’OCDE. Les politiques de répression ont pour premier effet de laisser les mineurs mal préparés à leur avenir, estime pertinemment Goldman, qui propose plutôt d’accélérer sur la formation des enfants et des parents et de solutions bénéfiques à tous. Il invite également à améliorer l’élaboration des politiques publiques, notamment en invitant les enfants à y participer et à respecter le droit des mineurs à la parole.  

Interdire l’accès des adolescents aux espaces en ligne ne les rend pas plus en sécurité ; cela les maintient simplement dans l’ignorance et les préparant bien mal à la vie adulte, explique l’EFF. L’interdiction compromet la sécurité et l’autonomie en remplaçant l’encadrement parental par des obligations gouvernementales et en mettant en place une infrastructure de surveillance de masse au lieu de mécanismes de protection de la vie privée. Tout l’inverse de ce dont nous avons besoin. 

En Australie, les plus jeunes se sont déjà tournés vers d’autres applications que les 10 applications sociales interdites (à savoir Facebook, Instagram, Kick, Reddit, Snapchat, Threads, TikTok, Twitch, X et YouTube), rapporte The Guardian. Et le gouvernement australien a menacé certaines d’entre elles de les faire entrer dans la liste des applications interdites aux moins de 16 ans. Une chasse à la souris peut durer longtemps. « Il est fort probable que si les jeunes se tournent vers des plateformes moins réglementées, ils deviennent plus discrets sur leur utilisation des réseaux sociaux, car ils ne sont pas censés y être. Par conséquent, s’ils tombent sur des contenus préoccupants ou vivent des expériences néfastes en ligne, ils n’en parleront pas à leurs parents. » En fait, comme le montrent les premiers témoignages de parents, les jeunes n’ont pas quitté leur téléphone. Ils continuent à y passer leur soirées. Certes, pas toujours sur les réseaux sociaux, mais directement avec leurs amis. Un sondage d’ABC révélait que trois enfants sur quatre interrogés comptaient continuer à les utiliser, rapportait le New York Times. Mais à les écouter, les jeunes australiens ont l’air bien plus matures que leurs politiciens. Pour la plupart, ils ne pensent pas que la nouvelle loi australienne changera grand-chose à leur vie.

Hubert Guillaud

Notre dossier sur la vérification d’âge :

Première partie : vers un internet de moins en moins sûr

– Deuxième partie : de l’impunité des géants à la criminalisation des usagers

– Troisième partie : la panique morale en roue libre

MAJ du 15/01/2026 : L’agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) vient de publier une vaste étude sur les effets des réseaux sociaux et de l’IA sur les adolescents. Comme l’expliquent les coordinateurs de ce rapport en interview pour The Conversation : « l’Anses ne recommande pas d’interdire les réseaux sociaux, mais de revoir en profondeur leur conception de manière à ce qu’ils ne nuisent pas à la santé des adolescents et des adolescentes ».

MAJ du 16/01/2026 :  Des chercheurs de l’université de Manchester ont suivi 25 000 jeunes de 11 à 14 ans pendant trois années scolaires, analysant leurs habitudes déclarées sur les réseaux sociaux, leur fréquence de jeu et leurs difficultés émotionnelles afin de déterminer si l’utilisation des technologies permettait réellement de prédire des problèmes de santé mentale ultérieurs. L’étude n’a mis en évidence aucun lien, chez les garçons comme chez les filles, entre une utilisation plus intensive des réseaux sociaux ou une pratique plus fréquente des jeux vidéo et une augmentation des symptômes d’anxiété ou de dépression chez les adolescents au cours de l’année suivante. The Guardian.

MAJ du 20/01/2026 : Sur son blog, Jean-Lou Fourquet défend avec conviction la position australienne. « Ce que l’Australie a fait est plus ciblé (bien qu’imparfait) et beaucoup plus intelligent — et donc beaucoup plus dérangeant pour les plateformes : interdire aux mineurs d’avoir un compte, et donc empêcher leur profilage algorithmique. » « On ne supprime pas la liberté des mineurs d’aller sur Youtube, on supprime la capacité de YouTube de les connaître intimement à 13 ans. » Il aligne des arguments plutôt pertinents, même si ma synthèse est plus inquiète sur la dérive sécuritaire à l’égard des mineurs, notamment à la vue des recommandations de la commission TikTok, dont je parlais dans le 2e épisode.

  • ✇Dans les algorithmes
  • Les artistes d’abord
    Des musiciens polonais ont lancé ArtistFirst, « une initiative pour une intelligence artificielle équitable dans la musique ». Ils dénoncent le fait que le top 50 polonais soit envahie par de la musique produite par l’IA et que les playlists les plus populaires soient générées par des IA, mais sans que les utilisateurs n’en soient avertis. « Il ne s’agit pas d’innovation, mais d’éviction des créateurs de leur propre marché ».  « Ces produits musicaux deviennent viraux car personne ne les sign

Les artistes d’abord

13 janvier 2026 à 07:00

Des musiciens polonais ont lancé ArtistFirst, « une initiative pour une intelligence artificielle équitable dans la musique ». Ils dénoncent le fait que le top 50 polonais soit envahie par de la musique produite par l’IA et que les playlists les plus populaires soient générées par des IA, mais sans que les utilisateurs n’en soient avertis. « Il ne s’agit pas d’innovation, mais d’éviction des créateurs de leur propre marché »

« Ces produits musicaux deviennent viraux car personne ne les signale. Ils prennent la place des créateurs humains car l’algorithme ne fait pas la différence entre la musique et un produit. » Pour les artistes polonais, l’IA relève du plagiat. Car, « si l’intelligence artificielle peut reproduire un style, une mélodie, des paroles ou une voix, cela signifie qu’elle l’a appris aux dépens des créateurs. Sans consentement. Sans licence. Sans rémunération. Ce n’est pas de l’inspiration. Il s’agit d’une exploitation illégale de la créativité humaine ».

« Si nous ne faisons rien, d’ici quelques années, nous perdrons : 

  • les studios d’enregistrement – ​​car il n’y aura plus personne pour enregistrer ; 
  • les producteurs – car les rythmes seront générés par un modèle ; 
  • les paroliers – car l’IA écrit déjà mieux qu’un générateur de rimes ; 
  • les maisons de disques – car la valeur des catalogues chutera ; les managers – car de nouvelles carrières disparaîtront ; 
  • les producteurs et ingénieurs du son – car le marché de la production se contractera; 
  • les artistes indépendants – car ils seront évincés des playlists par la production de masse ; 
  • les organisateurs d’événements – car la musique sans créateurs ne crée pas de scène ; 
  • les auditeurs – car la culture cessera d’être humaine. 

Ce n’est pas une technologie qui aide. C’est une technologie qui remplace insidieusement ».

Le mouvement Artistes d’abord exige de protéger les voix, les styles et la créativité des artistes, d’établir des règles claires pour l’entraînement de l’IA sur les données musicales, d’étiqueter la musique générée par des modèles, de mettre fin à la monétisation illégale des œuvres d’autrui, de protéger les playlists et les algorithmes de la production massive de « tubes » artificiels, de sensibiliser les auditeurs et les créateurs, et seulement ensuite utiliser l’IA comme un outil de soutien, et non de destruction. Ils réclament : 

  • l’étiquetage des contenus générés par l’IA ;
  • le marquage visible pour les auditeurs ;
  • le filtrage : les utilisateurs doivent pouvoir filtrer les contenus générés par l’IA ;
  • le traitement distinct de l’IA dans les algorithmes et les règlements. 

« Les exceptions au droit d’auteur prévues pour l’analyse des données n’ont pas été créées pour permettre aux entreprises technologiques de construire des usines à musique au détriment des créateurs ». L’IA Act européen impose d’être conforme au droit d’auteur, de respecter les droits revendiqués par les créateurs, de publier des informations sur les données utilisées pour l’entraînement. « Un modèle entraîné sur de la musique sans licence est non seulement contraire à l’éthique, mais aussi illégal au regard du droit de l’UE ».

Les créateurs demandent à exclure clairement l’entraînement commercial des IA sur des œuvres musicales du champ d’application des exceptions au droit d’auteur : « pas de licence, pas d’entraînement ». Ils exigent l’étiquetage obligatoire du contenu généré par l’IA dans les services numériques : « chaque auditeur a le droit de savoir ce qu’il écoute ». La protection sectorielle des voix et des images des artistes : « interdiction du clonage sans consentement ni procédures de réclamation simplifiées ». Un mécanisme de rémunération des créateurs : « une partie des revenus issus des modèles d’IA commerciaux devrait être reversée à des fonds de soutien aux musiciens »

Ce qu’ils résument d’un chouette motto : « Les créateurs d’abord, la technologie ensuite. Le droit d’abord, l’innovation ensuite. La culture d’abord, les algorithmes ensuite ». Via Algorithm Watch.

  • ✇Dans les algorithmes
  • Le risque, cette gouvernance moderne que certains font peser sur les autres
    La technologie et le capitalisme sont des structures qui désormais s’entretiennent l’une l’autre et se renforcent mutuellement. Des « structures », au sens que, l’une comme l’autre, forcent la vie sociale à s’y adapter et par lesquelles nous sommes complètement ensevelis, explique le politologue australien Jathan Sadowski dans son nouveau livre, The Mechanic and the Luddite : a ruthless criticism of technology and capitalism (Le mécanicien et le luddite : une critique impitoyable de la technolog

Le risque, cette gouvernance moderne que certains font peser sur les autres

12 janvier 2026 à 07:00

La technologie et le capitalisme sont des structures qui désormais s’entretiennent l’une l’autre et se renforcent mutuellement. Des « structures », au sens que, l’une comme l’autre, forcent la vie sociale à s’y adapter et par lesquelles nous sommes complètement ensevelis, explique le politologue australien Jathan Sadowski dans son nouveau livre, The Mechanic and the Luddite : a ruthless criticism of technology and capitalism (Le mécanicien et le luddite : une critique impitoyable de la technologie et du capitalisme, University of California Press, 2025, non traduit). 

Comment la technologie accélère le capitalisme

Si le capitalisme produit de l’argent, la technologie, elle, produit des outils pour accélérer la production d’argent, explique simplement le chercheur. Et ces outils sont devenus désormais le plus important vecteur de pouvoir, notamment parce qu’ils servent comme nulle autre à produire de l’argent. 

Déterministe, prévisible, linéaire, la technologie se présente comme le moyen pour donner forme au monde que le capital finance pour en tirer avantage. Le capital y encode ses intérêts, comme il encode ses intérêts dans la législation. La loi et la techno sont créées par une classe économique qui profite de leur déploiement pour asseoir sa domination sur le monde. « Si la technologie assure du pouvoir, le capitalisme assure lui du profit ». D’ailleurs, rappelle-t-il à propos, les plus grandes transformations du capitalisme sont basées sur la création de nouvelles technologies qui ont augmenté et étendu la puissance du capital. La techno permet de rendre le capitalisme plus dur, plus rapide, plus fort. Les plus grandes machines du capital sont basées sur des instruments financiers et des plateformes numériques qui transforment le profit en pure spéculation, sans que l’on comprenne très bien comment le profit s’y accomplit, à l’image des transactions à haute fréquence

Par essence, le capitalisme construit des hiérarchies de pouvoir pour générer des formes de contrôles et d’inégalités. Il crée des distinctions entre les gens pour mieux les exploiter. La division en classe est essentielle au fonctionnement du capitalisme, rappelle Sadowski. La classe est une relation aux moyens de production et au capital. En 2022, 10% des habitants de la planète se partagent 76% des ressources, 50% des plus pauvres, seulement 2%. Le capitalisme consiste à accomplir ce transfert de richesses, de la grande majorité à quelques-uns, du travail vers le capital. Pour Sadowski, ce que la technologie transforme, c’est la vitesse de ce transfert et le taux d’exploitation. Et les détenteurs du capital orientent profondément le développement de la technologie et de ce transfert à leur profit, notamment par l’investissement dans les technologies.

Dans son livre précédent, Too Smart (MIT Press, 2020, non traduit) qui s’inquiétait de l’inéluctable montée des technologies de surveillance, Jadowski décryptait déjà la logique du solutionnisme technologique. La technologie permet de justifier son emprise en se construisant : elle propose une forme de « terraformation de la société », une subsomption, c’est-à-dire une subordination des individus aux impératifs du capitalisme. Comme l’exprimait l’auteur de science-fiction Ted Chiang, notre grande crainte désormais est que le capitalisme utilise la technologie contre nous … Et c’est bien ce qui est en train de se passer, constate Sadowski. La technologie est devenue le lieu d’une concentration du pouvoir capitaliste sans précédent, et le numérique est devenu « l’infrastructure pour faire tout le reste ». Les développements logiciels et matériels impactent désormais toutes les autres pratiques : les voitures sont désormais rien d’autre que des ordinateurs qui roulent. 

Nous pensons souvent que le progrès technique implique d’autres formes de progrès : le progrès social, économique, politique ou moral, permettant de faire progresser la liberté, la justice, l’égalité ou l’équité… Mais ce ruissellement du progrès technique vers tous les autres semble être de moins en moins vrai. L’industrialisation en elle-même n’a apporté aucun progrès social, c’est bien la lutte sociale qui a permis de conquérir les congés payés, le droit à l’éducation, la retraite… Pas étonnant alors que le progrès technique devenu le majordome du capitalisme rencontre un scepticisme plus marqué. Les discriminations, les biais (un mot bien neutre pour désigner l’oppression systémique encodée dans les données), le racisme ou le sexisme que le numérique amplifie nous invitent à reconnecter ces problèmes au capitalisme technologique. Mais « la critique technologique ne peut pas être seulement l’ambulance qui arrive toujours après l’accident », nous devons mieux comprendre les enjeux du capitalisme technologique pour le démanteler. 

Réconcilier le mécanicien et le luddite

Le problème, c’est que les systèmes recouvrent ce qu’ils font réellement d’un épais voile d’obfuscation. Comprendre ce que les systèmes font est devenu compliqué. Les boîtes noires de l’IA opacifient les traitements comme les clauses de non divulgation opacifient les accords commerciaux. Pour y voir clair, nous devrions chercher à réconcilier les approches critiques, estime Jadowski, à savoir celle du mécanicien, qui connait la machine, et celle du luddite, qui sait pourquoi la machine a été construite et au profit de qui. Le savoir du mécanicien a été supplanté par le savoir de l’ingénieur à mesure que les machines sont devenues plus complexes, comme l’expliquait un article de Brooklyn Rail. Là où le mécanicien restait un artisan, maître des machines, l’ingénieur, lui, est au service de la technologie et du capital : il rationalise et optimise chaque étape de la production. Lieutenant du capital, il est devenu une profession de prestige, quand le mécanicien, lui, a été rétrogradé. Mais le savoir du mécanicien reste celui qui permet de comprendre le fonctionnement et d’y apporter une connaissance critique, fonctionnelle. 

Le luddite, lui, s’intéresse aux enjeux de la technologie. Les luddites ne se sont pas tant battus contre la technologie que contre les conditions nouvelles de leur déploiement, c’est-à-dire contre les propriétaires des métiers à tisser qui apportaient avec les machines des conditions économiques transformatives et qui leur étaient peu favorables. Ils n’étaient pas contre l’innovation, rappelle Sadowski, mais bien contre le nouveau modèle économique associé aux machines à lainer qui étaient pourtant utilisées depuis très longtemps dans l’industrie textile comme le pointait l’historien Andrian Randall. Si la destruction des machines est ce que nous avons retenu du mouvement Luddite, cette destruction n’a été que la conséquence de l’impossibilité d’ouvrir la gouvernance démocratique des systèmes, verrouillée par ceux qui avaient le pouvoir et la fortune. “Le droit de refuser est un droit qui paraît toujours radical”, rappelle avec pertinence Sadowski. Or, aujourd’hui encore, nous ne proposons aux gens confrontés aux problèmes technologiques, qu’une « éthique de l’acceptation », c’est-à-dire un ensemble de principes et de promesses qui proposent de créer des politiques pour une innovation responsable, basées sur l’auto-régulation, la réduction des biais et l’amélioration de la précision. « L’éthique est mise au service de la technologie sans menacer le moindre intérêt ». Il y a une absence totale du mot « non » dans les discussions sur l’éthique des données, explique Anna Lauren Hoffmann. On ne cesse de promettre des améliorations, une considération… mais sans que la possibilité de refuser ne soit proposée. Vous ne pouvez que consentir, qu’importe si c’est contre votre gré.

Pour Sadowski, nous devons produire une critique « impitoyable », c’est-à-dire plus coriace qu’elle n’est. Qu’il s’agisse d’IA ou d’instruments financiers, les mécanismes internes de ces systèmes qui exercent un pouvoir démesuré sur la société sont dissimulés par des couches d’opacité. S’ils sont complexes, ils sont bien plus encore « mystifiés by design », c’est-à-dire obscurcit par la technologie, son vocabulaire et sa grammaire dépolitisés. Seule une petite élite comprend et maîtrise leurs fonctionnement et encore moins savent comment ils fonctionnent. Nous sommes privés de notre droit à les contester ou à demander à ce qu’ils fonctionnent autrement. Pourtant, leurs fonctionnements devraient nous êtres clairs. « Le but d’un système est ce qu’il fait », disait avec discernement Stafford Beer. A nous d’observer alors, avec l’art du mécanicien et la compréhension du luddite. 

La sainte innovation

Dans le technocapitalisme, l’objet le plus vénéré est sans conteste l’innovation, certainement parce que le capitalisme est le plus efficace des systèmes pour produire de l’innovation capitaliste, ironise Sadowski. Le capitalisme sait parfaitement sélectionner les innovations qui vont lui permettre d’accélérer et d’étendre son emprise, à l’image d’Uber, de Palantir ou de Clearview. Et la Silicon Valley n’est rien d’autre qu’une industrie dédiée à l’accélération de cette emprise. Mais l’innovation n’est pas tant une force de progrès qu’un instrument pour produire du changement social, une arme au service d’une « élite oligarchique qui contrôle les décisions financières et le développement technique » et s’en sert pour produire du changement législatif et social. Les innovateurs n’ont jamais l’intérêt commun en vue : seulement leurs profits. 

Ceux qui financent l’innovation financent avant tout des technologies et des développements qui priorisent leurs intérêts et les valeurs sociales qu’ils défendent. Le capital-risque est le mode opératoire qui soutient le modèle d’investissement de la Silicon Valley pour transformer ses idées en profit, comme l’expliquait Tom Nicholas dans son Histoire du capital risque (Harvard University Press, 2019). C’est ce modèle d’investissement qui a rendu possible l’informatique mainframe des années 70, puis l’informatique personnelle, les applications logicielles, l’internet et l’e-commerce des années 90, l’industrie mobile et du web social des années 2000, l’économie collaborative et les plateformes servicielles des années 2010, celle des crypto et de l’IA générative des années 2020 (sans oublier les biotechs depuis les années 80). Sous la pression de ce type de financement, l’investissement s’est transformé : en s’orientant vers des investissements de plus courts termes et à moindre risque, avec des retours sur investissement toujours plus élevés. 

Les investisseurs du capital-risque sont les nouveaux gardiens du capital. « Ils s’assurent que l’économie numérique suit leur logique et servent leurs besoins ». « Le capital risque n’est pas qu’une question de maximisation du profit. L’hypercroissance est fondée sur la sélection de plateformes, de technologies, de modèles d’affaires qui peuvent passer à l’échelle d’une manière exponentielle sur une très courte période et qui ont le potentiel de dominer leur marché ». Ils mobilisent dans leur sillon des investisseurs institutionnels, comme les fonds de pension et les fonds universitaires, qui cherchent à faire des profits rapides. Dès les années 70, ils se mobilisent en créant un lobby dédié (la National venture capital association) pour produire des changements législatifs au profit du secteur, permettant de réduire les charges de ce type d’investissement, pour produire des bénéfices plus élevés et moins risqués. Le paysage du financement de l’innovation a considérablement changé avec la montée du capital-risque qui est venu se substituer aux dépenses de R&D ou à la planification. En 2021, le capital risque américain a investi quelque 330 milliards de dollars. « Mais où sont les progrès sociaux ? A-t-on l’impression que le monde s’est amélioré de 330 milliards ou cet argent a-t-il servi à le rendre pire qu’il n’était ? », questionne pertinemment le chercheur.

Mark Fisher parle de Réalisme capitaliste (Entremondes, 2018) pour désigner le fait que le capitalisme nous semble à tous être devenu inévitable, sans alternative. Sadowski, lui, parle du « réalisme de l’innovation ». Le capital-risque est devenu un lobbying politique qui contrôle de surcroît une formidable machine à battage médiatique au profit de ses produits phares. On l’a vu avec le cycle des cryptomonnaies ou du metavers, ou les investissements ont été capables de produire ces pures créations, quand bien même personne n’en voulait. L’investissement technologique ressemble de plus en plus à un casino. « Le cycle des tendances technologiques et des bulles d’investissement semble s’accélérer ». Qu’importent si les innovations, comme le Metavers, ne survivent pas. Le modèle, lui, continue de prospérer : « non pas parce qu’il est le meilleur, mais parce qu’il permet de conserver le capital en mouvement »

Les investissements s’accompagnent toujours d’un intense lobbying politique pour assouplir les réglementations, comme on l’a vu dans le cas des cryptomonnaies (le nombre de lobbyistes du secteur a triplé depuis 2021, les dépenses également, passant de 2 millions en 2018 à 9 millions de dollars en 2021). Une débauche d’action vise à établir de la légitimité pour des technologies qui opèrent à la limite de la légalité. « Produire de la hype sur une techno est crucial à la croissance de sa valeur – réelle, perçue comme spéculative ». Reste que ces investissements n’ont rien à voir avec la qualité de l’innovation. Au contraire. Si l’investissement se concentre tant sur l’industrie logicielle, rappelle Jathan Sadowski, ce « n’est pas parce que c’est la meilleure innovation ». « C’est d’abord parce que le logiciel n’est pas cher à construire, rapide et facile à faire passer à l’échelle, capable de servir de petits comme de grands marchés, et à moindre risque comparativement à bien d’autres technologies ». Si l’investissement se concentre sur le logiciel, c’est parce que ses qualités promettent de meilleurs retours sur investissement que d’autres formes d’industries.

Pour David Harvey, auteur notamment des Limites du capital (éditions Amsterdam, 2020), le capital fictif désigne de l’argent mis en circulation comme capital sans aucune base matérielle. C’est de l’argent dérivé des droits de propriété, de l’ingénierie financière et de la valorisation spéculative : « c’est de l’argent représenté par des nombres dans un tableur »Et le capital-risque valorise comme nul autre de l’argent dans des tableurs, puisque le montant réel des investissements réalisés est bien inférieur à la valorisation calculée des startups. Sans compter, rappelle Sadowski, que les technologies numériques ont permis comme nulles autres la financiarisation, comme le shadow banking (wikipédia). Plus qu’un capital fictif, c’est un capital fictionnel qui domine de plus en plus les conditions du réel. L’ingénierie financière permet le développement d’une finance hors sol, du trading haute fréquence aux subprimes responsables de la crise financière de 2008. Le capital-risque est de plus en plus la modalité pour créer et faire circuler cette fiction du capital. Sur les marchés, la valorisation des startups est totalement fictive, toujours fortement surestimée. Les licornes, ces entreprises valorisées à plus d’un milliard de dollars, ne sont assurément pas des créatures magiques, puisqu’elles ne sont rien d’autres que des créations artificielles ingéniées par des capitaux-risqueurs pour faire circuler le capital et l’accroitre. 

Les données sont le nouveau capital du technocapitalisme

Le moteur de l’investissement repose quant à lui sur les données. Elles sont des commodités qui peuvent être achetées et vendues sur des marchés. Elles sont une forme de capital que l’on peut miner, c’est-à-dire raffiner et exploiter. Elles sont les ressources du capitalisme technologique, qui doivent continuer à grossir, à se développer pour faire fonctionner la machine. Kroger, l’une des grandes chaînes de supermarché américain, dispose des données de 2 milliards de transactions annuelles de 60 millions de foyers américains. Et ces données sont devenues une nouvelle source de revenus pour l’entreprise qui génère grâce à elles de nouveaux profits, comme l’avait raconté The Markup. Mais les citoyens ne voient rien de ces échanges. Les marchés où s’échangent les données sont cachés, notamment pour maintenir les journalistes, les chercheurs et les régulateurs à distance. Pour Jathan Sadowski, « les données sont une nouvelle forme de capital, au même titre que l’argent et les machines. Et les données sont désormais essentielles à la production, à l’extraction et à la circulation de valeur dans les systèmes numériques ». La surveillance, qui permet de capter et collecter les données, sert à extraire ce capital. « Ce capital de données consiste bien souvent en de discrets bits d’information, en des enregistrements numériques, lisibles par des machines, facilement agrégeables, totalement abstraits, hautement mobiles et socialement précieuses. » En fait, rappelle Sadowski, la circulation des données est devenue une fin en soi… C’est cette circulation même qui produit de la valeur. Le but de cette circulation est de produire un mouvement continu de production de profit. C’est la confidence que faisait Andrew Ng quand il comparait l’IA à l’électricité : dans de grandes entreprises, parfois, on lance des produits non pas pour générer des revenus, mais pour générer des données

Bien sûr, les acteurs de la régulation tentent de minimiser la collecte voire la circulation des données, quand les acteurs du secteur, eux, plaident pour une maximisation des échanges et de la collecte pour alimenter le pipeline de la surveillance. La datafication consiste à transformer chacun d’entre nous en données. De meilleures capacités de surveillance produisent de meilleurs flux de profit et de pouvoir. « Un monde composé de données est un monde sans sujets » où tout devient objet. Toutes les données sont agrégées pour renforcer profit et pouvoir, à l’image de Palantir ou de la police des frontières américaine. 

Les modèles de machine learning sont incompréhensibles, intrinsèquement opaques. « Nous sommes confrontés à des piles de boîtes noires à l’intérieur de boîtes noires », expliquait déjà Frank Pasquale dans Black Box Society (FYP éditions, 2015). Les techno d’IA créent des problèmes systémiques, des fragilités et des échecs que nous ne comprenons pas et que nous ne sommes pas équipés pour nommer. Cette extraction, cette capture et ces traitements de données permet d’assurer et de maintenir un « triforce » : data, calcul et géopolitique, se renforcent les uns les autres, comme le pointaient Amba Kak et Sarah Myers West dans le rapport de l’AI Now Institute de 2023, Face à la puissance technologique. Le business model de l’IA repose sur la force brute, rappelle Sadowski, tant technologiquement qu’économiquement, comme le montre l’intégration de l’IA générative partout, sans que nous n’y ayons consenti. A terme, explique-t-il encore, l’IA promet la fusion du techno-capitalisme et du technonationalisme. 

Raj Patel et Jason Moore dans leur livre Comment notre monde est devenu cheap (Flammarion, 2018) expliquaient que la réduction des coûts (c’est-à-dire l’optimisation) est au cœur du capitalisme. La cheapisation dont ils parlent ne consiste pas seulement à rendre les choses peu chères : c’est un ensemble de stratégies pour contrôler les relations entre le capitalisme et le vivant, c’est un ensemble de « processus mobilisés pour transmuter la vie non monnayable en circuits de production et de consommation, dans lesquels ces relations ont le prix le plus bas possible ». Le capitalisme gouverne par le profit et pour l’imposer, il a fallu l’étendre le plus possible et donc étendre le caractère monnayable du monde. Afin de maximiser ses profits, tout l’enjeu a été de ne cesser de diminuer le prix du monde. « Les choses cheap ne sont donc nullement des choses, mais plutôt des stratégies au moyen desquelles le capitalisme gère et surmonte ses crises », progresse, s’étend. « La valeur sociale des objets est supplantée par leur valeur économique lorsqu’ils sont jetés dans le marché, transformés en actifs, soumis aux dynamiques d’échange et broyés par la machine à profit ». L’innovation capitaliste incarnée par le modèle de la Silicon Valley est certainement plus que tout autre un modèle d’innovation à taux zéro, où tout est développé pour être le moins coûteux possible. C’est le cas également des actifs que l’innovation raffine : les données. L’enjeu n’est pas de produire de bonnes données ou des données de qualité (car produire des données de qualité est un processus coûteux), mais d’obtenir des données suffisamment bonnes pour être exploitées. Dès l’origine, cela a été le cas d’ImageNet, qui s’est révélée rapidement techniquement et socialement problématique. Avec le passage au Big Data et à l’IA, la précision, la neutralité et la causalité sont devenues des modalités sans importance, puisque les traitements pouvaient tout prendre en compte. « Plus grandes sont les données, moins vous avez à vous en faire », plus besoin de s’inquiéter de ses origines ou des contenus. Le Too big to fails’applique également aux traitements, pas seulement aux modèles économiques

Mais, si construire des modèles est excitant, nettoyer les données est ennuyeux. Autant d’éléments qui expliquent que les données aient été rendues bon marché. Et l’IA est une formidable opportunité pour rendre les données encore moins chères, comme le montrait l’analyse des principaux sites digérés par les moteurs les grands modèles de langage sans bourse déliée, ou le passage aux données synthétiques… au risque d’une dégradation sans fin des résultats, avec des modèles de plus en plus autophages. Dans le capitalisme, le cheap l’emporte tout le temps. Qu’importe les biais, les erreurs, les hallucinations… Les données peu chères l’ont emporté. 

A l’avenir, les données vont continuer d’être volées. Quant aux données nettoyées, de qualité, malgré leurs vertus, comme le soulignait Kate Crawford, il est probable qu’elles ne reviendront pas, estime Sadowski.  

La machine à profit perpétuel : la rente plus que le travail

Comme le turc mécanique en son temps, les systèmes d’IA sont des « illusions techniques conçues pour tromper le public », où le travail humain est invisibilisé pour nous faire croire que les machines fonctionnent d’elles-mêmes. Jathan Sadowski parle d’IA Potemkine pour faire référence aux villages Potemkine (le ministre de Catherine II de Russie faisait bâtir de faux villages pour impressionner l’impératrice lors de ses déplacements) : des outils de façade, qui cachent les humains appelés à agir comme des robots, comme l’on masque les humains dans la surveillance des véhicules autonomes. Partout, dans le domaine de l’IA, on utilise des humains sous couvert d’automatisation. En 2019, un rapport de MMC Ventures cité par le Financial Times avait souligné que sur 2800 startups qui affirmaient utiliser de l’IA dans leurs produits, 60% n’en utilisaient pas. Bien souvent, ironise Sadowski, l’IA annoncée n’est rien d’autre qu’un tableur. A son lancement, Mistral a reçu 105 millions d’euros sans avoir le moindre produit à montrer. 

Non seulement les ouvriers de l’IA sont invisibilisés, comme nous le rappelle le Mechanical Turk d’Amazon, mais la technologie elle-même est souvent décrite comme une boîte noire, où ses fonctionnements mêmes sont masqués sous une complexité technique, ambiguë, trompeuse voire mensongère. Le philosophe Byung Chul Han parle lui de Psychopolitique (Circé, 2016) plutôt que d’IA Potemkine, pour décrire une politique qui promeut son propre bénéfice. « Le mode opératoire n’est pas seulement de rendre les gens conformes aux commandements, mais plus encore de les rendre dépendants des systèmes ». Le pouvoir qui opère d’une manière séductrice plutôt que répressive est difficile à reconnaître comme un pouvoir, rappelle Sadowski. 

L’IA promet de résoudre les problèmes du capital par une croissance sans limites en développant des outils à son service, en promettant d’éliminer les coûts du travail. Avec l’IA, le capital cherche à construire une « machine à profit perpétuel », explique le géographe David Harvey dans Seventeen Contradictions and the End of Capitalism (Profile Books, 2015), qui cherche à capturer la valeur sans le travail. Mais plus que de faire disparaître le travail, l’enjeu est de le réorganiser pour en comprimer le moindre coût, par exemple en l’externalisant à l’autre bout du monde

En vérité, pourtant le travail humain est plus central et plus concentré que jamais. Dans un de ses articles, le sociologue Martin Krzywdzinski montre ainsi que Toyota, l’entreprise la plus efficace du monde, enlève des robots de ses chaînes d’assemblages pour améliorer la flexibilité et la réactivité des travailleurs humains : moins de 10% de la chaîne d’assemblage de Toyota est automatisée. La machine à profit perpétuel vise bien à plus à accélérer, optimiser et concentrer la productivité humaine sous le contrôle des machines qu’à nous remplacer par la technologie.

Le modèle économique des plateformes et services en ligne demeure un modèle d’extraction de rentes, rappelle Sadowski. Tous visent à rendre des secteurs entiers dépendants des services technologiques qu’ils fournissent, en transformant leurs clients en locataires. Les interactions sociales comme les transactions économiques sont transformées partout en services, en actifs. L’objectif est de tout transformer en ressources pour générer des revenus sans jamais concéder de propriété. Le but des plateformes de rente consiste à devenir des monopoles pour contrôler toutes les conditions de création de valeur (comme quand Zoom ou Adobe, parmi d’autres, tentent de changer leurs conditions d’utilisation à leur profit). Pour cela, les entreprises du numériques utilisent les Conditions générales d’utilisation, ces contrats unidirectionnels et non négociables, pour s’arroger l’essentiel des droits. CGU que nous devons les accepter « non pas tant pour que ces entreprises obtiennent notre consentement actif, mais bien plus pour sécuriser notre conformité passive »

Mais ce ne sont pas seulement les plateformes qui produisent des rentes, c’est « le système technique numérique tout entier désormais qui est devenu la nouvelle source de rentes. L’internet est l’infrastructure de relations de rentes, le nouveau mécanisme de l’extraction et de la capture », comme l’expliquait Sadowski lui-même. L’utilisateur ne possède plus rien, pas plus sa brosse à dent connectée que son interphone vidéo, pas plus les données que les programmes. Les propriétaires s’arrogent tous les pouvoirs, comme la mise à disposition des données à des tiers ou le changement des conditions unilatéralement

La rente est devenue le modèle que toutes les industries copient. Les plateformes permettent de maximiser les profits tout en minimisant les droits des utilisateurs. Sous couvert d’innovation, ce à quoi on assiste, c’est d’abord à une expropriation de tous puisque nous ne pouvons plus être propriétaires de rien. 

De la mécanique stochastique : la gestion du risque est devenue la modalité politique du monde moderne 

La partie la plus stimulante du livre de Jathan Sadowski est assurément sa réflexion sur l’avènement de la probabilité, en passe de devenir la modalité unique d’organisation et de domination du technocapitalisme. Les secteurs qui ont pris les rênes du technocapitalisme comme la finance, l’assurance, ou les technologies pour les propriétaires sont les secteurs experts de la gestion du risque. Des systèmes acturiaux aux scores de risques en passant par les algorithmes prédictifs, partout, l’évaluation du risque est devenue LA métrique. Ces « mécaniques stochastiques », c’est-à-dire statistiques, probabilistes, ont pris le contrôle. Pas étonnant que l’IA, qui n’est elle-même que le chef d’œuvre d’un traitement statistique à très grande échelle, soit le parangon moderne de cet accomplissement.

Scientifiquement, le risque consiste à comprendre la probabilité d’un événement dans les distributions aléatoires. A l’échelle individuelle, le risque d’avoir un accident de voiture est parfaitement aléatoire. Mais à l’échelle de populations, on peut découvrir des schémas et des fréquences. « Quand le risque est opérationnalisé dans des systèmes (marchés financiers, modèles actuariels, sécurité nationale, politiques de régulation…) l’aléatoire est recadré en problème à résoudre plutôt que traité comme des limites au pouvoir ». Ces techniques ont conduit à produire des méthodes de gestion adaptées : c’est-à-dire des formes de gouvernance du risque. Les risques sont devenus ce qu’il faut gérer, maîtriser. Ils sont à la fois la raison d’être des systèmes de gouvernance et leur justification, c’est-à-dire la raison pour laquelle on les construit, on les renforce. « Le risque est devenu à la fois le moyen et la fin de la gouvernance »

Foucault le disait déjà. La puissance et la connaissance ne sont pas des choses séparées, mais ont des relations symbiotiques entre elles. Connaître le monde consiste à exercer du pouvoir sur lui, et exercer du pouvoir sur lui, c’est le connaître. La gouvernance est un concept hybride, une fusion des pratiques politiques et d’affaires, explique la professeure de sciences politiques Wendy Brown dans Défaire le dèmos (Amsterdam, 2018). Pour Brown, la gouvernance consiste à remplacer les questions politiques par des logiques financières. Et cela a été accompli en important les modèles, les métriques, les valeurs, les concepts et les tactiques des secteurs de la gestion du risque à l’intérieur de toutes les sphères sociopolitiques. « Le risque est un concept puissant pour la gouvernance car il vient habillé de toute la neutralité, l’autorité et la mystique de l’expertise technocratique, tout en étant suffisamment flexible pour être adapté et s’appliquer largement »

« Nous évaluons d’abord le risque à l’aide de systèmes d’analyse, d’évaluation et de modélisation. Ensuite, nous le gérons grâce à des systèmes de surveillance, de réglementation et d’atténuation. Enfin, nous l’inventons grâce à des systèmes de prévision, de contrôle et d’intervention. À chaque étape, l’accent est mis sur le processus technique d’analyse, de surveillance ou de contrôle du risque plutôt que sur le contenu politique de sa définition et de son identification, ou sur les raisons pour lesquelles le risque constitue la meilleure, voire la seule option, pour encadrer les choses. Cette myopie est une caractéristique essentielle de la gouvernance des risques en tant que forme d’anti-politique. Le risque offre une façon de faire de la politique en éliminant et en refusant tout ce qui est politique de ce qui est analysé. (…) Les stratégies de dépolitisation que produisent l’analyse par les risques permettent d’intégrer de la rationalité économique dans tous les domaines de la société et de la vie. En définitive, les détails les plus fondamentaux de la gouvernance du risque – l’identification du risque, la motivation de la gouvernance, la justification du pouvoir, la priorisation des valeurs, la répartition des résultats – ne sont plus sujets à débat. Les enjeux sont tous laissés aux experts. »

La gestion du risque est mise en pratique notamment dans deux enjeux majeurs de nos sociétés : le changement climatique et l’intelligence artificielle, remarque très pertinemment Jathan Sadowski. La question climatique est souvent traitée comme un enjeu de « dérisquisation de l’Etat », c’est-à-dire un enjeu à minimiser le risque du secteur privé – ce que l’économiste Daniela Gabor désigne sous le terme de consensus de Wall Street. Ici, le rôle des autorités consiste à réduire les risques économiques des investissements privés en créant des garanties aux profits des investisseurs en les protégeant des risques politiques. Le but du derisking, c’est-à-dire de la minimisation des risques, est d’établir des conditions favorables (c’est-à-dire profitables) pour le capital privé tout en créant des projets d’investissements pour attirer les investissements. De même, réguler le risque des innovations émergentes est essentiel. L’approche principale pour réguler les technologies comme l’IA aux Etats-Unis ou en Europe s’applique à identifier, trier et atténuer les risques de l’IA non pas tant pour les utilisateurs que pour les entreprises qui les déploient. 

Mais qui établit les protocoles d’identification des risques ? Comment sont définis les niveaux de risques définis ? Quelles formes d’atténuation sont établies et dans quels buts ? Quelles alternatives sont laissées de côté ? « En considérant la régulation des systèmes d’IA comme une régulation des risques, les décideurs politiques adoptent, consciemment ou non, une position normative sur l’IA », observe la juriste Margot Kaminski. Cette position est également un choix qui privilégie et intègre des cadres, des valeurs et des résultats spécifiques à la technologie, et renonce à des formes de régulation qui privilégieraient les droits individuels, les avantages sociaux ou le principe de précaution.

« Si certains aspects de la réglementation des risques peuvent être efficaces pour atténuer certains préjudices, écrit Kaminski, cette approche de la réglementation met toujours l’accent sur des types spécifiques de préjudices en raison de la nature du risque. Ces préjudices doivent être quantifiables pour pouvoir être intégrés aux analyses statistiques et aux modèles financiers, ce qui conduit à négliger les préjudices qui ne sont pas facilement chiffrables sur une feuille de calcul. Ces préjudices sont souvent axés sur l’avenir, de sorte qu’ils peuvent être calculés en termes de probabilités qu’un événement se produise, ce qui écarte des préjudices déjà normalisés dans la société. Ces préjudices sont fondés sur les dangers posés aux personnes et aux populations qui correspondent au profil d’une personne moyenne – généralement un homme adulte blanc – ce qui minimise ou ignore ceux qui s’écartent de ce repère normatif. Ces préjudices sont également pris en compte au niveau agrégé, ce qui signifie que des impacts significatifs sur les individus peuvent être totalement masqués dans les données, largement sous-estimés par des choix coûts-avantages et inégalement répartis au sein de la société.

De plus, la réglementation des risques suppose généralement qu’une technologie sera adoptée malgré ses préjudices. Les causes de ces risques et préjudices – comme les entreprises qui construisent et déploient rapidement des systèmes d’IA pour diverses applications, sans véritable supervision, responsabilité ni précaution – sont traitées comme des conditions statistiques qui ont déjà eu lieu, qui ne peuvent être modifiées et qui doivent servir de point de départ à toute réponse. Autrement dit, la gouvernance des risques transforme le public en concierges chargés de nettoyer les dégâts causés par les entreprises, les armées, les forces de police et autres acteurs qui préfèrent tirer d’abord et ne jamais poser de questions ensuite. Le principe par défaut est de permettre au capital d’innover sans avoir à demander la permission – ou du moins d’avancer avec le moins de garde-fous possible. Le mieux que nous puissions faire – tout comme dans l’exemple du changement climatique – est de réduire les risques liés à ces innovations en encourageant une culture de responsabilité au sein des entreprises et en établissant des systèmes sociaux qui internalisent les coûts des investissements privés. »

« Le risque est un concept moderne qui a coévolué avec le secteur de l’assurance et ses modèles actuariels d’analyse, de projection et de tarification des résultats probables d’événements futurs en fonction des expériences passées et des conditions présentes. Cela confère aux régimes de gouvernance des risques une aura de rigueur technique. Ils sont dépolitisés par conception. Ces caractéristiques en font des outils évidents pour faire face à la complexité et à l’incertitude des technologies émergentes. Pourtant, ces approches ne vident pas la gouvernance des risques de son contenu politique. Elles se contentent d’enterrer le politique, rendant invisibles ces choix chargés de valeurs, brouillant les liens de causalité entre décisions, actions et effets, présentant leurs conséquences comme des compromis inévitables et produisant les conditions sociales qui soutiennent des formes spécifiques de savoir et de pouvoir. »

« L’analyse des risques offre la promesse de prédire l’avenir. C’est pourquoi le risque est devenu un outil si puissant et précieux pour le capitalisme technologique. »

« Dans de nombreux systèmes où l’analyse des risques se transforme en pouvoir matériel, l’incertitude stochastique est balayée. L’analyse scientifique des probabilités, avec ses larges marges d’erreur et de doute, se transforme en application technique de modèles prédictifs visant la précision. » Comme le dit la géographe Louise Amoore dans Cloud Ethics (Duke Press, 2020) : « Les processus et les arrangements de pondérations, de valeurs, de biais et de seuils dans les réseaux neuronaux ne relèvent pas, je crois, de notre champ politique statutaire. Pourtant, je suggère qu’ils doivent être présentés comme des questions et des revendications politiques dans le monde. »

« Au lieu de cela, toute cette immense complexité – technologique, politique, réelle – est remplacée par le score de risque. Arme ultime de la gouvernance du risque, le score prouve que le nombre est un véritable pouvoir. Surtout lorsque ces chiffres sont décontextualisés, revêtus du sceau de l’autorité technocratique et déployés comme des solutions simples à des problèmes complexes. Les scores de risque sont désormais des technologies de gouvernance omniprésentes, en grande partie parce qu’ils constituent des données facilement manipulables comme une massue par les individus et les institutions qui sont en première ligne de l’exercice du pouvoir dans la société. »

« Les scores de risques ont ainsi acquis réellement un impact sur nos vies et façonnent les structures sociales de manière significative. Les révéler est devenue une tâche impossible tant ils sont omniprésents, mais aussi parce que l’existence et le fonctionnement d’un grand nombre d’entre eux sont cachés par leurs créateurs et utilisateurs. Cette opacité endémique montre qu’ils relèvent d’un processus extrêmement politique. Si ces scores étaient objectifs et purement scientifiques, nul ne se donnerait la peine de les obscurcir. »

« Nombre des décisions les plus importantes prises par la police, les services frontaliers ou l’armée sont prises à l’aide – voire en grande partie sous-traitées – d’un arsenal diversifié de scores de risque, dont beaucoup sont créés par des entreprises privées puis vendus comme services exclusifs aux agences gouvernementales. L’objectif de la quantification de l’évaluation des risques est de transformer des jugements jusqu’alors subjectifs et discrétionnaires en calculs qui semblent plus objectifs et standardisés. Si certains outils peuvent être simples à comprendre, de nombreuses méthodes de production de scores s’appuient sur des algorithmes qui absorbent des quantités massives de données sur des sujets très divers, des statistiques de criminalité aux phases lunaires, et les synthétisent en un chiffre unique destiné à identifier les personnes considérées comme une menace pour la sécurité et à déterminer le comportement des agents face à une situation donnée. »

Par exemple, les services de police américains ont mis en place un logiciel appelé Beware pour générer des scores de menace personnalisés concernant une personne, une adresse ou une zone. Ce logiciel prétend fonctionner en traitant des milliards de données, notamment des rapports d’arrestation, des registres fonciers, des bases de données commerciales, des recherches sur le web profond et les publications de la personne sur les réseaux sociaux, rapporte le Washington Post. « Les scores sont codés par couleur afin que les agents puissent connaître d’un coup d’œil le niveau de menace d’une cible : vert, jaune ou rouge. La différence fondamentale entre un score vert et un score rouge est un mystère pour l’agent, mais elle peut faire toute la différence entre un agent qui lance un contrôle routier avec un sourire amical ou qui, le doigt sur la gâchette, est prêt à engager le combat. »

Mais surtout, rappelle Sadowski : « les gens ne doivent pas savoir pourquoi ils sont signalés par des systèmes d’analyse de risque automatisés ». La sociologue Barbara Kiviat dans son étude sur le score de crédit dans la fixation des prix des assurances rappelle : « la prédiction algorithmique est imprégnée de points de vue normatifs, qui répondent aux objectifs des entreprises. L’utilisation de systèmes de notation basés sur les données pour la classification des risques s’inscrit dans la longue histoire du secteur, qui a créé toutes sortes de méthodes scientifiques pour justifier moralement ses propres intérêts et actions », comme le montraient les ouvrages des historiens Dan Bouk, How Our Days Became Numbered: Risk and the Rise of the Statistical Individual (University of Chicago Press, 2015) et Caley Horan, Insurance Era: Risk, Governance, and the Privatization of Security in Postwar America (University of Chicago Press, 2021).

« Nombre des décisions les plus importantes prises par les services sociaux, les organismes d’aide sociale et les programmes d’assistance publique sont prises à l’aide – voire en grande partie sous-traitées – d’un arsenal diversifié d’indices de risque. Ces derniers comptent parmi les outils les plus insidieux de la gouvernance néolibérale actuelle et reconfigurent le fonctionnement des services sociaux pour l’adapter à des logiques financières. Plutôt que d’identifier ceux qui ont le plus besoin d’aide, ces institutions utilisent les indices de risque pour identifier ceux qui représentent les menaces les plus dangereuses pour le système : les fraudeurs potentiels. » 

« Ces technologies sont conçues pour éviter (ou générer) les faux négatifs : mieux vaut refuser l’aide à mille personnes dans le besoin que de laisser passer un seul escroc indigne de l’aide sociale. À cette fin, les services sociaux publics du monde entier ont mis en œuvre des formes de gouvernance des risques parmi les plus rigoureuses, qui traitent les populations déjà défavorisées comme des menaces qu’il faut identifier, suivre, gérer, enquêter et neutraliser. » C’est ce que montraient les nombreuses enquêtes sur les services sociaux, notamment l’exemple néerlandais analysé par Lightouse Reports : le but de ces systèmes n’est pas de trouver qui a besoin d’aide, mais de discriminer ceux qui tentent de recevoir de l’aide. Malgré qu’ils soient extrêmement complexes et qu’ils étendent des formes de discrimination, ces systèmes sont aussi terriblement simplistes et arbitraires dans leurs décisions. Ils ne font pas bien mieux que l’aléatoire, disait Lightouse Reports en produisant des discriminations flagrantes (et illégales) depuis des facteurs simples comme l’origine ethnique, le genre et le handicap. Dans ces systèmes de risques, être pauvre et demander de l’aide est un comportement à haut risque qui déclenche enquêtes sociales, enquêtes de police et interventions administratives. Julia Dressel et Hany Farid ont montré que Compas, n’est pas plus précis ou équitable qu’une prédiction de bistrot. Et « l’augmentation de la complexité n’améliore pas la précision de ces systèmes, mais amplifie leur autorité sociale en racontant comment il vous donnera accès à des informations précises, neutres et quasi divines sur le monde. Plus de données ne signifie pas plus de connaissances, mais cela peut signifier plus de pouvoir si vous convainquez les gens que les scores de risque sont des vérités prédictives prêtes à être utilisées pour une action immédiate ».

Dans trop de cas, avance Sadowski, comme le proposait également Arvind Narayanan, il semble que l’échantillonnage aléatoire constituerait en réalité une amélioration significative par rapport aux scores de risque, dont il a été prouvé qu’ils sont systématiquement inexacts et socialement biaisés, et qu’ils conduisent à toutes sortes de discriminations injustes. « Ces technologies excellent dans la reconnaissance de formes, mais elles sont aussi des machines à renforcer les formes. Elles extraient des données du passé et les transforment en décisions pour l’avenir. Les dés technologiques ont été truqués depuis longtemps pour favoriser certains intérêts sociaux, écrit le philosophe Langdon Winner. Je préfère être jugé par un tirage au sort plutôt que par des dés pipés. »

« Il est difficile de résister à l’attrait d’une technologie qui offre le vernis d’une autorité objective et l’utilité de réduire des événements complexes à un seul chiffre, voire à une seule couleur. »

Sadowki rappelle l’histoire de l’assurance en convoquant l’historien Dan Bouk qui expliquait les limites de sa promesse de calculer un risque toujours plus individualisé en ségrégant le risque en d’innombrables catégories. L’idée ou le but a toujours été d’appliquer des risques statistiques sur chaque individu, afin d’affiner, d’augmenter, de renforcer les principes de fixation des prix. Mais ce que cela produit, c’est des méthodes avancées pour la ségrégation sociale, les discriminations tarifaires et l’hyperpersonnalisation, disait déjà Greta Krippener. L’intensification de ces pratiques a fini par être transformatif.  Pour Colm Holmes, président d’Aviva et d’Allianz, le risque est de créer des gens qui n’ont pas besoin d’assurance et des gens qui ne sont pas assurables. Oubliant que l’assurance ne fonctionne que du fait de l’incertitude. 

« Les scores produisent un réductionnisme technocratique en pratique ». Pour les assureurs et les financiers, le seul but est de mettre un prix au risque et de le faire de manière profitable ce qui suppose de transformer les qualités en quantités, en chiffres. Sadowski, rappelle qu’il est difficile de combattre toutes les pratiques d’optimisation (des prix, comme des réclamations… ). Et assène : « l’optimisation est un euphémisme industriel pour désigner la discrimination ». Le problème, c’est qu’elle a des effets régressifs : les personnes les plus vulnérables et déjà défavorisées – par exemple, les plus pauvres, les plus âgées, les moins instruites ou les personnes de couleur – se retrouvent également dans une situation où elles n’ont d’autre choix que d’accepter des prix plus élevés et des indemnisations plus faibles. « L’intégration de l’apprentissage automatique dans l’assurance rend ces tactiques discriminatoires plus puissantes, plus répandues et plus difficiles à démasquer. Désormais, ces pratiques – et les données sensibles sur lesquelles elles reposent – ​​peuvent être blanchies grâce à l’opacité de l’apprentissage automatique, offrant ainsi aux actuaires humains un démenti plausible lorsque la discrimination et la tromperie sont découvertes. »

Pour Jathan Sadowski, « le risque n’est pas une mesure objective des phénomènes naturels et des schémas mathématiques ». Il ne repose même pas toujours ni entièrement sur l’analyse scientifique des processus stochastiques et des propriétés émergentes. « Il est créé par les régimes mêmes qui le calculent et le gouvernent. Il est le produit de systèmes technopolitiques et d’intérêts socio-économiques, et il est instrumentalisé pour les servir. Il est créé, encadré, conçu, tarifé, déplacé et déployé de manières spécifiques pour agir sur le monde. Le risque fait partie intégrante des opérations de pouvoir, de données et de valeur dans le capitalisme ». 

Dans son livre How Our Days Became Counted, l’historien Dan Bouk détaille comment le secteur de l’assurance a non seulement créé des méthodes d’analyse statistique, mais a également contribué à créer une culture où il était logique de concevoir les individus et les sociétés comme des nombres à suivre, analyser, prédire et gérer afin de se prémunir contre des risques (in)certains. C’est un processus que Bouk appelle « créer le risque » : « avec la généralisation de l’assurance, le risque a acquis une définition plus précise : il est devenu une sorte de marchandise ».

Les modes de production, d’achat et de vente du risque ont évolué à maintes reprises au cours des cent dernières années, à mesure que de nouveaux moyens de production et d’échange se développaient pour garantir que le risque demeure une source fiable de profit et de pouvoir pour le capital et les États. À l’apogée du capitalisme industriel américain, le risque était perçu comme une affaire intrinsèquement collective, calculable uniquement comme une propriété de groupes, comme l’explique la sociologue Greta Krippner. Cette conception est la base des traditions de bien-être mutuel qui traitent le risque comme un fardeau et la sécurité comme un avantage qui devrait être partagé équitablement entre l’ensemble du groupe. « Mais la collectivisation du risque a également été directement codifiée dans les institutions juridiques, sociales et culturelles par le capital de manières très spécifiques. Alors que le nombre d’accidents du travail, de blessures et de décès de travailleurs montait en flèche au début des années 1900, les capitalistes ont soutenu des notions de risque qui dépersonnalisaient ces incidents et socialisaient toute responsabilité pour leurs conditions, leurs causes et leurs conséquences. De nouvelles méthodes de collecte de données statistiques ont montré qu’il y avait une régularité écrasante des accidents du travail sur les lieux de travail. La conclusion tirée par les entreprises et le gouvernement était que ces dangers étaient inévitables et naturels, une triste réalité de la société industrielle et le prix du progrès ; il fallait la « gérer », mais elle ne pouvait jamais être changée ». Comme l’explique Krippner : « Le calcul du risque ne cherchait plus à appréhender des expériences particulières de blessures et de décès, mais s’efforçait plutôt de décrire la fréquence des accidents du travail dans la population globale. L’attention se concentrait non pas sur les circonstances particulières qui déterminaient la manière dont une personne était blessée, mais sur le nombre total de travailleurs blessés sur une période donnée, quelles que soient les circonstances. L’objectif de ces nouvelles technologies de gestion du risque n’était pas d’enquêter sur des accidents déjà survenus afin d’en attribuer la responsabilité, mais plutôt de prédire (et éventuellement de prévenir) les accidents futurs afin de pouvoir en répartir et en gérer les coûts. Cette notion de risque était abstraite, sa méthode actuarielle et sa signification démoralisée ». 

Cette vision du risque persiste encore largement aujourd’hui. Cependant, elle a également été remodelée par les avancées du capitalisme, estime Jadowski. Les caractéristiques du risque comme inévitabilité collective, qui se sont imposées dans le capitalisme industriel, coexistent désormais avec les approches du risque nées avec le capitalisme financier. Et le capitalisme technologique produit des innovations dans le domaine, comme l’assurance comportementale qui consiste à capturer des données sur le comportement des consommateurs (ou les activités, les choix et les modes de vie des assurés). Via des capteurs, comme ceux qui surveillent votre condition physique ou votre style de conduite, l’assurance comportementale vise à analyser et à évaluer avec précision le comportement des consommateurs. Elle intègre ensuite ces données dans des aspects clés de l’entreprise, comme le développement de produits, les campagnes marketing, la tarification des primes et le traitement des sinistres, tout en espérant « atteindre le Saint Graal de la gestion des risques : modifier activement le comportement des consommateurs pour s’assurer qu’ils mènent une vie moins risquée ». À la base de cette approche se trouve une théorie qui établit des liens de causalité directs entre les comportements individuels, les facteurs de risque et les résultats spécifiques. Au-delà de la simple affirmation que « les comportements sont des variables clés à prendre en compte ou à traiter », cette théorie du risque pousse à la conclusion plus extrême que seuls les choix personnels comptent ; les conditions externes et les structures sociales n’en ont pas. La responsabilité ultime du risque et de ses conséquences incombe aux individus et à leurs choix contrôlables. D’où l’orientation toujours plus forte sur les usages personnels, les petits gestes, le renvoi des utilisateurs à leur responsabilité.

Si les conceptions du risque ont évolué, le test ultime que tout système de gouvernance du risque doit réussir est pragmatique : « est-il efficace pour générer du profit et du pouvoir ? »

Le secteur de la prédiction du risque est animé par la grande ambition d’être le gardien de l’avenir supervisant chacun de nos mouvements et nous protégeant des aléas stochastiques de la vie. L’industrie justifie sa position parmi les institutions les plus omniprésentes et les plus puissantes de la société en se présentant comme un agent de progrès social qui utilise son expertise technocratique en analyse des risques pour intervenir et gouverner pour le mieux. Mais cet impératif moral ne va pas plus loin que les limites financières le permettent. Le capital est contraint de classer, hiérarchiser et exclure les individus de manière de plus en plus granulaire. Si notre profil de risque s’écarte trop de la norme de rentabilité, nous sommes alors abandonnés aux aléas du hasard. « Certains prennent des risques ; d’autres doivent les assumer. » Mais au final, certains assument toujours les risques que d’autres prennent parce qu’ils les prennent contre les premiers. 

Hubert Guillaud

La couverture du livre de Jathan Sadowski, The Mechanic and The Luddite.
  • ✇Dans les algorithmes
  • Le mythe de la bonne IA
    « La société délirante dans laquelle nous vivons ressemble à un mensonge parfaitement mis en scène que l’on nous persuade d’accepter comme une réalité », estime Arshin Adib-Moghaddam dans son livre The myth of good AI : a manifesto for critical Artificial intelligence (Le mythe de la bonne IA : un manifeste pour une intelligence artificielle critique, Manchester university press, 2025, non traduit). Cette société délirante n’est pas le produit de l’IA, constate pourtant le professeur de philosop

Le mythe de la bonne IA

11 décembre 2025 à 07:00

« La société délirante dans laquelle nous vivons ressemble à un mensonge parfaitement mis en scène que l’on nous persuade d’accepter comme une réalité », estime Arshin Adib-Moghaddam dans son livre The myth of good AI : a manifesto for critical Artificial intelligence (Le mythe de la bonne IA : un manifeste pour une intelligence artificielle critique, Manchester university press, 2025, non traduit). Cette société délirante n’est pas le produit de l’IA, constate pourtant le professeur de philosophie et codirecteur du Centre pour les futurs de l’IA de l’université de Londres. Mais, l’IA vient la renforcer parce qu’elle « floute les lignes de nos modes de compréhension de la vérité et du mensonge, du pouvoir et de la résistance, de la subjectivité et de l’objectivité, de la science et de la fiction ». Ce qui change avec l’IA, c’est que Big Brother n’est plus une autorité qui nous contrôle de l’extérieur, mais une perturbation qui vient altérer nos facultés cognitives elles-mêmes. 

Pour Arshin Adib-Moghaddam, ni Orwell, ni Foucault ne peuvent nous aider à saisir le monde actuel. L’assaut contre notre autonomie est massif, à l’image du projet délirant de Torre Centilena à Ciudad Juarez, équipée de 1791 lecteurs de plaques d’immatriculation, 74 drones et 3000 caméras panoramiques pour surveiller la frontière américano-mexicaine à perte de vue. Le pouvoir n’est plus incarné. « Le pouvoir est en train de devenir liquide, il prend la forme de tout ce qu’il colonise et devient quasiment invisible ». Le régime de surveillance est en passe de devenir « microbien ». C’est-à-dire que non seulement il est partout, qu’il est intégré au plus profond de nous, mais qu’il tend à exercer un contrôle total, partout, tout le temps en étant totalement intrusif et en régissant jusqu’à notre psychisme même. Adib-Moghaddam parle de « psycho-codification » du monde pour évoquer cette intrusion inédite des méthodes qui altèrent jusqu’à ce que l’on pense, jusqu’à nos intentions disions-nous récemment. Cette intrusion nous entraîne dans une guerre posthumaine, entre les humains et les machines. Nous sommes désormais la cible de drones, de machines, d’algorithmes qui s’en prennent à nos individualités mêmes. Partout, le meurtre et la torture s’étendent sans avoir plus de comptes à rendre, à l’image de la police des frontières américaines, ICE, qui déploie son emprise, comme d’autres armées et d’autres polices, via des machines de surveillances totalitaires. Comme le pointait pertinemment le journaliste Olivier Tesquet suite aux révélations que l’ICE aurait arrêté plus de 75 000 personnes aux Etats-Unis sans historique criminel (soit un tiers des 220 000 personnes arrêtées depuis 9 mois) : « plus l’ICE s’appuie sur Palantir pour « rationaliser » l’appareil répressif, plus les arrestations deviennent arbitraires. Ce n’est pas un bug mais une fonctionnalité : la machine produit la catégorie d’indésirables dont l’administration Trump a besoin ».

Derrière ces transformations bien réelles, l’IA les prolonge encore, en s’en prenant à nos sens mêmes, jusqu’à nous faire douter de la réalité même. 

Derrière cette société délirante, il faut entendre qu’il y a une « utilisation infâme » des technologies. De la reconnaissance faciale qui criminalise les minorités raciales aux logiciels de récidives qui discriminent les populations racisées aux scores de risques qui refusent des aides et des prêts aux populations minorisées et pauvres… une même oppression se déploie pour renforcer et cimenter les inégalités structurelles de la société.

Dans ce contexte, estime Arshin Adib-Moghaddam, on entend beaucoup parler d’éthique, d’IA responsable, qui serait à même, bientôt, demain, de réparer les systèmes et « d’atténuer les dommages ». Mais l’IA peut-elle être éthique ? 

L’IA peut-elle être éthique ?

Non répond le philosophe. L’IA est là pour imposer sa terreur, comme le disaient Hagen Blix et Ingeborg Glimmer. L’IA est là pour produire de l’incertitude, de l’angoisse, et cette peur est une méthode de gouvernance. « L’IA augmente la capacité de ceux qui l’utilisent à nous terrifier, dans un but de contrôle, de surveillance et de profit ». L’écrivain iranien Jalal Al-e Ahmad parle de « westoxification » (contraction entre West, l’Occident, et intoxication pour désigner une forme d’absorption toxique, de submersion par la culture occidentale – le terme a été traduit en français en « occidentalite ») pour désigner l’oppression de la modernité occidentale, comme le chercheur et sociologue péruvien Anibal Quijano dénonce la « colonialité », c’est-à-dire le fait que les rapports de pouvoir colonialistes perdurent notamment depuis les technologies. 

Dans son livre, Arshin Adib-Moghaddam commence par débugger le discours des machines éthiques. Les fondations idéologiques de la science sont dysfonctionnelles, rappelle le philosophe. La science a accompagné le projet politique de la modernité, comme l’expliquaient Ulises A. Mejias et Nick Couldry dans Data Grab (voir notre recension). Les Lumières ont transformé le racisme en science. Et l’IA n’est qu’une extension d’un système techno-colonial, remanié par le néofascisme en cours

L’idée même d’éthique est poreuse à ces idées problématiques, explique-t-il. L’éthique se présente comme un mécanisme universel, mais oublie que cette philosophie qui pense pouvoir rendre nos machines et nos actions responsables, est une pensée spécifique, historique, contingente à la philosophie occidentale… Et qui l’est d’autant plus qu’elle a oublié les apports des autres philosophies. Arshin Adib-Moghaddam évoque nombre de philosophes asiatiques, arabes ou juifs effacés de la tradition philosophique au profit des philosophes grecs et européens. « Les façons de poser les questions éthiques autrement ont été balayées ». Pour les thuriféraires de l’IA, la vénération de sa puissance tourne à la religion. Mais si la machine peut-être Dieu, ce fondamentalisme s’annonce aussi dangereux que l’extrémisme religieux, prévient Arshin Adib-Moghaddam. Pourtant, qui s’inquiète de l’interfaçage des machines à nos cerveaux, du devenir posthumain que nous promettent les développeurs de l’IA ? Kant, Hume ou Locke, ces grands penseurs de l’Occident, ont tous tenu des propos racistes, ont tous défendu l’idée que les barbares devaient être civilisés par les Européens. Et ces grandes pensées occidentales sont celles-là même qui viennent alimenter de leurs données l’IA moderne. « L’IA est ethnocentrée et cet ethnocentrisme ne sera pas corrigé par les données », par l’amélioration des traitements ou par un sursaut éthique. Les manuels d’éthique doivent être réécrits, estime Adib-Moghaddam, qui invite à partir d’autres philosophies pour bâtir d’autres IA. 

L’IA : machine à discriminer

Arshin Adib-Moghaddam dénonce le terme de biais qui a colonisé la critique de l’IA. Les biais sont un terme bien dépolitisé pour évoquer l’oppression structurelle inscrite dans les données, dans notre histoire. Le racisme des sociétés occidentales a été intériorisé dans une « géopolitique eugéniste » qui ne domine pas seulement les relations internationales ou économiques, mais qui psycho-codifie jusqu’à nos corps et nos esprits. Le racisme a été la  stratégie impériale et scientifique qui a encore des effets quotidiens, qui inocule nos outils, comme la médecine, qui tue encore des patientes et des patients parce qu’elles et ils sont noirs, parce qu’elles sont des femmes et parce que les données médicales ne sont pas collectées sur elles et eux. Les rapports et les études sur le sujet s’accumulent sans que la médecine elle-même ne réagisse vraiment, comme si elle ne s’était jamais départie des origines racistes de la science, que dénonçait par exemple le sociologue Eduardo Bonilla-Silva dans son livre Racism without Racists : Color-Blind Racism and the Persistence of Racial Inequality in the United States (Le racisme sans les racistes : le racisme indifférent à la couleur et la persistance des inégalités raciales en Amérique, Rowman & Littlefield , 2003, non traduit). Même durant le Covid, les quartiers racisés ont été plus décimés que les autres. 

On peut alors dénoncer les biais racistes des systèmes, de la reconnaissance faciale aux pratiques algorithmiques d’Uber. Mais c’est oublier que nous sommes cernés par des données algorithmiques « blanchisées » (whitewashing), c’est-à-dire à la fois blanchies parce qu’ignorantes de la couleur de ceux qu’elles écartent et blanchies parce qu’elles masquent leurs dysfonctionnements raciaux. Nous sommes coincés entre un passé pollué et un présent problématique. Nous restons par exemple coincés dans les constats où les cancers de la peau sont plus importants pour les populations de couleurs alors qu’ils sont moins diagnostiqués pour les patients noirs que blancs. Ces données et ces erreurs pourtant ne sont pas corrigées, pas prises en compte. La perspective d’augmenter notre capture par des données n’annonce pourtant pas d’amélioration, au contraire, d’abord et avant tout parce que cette invasion doit être comprise pour ce qu’elle est : une extension de l’héritage de l’eugénisme raciste de la science, une forme d’expansion biopolitique du contrôle plus qu’une promesse de justice et d’égalité. 

Les mauvaises données produisent de mauvais algorithmes et de piètre systèmes d’IA, rappelle le philosophe. Or, nous sommes cernés de mauvaises données. Les préjudices du passé envers certaines populations sont intégrés aux systèmes qui vont produire l’avenir. Cela ne peut pas bien se passer. Pourtant, fort de ces constats, terribles, les recommandations éthiques paraissent bien trop mesurées. Elles invitent à améliorer la représentation et la diversité des ingénieurs et des éthiciens, à améliorer les principes éthiques, à améliorer l’éducation des ingénieurs… dénonce Arshin Adib-Moghaddam. Autant de mesures qui tiennent plus de l’orientalisme qu’autre chose, pour faire référence au concept développé par l’intellectuel palestino-américain Edward Saïd dans son livre éponyme (Le Seuil, 1978), ouvrage fondateur des études postcoloniales. Pour Saïd, la tradition artistique et scientifique orientaliste n’est qu’une étude de l’Orient par l’Occident, une interprétation de l’Orient, une condescendance au service de l’impérialisme. 

Du techno-orientalisme au privilège épistémique

Pour Arshin Adib-Moghaddam, le techno-orientalisme qui consiste à améliorer la diversité des développeurs ou à produire une équité par des corrections techniques n’est en rien une solution. ll ne remet pas en cause le pouvoir de la technologie. « Les personnes historiquement marginalisées et vulnérables continuent à être inventées comme objets de la technologie ». Les erreurs à leurs égards, finalement, renforcent l’obsession à mieux les surveiller sous prétexte d’objectivité, pour mieux hiérarchiser la société par le calcul. « Le techno-orientalisme ne vise qu’à renforcer les frontières entre nous et eux, l’est et l’ouest, les noirs et les blancs, entre les nationaux et les autres ». Shoshana Zuboff a montré que la tolérance à l’extrémisme est bien souvent un modèle d’affaire acceptable. Dans une étude sur la toxicité de Twitter, le Centre de lutte contre la haine numérique avait montré qu’une dizaine de comptes sur X pouvaient produire du contenu haineux et conspirationniste capable de rapporter… 19 millions de dollars en revenus publicitaires. « Le techno-orientalisme s’impose comme un incubateur pour l’expansion impériale afin de maximiser les revenus pour quelques personnes sélectionnées ». L’impérialisme de X prolifère et impose sa colonialité. Comme les projections de Mercator ont valorisé l’Occident, nous montrant un Groenland par exemple aussi grand que la Chine, quand en réalité il ne fait qu’un quart de la superficie de la Chine. L’impérialisme de X, comme l’impérialisme de l’IA rend possible un « privilège épistémique » qui « confère à une poignée d’hommes le privilège d’interpréter, de juger et de planifier l’avenir de la majorité ». Partout, une poignée d’hommes blancs parlent d’un avenir inévitable (le leur), utilisent ces outils pour diffuser leurs idées sans nuances, mégalomanes, patriarcale et coloniales influentes, sans se préoccuper du sort des autres. Derrière leurs idées rances, ils défendent avant tout leur identité. Les néo-Nazis comme les terroristes d’ISIS tuent au nom de l’identité, comme le soulignait Paul Gilroy dans Against Race. Les médias sociaux sont devenus des paradis pour les fausses informations des extrémistes, où ils peuvent se faire les avocats de leurs agendas hystériques avec plus ou moins d’impunité. La stupidité y est le meilleur capital, assène le philosophe. 

La coercition est forte avec les technologies. Microsoft et Google déploient des technologies de surveillance à l’encontre des Palestiniens. Saïd disait que la déshumanisation des Palestiniens était l’un des grands héritage de l’orientalisme. Pour Arshin Adib-Moghaddam, une IA vraiment éthique devrait assurer que ses traitements et données soient auditables en accord avec les législation qui défendent les droits humains au niveau international, national et local. Le déploiement sans limite des technologies aux frontières, par la police et les militaires, nous montre qu’il n’en est rien. 

L’IA pour peaufiner l’oppression 

L’oppression structurelle, codifiée dans des institutions genrées et racistes, dans des normes politiques et sociales omniprésentes, s’apprête à entrer plus profondément dans nos esprits avec l’IA générative. Quand on pose des questions à ces moteurs, ils produisent certaines réponses qui sont le reflet des sociétés occidentales qui les produisent. A la question y-a-t-il un génocide à Gaza, ChatGPT répond non. A la question peut-on torturer une personne, ChatGPT répondait par l’affirmative si cette personne venait d’Iran, de Corée du Nord ou de Syrie. Ces « erreurs » qui n’en sont pas mais qui peuvent nous être présentées comme telles, sont bien sûr corrigées parfois. Les modèles de langage galvanisent les préjudices raciaux comme le montrait l’étude menée par Valentin Hofmann (qu’on évoquait ici) qui montrait que l’IA s’adapte aux niveaux de langage de son interlocuteur ou qu’elle classe les mêmes CV différemment selon les consonances culturelles des noms et prénoms. Mais ils ne sont que les reflets des sociétés qui les produisent. Les modèles de langage sont bien les produits racistes de sociétés racistes, affirme celui qui avait dénoncé le caractère raciste de l’IA dans un précédent livre. Les corrections sont possibles, au risque d’enseigner superficiellement aux modèles à effacer le racisme, tout en le maintenant à des niveaux plus profonds. « En fait, nous sommes confrontés par une forme furtive de technoracisme soigneusement dissimulée par un univers d’IA de plus en plus opaque ». Dans ces IA, les musulmans sont toujours associés à la violence

Weizenbaum nous avait prévenu : les humains sont plus enclins à se confier à une machine qu’à un humain. Et ce pourrait être exploité plus avant par les machines de coercition de demain. La CIA a beaucoup travaillé sur les drogues et outils permettant de mettre les gens en confiance, rappelle Arshin Adib-Moghaddam. Si les méthodes d’interrogation utilisées à Abu Ghraib ont été sur la sellette, le Mikolashek Report montrait par exemple que les frontières entre la torture, les abus et les techniques d’interrogations dites légitimes étaient plus poreuses que strictes. A Abu Ghraib, la torture n’était pas un accident. Les individus qui ont été torturés n’étaient pas isolés. A Abu Ghraib, les interrogatoires ne devaient pas laisser de traces sur les prisonniers et le système médical a donné ses conseils aux militaires pour y parvenir. C’est lui qui a proposé des modalités d’interrogatoires coercitives. A Abu Ghraib comme à Guantanamo Bay, des procédures ont été mises en place, comme le fait d’empiler les prisionniers nus pour profiter du fort tabou de l’homosexualité dans la culture arabe et musulmane. 

Que fera l’IA qui est déjà appelée à assister les interrogatoires de la CIA ou de la police ? Aura-t-elle encore plus que les humains la capacité de briser notre humanité, comme s’en inquiétaient des chercheurs ? Sera-t-elle l’outil parfait pour la torture, puisqu’elle pourra créer du contexte psychologique ou informationnel pour rendre les gens toujours plus vulnérables à la manipulation, comme des chatbots compagnons, dressés contre nous. 

La torture à Abu Ghraib a été rendu possible parce qu’elle a épousé totalement la culture de ceux qui l’ont pratiqué. « L’histoire récente de l’IA n’apporte aucune preuve que les systèmes d’IA soient plus objectifs que les humains, à mesure qu’ils déploient les mêmes biais qu’eux, avec bien moins de responsabilité »

L’IA pour pour penser à notre place et prendre le contrôle des esprits

Pour le philosophe, le contrôle de l’esprit est le Graal des systèmes d’IA. Ce que veulent ceux qui déploient l’IA, c’est qu’elle prenne le contrôle des esprits. 

Mais, dans les systèmes de domination, la résistance apparaît souvent là où on ne l’attend pas, disait Anibal Quijano. Pourtant, souligne Arshin Adib-Moghaddam, la société civile ne regarde pas suffisamment ce qui se déploie, elle semble peu impliquée dans le très dynamique secteur de l’IA militaire. Face à l’inégalité de pouvoir entre utilisateurs de l’IA et producteurs d’IA qui se sédimente avec le déploiement et l’extension des outils d’IA partout, peu est fait pour nous protéger. L’érosion lente de la vie privée, l’objectivation posthumaine… nous éloignent de la dé-technologisation qu’appelle de ses vœux Carissa Véliz dans son livre, Privacy is Power (Penguin, 2021). 

Pour Adib-Moghaddam, nous devrions pourtant chercher à protéger notre humanité, plutôt que de chercher à flouter les différences entre l’homme et la machine, comme l’attendent les tenants du posthumanisme. Adib-Moghaddam souhaiterait un futur qui soit post-IA, dans lequel l’IA, au moins telle que nous la connaissons aujourd’hui, n’ait pas sa place. Tant que nous la laisserons exploiter les données passées nous laisserons construire une IA fondamentalement destructrice, extractive, qui perpétue l’irrationalité et l’agenda des conservateurs et de l’extrémisme de droite, en exploitant les données pour renforcer les différences entre un nous et un eux dans lesquels personne ne se reconnaîtra autres que les plus privilégiés. 

La promesse d’une bonne IA est centrale dans l’approche éthique que pousse la Silicon Valley, enrôlant les meilleurs chercheurs avec elle, comme ceux du MIT, du Berkman Klein Center for internet et society de Harvard. Leur travail est remarquable, mais la poursuite d’une IA éthique ne nous aide pas à trouver des restrictions au déploiement de technologies qui maximalisent la surveillance de masse et la violence systémique. « Tant qu’il n’existera pas de restrictions, les délibérations morales et politiques sur l’informatisation demeureront secondaires par rapport à l’impératif de profit »

A l’heure de l’IA, la lutte pour la démocratie risque d’être plus essentielle que jamais et plus difficile que jamais. Le mythe de la bonne IA nous promet un monde dont les fondations et constructions sociales ne changeront pas. « L’âge de l’IA nous promet un rapport léthargique et résigné au monde ». C’est sans surprise que ceux qui refusent cette IA là sont qualifiés d’être irrationnels, radicaux ou idéalistes… Mais ne soyons pas dupes. « Il est plus facile de prendre le parti des puissants à l’heure de l’IA, alors que nous devrions prendre la direction inverse ». « Les technologies d’IA sont un danger pour nos démocraties car elles inhibent nos choix en donnant de l’impulsion aux seuls extrêmes ». Elles nous confinent dans un espace de pensée restreint. Pour Arshin Adib-Moghaddam, il nous faut reconnaître notre humanité, une humanité qui ne peut être programmée par des machines qui ne seront jamais sensibles. 

Être humain, c’est savoir se protéger

Être humain signifie savoir se protéger de la pénétration, c’est-à-dire un droit à être laissé tranquille, seul. Nous devons réaffirmer la nécessité d’un « bouclier de la vie privée ». La critique féministe et décoloniale nous donne des armes, comme le fait Françoise Vergès par exemple en croisant les deux. Ressentir, penser, percevoir ou croire doivent rester des valeurs humaines, sans altération des machines. C’est notre intimité même que tente d’envahir le complexe industriel de l’IA

Ainsi par exemple, être créatif c’est indubitablement être humain. La créativité des machines n’est qu’un effort pour rendre confus nos sens et émotions, au profit du profit et dans une aversion de l’art comme un comportement insurrectionnel. Psycho-codifiés, TikTok, FB ou X sont des moyens d’envahir nos sanctuaires intérieurs. Les machines peuvent faire n’importe quelle tâche sans ressentir la douleur et la discipline nécessaire que l’auto-amélioration nécessite. D’où des productions sans âme, « inutiles pour l’émancipation sociale comme politique ». En associant l’art au seul profit, la matrice technologique propose de faire suffoquer l’essence même de l’art, comme s’il n’était qu’une extension technologique, qu’un moyen de contrôler la subjectivité humaine.

De quelque endroit qu’on l’analyse, l’IA ne nous offrira aucun antidote à l’impéralisme, au colonialisme et à l’extrémisme. « Nous sommes tous devenus les objets du colonialisme des données extraites de nos corps mêmes ». Le colonialisme était horizontal, géopolitique dans son expansion. Le colonialisme des données, lui, est intimement vertical. Il vise à objectifier des individus vulnérables au profit des sociétés technologiques du Nord global. Les grandes entreprises exigent de nous psycho-codifier en permanence et partout. Arshin Adib-Moghaddam défend un manifeste post-IA qui seul peut gagner la bataille entre le poète et la machine, le stylo et l’épée, le modérateur biaisé et l’activiste paisible. Nous avons besoin de justice et d’émancipation sociale, rien d’autre. Ce qui n’y œuvre pas n’a pas d’intérêt. L’ignorance, l’évitement et la passivité que nous promettent l’IA et ses tenants, ne nous proposent aucun avenir. « Si nous avons besoin d’une bonne IA, nous avons besoin d’une bonne IA qui réponde à nos termes », qui puisse nous permettre de reprogrammer le futur plutôt que de subir la perpétuation du passé.  

Être humain, c’est savoir se protéger. Et face aux machines, l’enjeu est encore de le pouvoir. 

Hubert Guillaud

La couverture du livre de Arshin Adib-Moghaddam, The Myth of Good AI.

  • ✇Dans les algorithmes
  • Le Doge est mort, pas son esprit !
    Le Doge n’existe plus, expliquent Reuters repris par le Time, le Guardian et Grand Continent. 10 mois après sa création, le programme ne dispose plus de « statut » juridique, explique Scott Kupor, directeur du Bureau de gestion du personnel de l’administration Trump. Le Doge s’est arrêté sans avoir atteint ses immenses promesses de rendre l’administration plus efficace que jamais.  Mais Wired, qui a plus que d’autres enquêté sur le Doge à l’époque où Musk était à sa tête [voir nos articles “D

Le Doge est mort, pas son esprit !

10 décembre 2025 à 07:00

Le Doge n’existe plus, expliquent Reuters repris par le Time, le Guardian et Grand Continent. 10 mois après sa création, le programme ne dispose plus de « statut » juridique, explique Scott Kupor, directeur du Bureau de gestion du personnel de l’administration Trump. Le Doge s’est arrêté sans avoir atteint ses immenses promesses de rendre l’administration plus efficace que jamais. 

Mais Wired, qui a plus que d’autres enquêté sur le Doge à l’époque où Musk était à sa tête [voir nos articles “Doge : l’efficacité, vraiment ?”, “Doge : la privatisation des services publics” et “Doge : la fin du cloisonnement des données”] n’est pas d’accord avec ce constat. « Le Doge n’est pas mort », cingle Wired, il s’est « infiltré dans les agences comme une tique ». « L’esprit DOGE – caractérisé par la réduction des contrats et des effectifs de la fonction publique, la consolidation des données entre les agences et l’importation de pratiques du secteur privé – reste pleinement en vigueur. Bien que plusieurs médias aient suggéré que le Doge ait quasiment disparu, ses affiliés sont disséminés au sein du gouvernement fédéral, travaillant comme développeurs, concepteurs et même à la tête d’agences à des postes clés ».

Le Doge s’est transformé. Ses agents se sont installés durablement dans les administrations – ​​et l’influence de la Silicon Valley reste omniprésente dans le fonctionnement des agences. Ces dernières semaines, par exemple, le Service des impôts a soumis des centaines de techniciens à des tests de programmation afin d’évaluer leurs compétences techniques. Selon une source proche du dossier, cette décision émane de Sam Corcos, membre du Doge et directeur des systèmes d’information du Trésor. Corcos souhaite restructurer en profondeur le département informatique de l’IRS, qui compte 8 500 personnes. Cette initiative s’inscrit dans un processus de modernisation plus vaste mené au sein du Trésor américain. Ces tests, administrés via l’outil HackerRank, ont été utilisés par des entreprises technologiques du secteur privé comme Airbnb, LinkedIn et PayPal pour évaluer les compétences techniques des candidats. Ainsi que chez X. La manière dont seront utilisés ces tests n’ont pas été explicités aux employés des impôts. 

D’autres membres du DOGE continuent également de travailler à la réduction des réglementations au sein du gouvernement. Scott Langmack, ancien agent du DOGE au sein du Département du Logement et du Développement Urbain jusqu’en juillet, occupe désormais le poste de directeur exécutif de « l’IA de déréglementation » au Bureau de la Gestion et du Budget. À ce poste, qu’il occupe depuis août, il dirige le développement « d’applications d’IA personnalisées visant à accélérer l’élimination des réglementations excessives qui entravent les entreprises américaines »

D’autres anciens du Doge ont rejoint le Studio national de design (NDS) qui est chargé de repenser les pages web et les services numériques du gouvernement. Depuis sa création, le NDS a produit une poignée de sites web décrivant les efforts de la Maison Blanche sur des sujets tels que la santé, l’immigration et la sécurité publique. Ces sites, qui ressemblent davantage à ceux d’une entreprise technologique qu’à ceux du gouvernement fédéral, proposent des informations sur des programmes comme la Trump Gold Card et des liens pour postuler à des emplois dans les forces de l’ordre, comme la Task Force de l’administration Trump à Washington.

« La vérité est la suivante : le Doge n’a peut-être plus de direction centralisée sous l’égide de l’USDS [qui chapeautait administrativement le Doge]. Cependant, ses principes restent d’actualité : déréglementation ; élimination de la fraude, du gaspillage et des abus ; restructuration de la fonction publique fédérale ; priorité absolue à l’efficacité ; etc. Le DOGE a catalysé ces changements ; les agences, en collaboration avec le bureau de la gestion du personnel des Etats-Unis et le Bureau de la gestion et du budget de la Maison Blanche, les institutionnaliseront », a déclaré le même Scott Kupor, directeur de l’Office of Personnel Management et ancien associé-gérant du fonds de capital-risque Andreessen Horowitz, dans un communiqué publié sur X à la fin du mois dernier. Il y a un mois, passant chez le célèbre podcasteur réactionnaire Joe Rogan, Musk lui-même expliquait que « le Doge est toujours en marche ». Certes, d’autres figures du Doge ont rejoint des entreprises privées, souligne Wired. Mais l’esprit du Doge est toujours là, et il infuse nombre d’administrations, notamment locales, comme nous le soulignions nous-mêmes. Ses actions et son modèle se développent. Et l’annonce du déploiement d’IA génératives partout dans l’administration américaine contribue à renforcer son emprise.

  • ✇Dans les algorithmes
  • Vers un internet post-alphabétique ?
    Dans sa newsletter, la journaliste et ethnographe Katherine Dee, se demande si nous sommes en train de passer à un internet post-alphabétique. Lorsque nous passons plus de temps dans le cyberespace que dans le monde réel, notre perception s’altère. Depuis au moins le Covid, notre rapport au numérique s’est accéléré. Tout le monde parle de la chute de la lecture, de la diminution de la capacité d’attention, de l’omniprésence des écrans. Nous sommes confrontés à une transformation où la voix et la

Vers un internet post-alphabétique ?

9 décembre 2025 à 07:00

Dans sa newsletter, la journaliste et ethnographe Katherine Dee, se demande si nous sommes en train de passer à un internet post-alphabétique. Lorsque nous passons plus de temps dans le cyberespace que dans le monde réel, notre perception s’altère. Depuis au moins le Covid, notre rapport au numérique s’est accéléré. Tout le monde parle de la chute de la lecture, de la diminution de la capacité d’attention, de l’omniprésence des écrans. Nous sommes confrontés à une transformation où la voix et la vidéo semblent avoir pris le pas sur le texte.

Ce n’est pas seulement une transformation de notre manière de parler, une adaptation aux algorithmes, comme le défend le linguiste et influenceur Adam Aleksic dans son livre, Algospeak (Knopf, 2025, non traduit), où il analyse comment les réseaux sociaux nous poussent à modifier notre langage, par exemple pour contourner les modes de censure automatisés, à l’image du terme unalive qui est venu remplacer le terme suicide dans l’argot américain. Pour lui, expliquait-il au New York Times, avec le numérique les néologismes accélèrent, c’est-à-dire qu’ils semblent être plus nombreux que jamais et leur diffusion est plus rapide que jamais. « C’est un écosystème linguistique où les mots passent de la marge au courant dominant en quelques jours, et disparaissent parfois tout aussi vite ». C’est notre vocabulaire lui-même qui est bouleversé, secoué, transformé par notre rencontre avec les technologies numériques. 

La présence plus que la patience

Katherine Dee explique qu’elle écoute les machines lire les newsletters auxquelles elle est abonnée plus souvent qu’elle ne les lit. « Nos machines ont aussi commencé à nous répondre, lentement et progressivement : d’abord Alexa et Siri, maintenant ChatGPT. Nous consommons davantage de sons et pensons à voix haute ». C’est un peu comme si nous avions plus qu’avant besoin de moduler notre expression pour comprendre nos émotions, comme le montrent toutes ces vidéos de gens en pleurs dans leurs voitures qui se confient à eux-mêmes et aux autres en vidéo. « La voix abolit la distance entre la pensée et l’expression. C’est le registre idéal pour une époque qui valorise la présence plus que la patience. Quand on parle à un appareil, ou qu’on écoute quelqu’un parler dedans, on s’affranchit du délai qu’imposait autrefois l’écriture. La pause entre l’idée et son expression, cette pause qui rendait l’écriture possible, a quasiment disparu »

Dans un très long billet, le journaliste James Marriott constate que la lecture nous apprenait autrefois à penser de manière séquentielle – à ralentir et à structurer notre pensée – et que cette capacité se perd. Partout, la lecture est en recul. « Les sociétés orales pré-alphabétisées paraissent souvent aux visiteurs de pays alphabétisés remarquablement mystiques, émotionnelles et antagonistes », explique-t-il. « Avec la disparition progressive des livres, nous semblons revenir à ces habitudes de pensée orales. Notre discours sombre dans la panique, la haine et les conflits tribaux. La pensée anti-scientifique prospère jusqu’au plus haut niveau du gouvernement américain »

« Sur le papier, leurs arguments sembleraient absurdes. À l’écran, ils sont persuasifs pour beaucoup ». « L’ignorance était un pilier de l’Europe féodale. Les profondes inégalités de l’ordre aristocratique pouvaient se maintenir en partie parce que la population n’avait aucun moyen de prendre conscience de l’ampleur de la corruption, des abus et des dysfonctionnements de ses gouvernements ». L’imprimé a été une condition préalable et indispensable à la démocratie, rappelle Marriott, qui s’inquiète des conséquences de sa disparition. « À l’ère des vidéos courtes [voir également notre article : « L’ère post-TikTok va continuer à bouleverser la société »], la politique favorise l’exacerbation des émotions, l’ignorance et les affirmations non étayées. Ces circonstances sont extrêmement propices aux charlatans charismatiques. Inévitablement, les partis et les politiciens hostiles à la démocratie prospèrent dans ce monde post-alphabétisé. L’utilisation de TikTok est corrélée à une augmentation du score électoral des partis populistes et de l’extrême droite. » « Les oligarques de la tech ont autant intérêt à l’ignorance de la population que le plus réactionnaire des autocrates féodaux. » Pour Marriott, nous risquons d’entrer dans un second âge féodal, celui de la société post-alphabétisée.

L’ère de l’oralité numérique

Ce qui émerge pourtant, soutient le spécialiste des médias, Andrey Mir, ce n’est pas l’illettrisme, c’est la post-alphabétisation. Selon lui, nous entrons dans « l’oralité numérique » – un retour aux schémas de pensée oraux, mais médiatisés par la technologie numérique. Un retour à l’impulsivité et à l’immersion environnementale. Dans l’interview que lui consacre Katherine Dee, Andrey Mir explique : « l’oralité numérique n’est ni vocale ni orale – ce n’est pas sa caractéristique principale. Il ne s’agit pas de transmettre des informations ou de communiquer oralement. L’oralité numérique est un phénomène culturel et cognitif induit par les nouveaux médias, qui peuvent ou non utiliser des canaux vocaux/audio »

Avant l’écriture, les êtres humains étaient immergés dans un environnement physique (la nature) et social (la tribu). Ils recevaient simultanément des informations de leur environnement, à la manière d’un « espace acoustique », selon l’expression du théoricien des médias Marshall McLuhan. L’écriture les a détachés de cet environnement et les a contraints à se plonger dans la contemplation d’idées et de pensées. L’écriture a imposé l’isolement de la vision par rapport aux autres sens, instaurant un état cognitif particulier. Pour McLuhan, le sens isolé de la vision engourdissait les autres sens lorsqu’une personne écrivait ou lisait. Cet isolement visuel et cet engourdissement des autres sens ont transformé la capacité sensorielle de la vision en une faculté cognitive de vision intérieure – ce que Walter Ong appelait le « tournant vers l’intérieur ». L’isolement visuel et le détachement de l’environnement ont permis une concentration prolongée sur les idées. 

Contrairement aux impulsions immédiates propres à l’oralité, l’écriture et la lecture ont permis un délai de réaction, mis à profit pour la contemplation, explique Andrey Mir. Cela a conduit à la délibération, ce qui, là encore, n’est pas typique de l’immersion environnementale « naturelle », où les individus réagissent vite et impulsivement. L’écriture, d’un point de vue purement technique, exige une organisation linéaire du contenu, ce qui a structuré la pensée elle-même. « Le repli sur soi cognitif, rendu possible par l’écriture, a conduit à la théorisation, à la classification, à l’individualisme, à l’introspection, à la structuration du savoir, au rationalisme, etc. » McLuhan avait déjà observé que la radio et la télévision – médias électroniques – requièrent une implication empathique. La « vocalité » de la transmission de l’information n’est pas essentielle, ce qui importe, ce sont les effets sensoriels et cognitifs du média. « Les médias numériques permettent non seulement une « implication empathique » dans l’environnement induit, mais aussi un engagement empathique. Ils ont transposé l’interactivité de type oral jusqu’à l’écriture. Le texte des courriels, et surtout des messageries instantanées et des réseaux sociaux, est utilisé à cette fin. De manière conversationnelle, comme une interaction dans un environnement partagé, semblable à la parole. C’est cela, l’oralité numérique », explique Mir. Elle est qualifiée « d’orale » non pas parce qu’elle est « vocale » (elle peut l’être, mais ce n’est pas essentiel), mais parce qu’elle est conversationnelle, impulsive et immersive. L’oralité numérique n’est donc pas un phénomène « phonétique », mais une condition cognitive et culturelle. 

Paradoxalement, remarque-t-il, le principal « médium technique » de l’oralité numérique reste le texte ; non pas exactement le texte des livres (le texte de l’écriture), mais les SMS – et notamment les signes et les émojis qui servent la conversation et l’expression spontanée de soi, à la manière de la communication orale/tribale. L’oralité numérique achève la retribalisation de McLuhan, estime-t-il. Il s’agit d’un renversement du « repli sur soi » d’Ong, mais d’une manière particulière, à la manière d’un ruban de Möbius : un « repli sur soi-ouverture », car les utilisateurs numériques restent physiquement isolés tout en étant immergés dans un environnement numérique partagé.

Les technologies vocales (par exemple, Siri, Alexa, les mémos vocaux) accélèrent le déclin de la culture imprimée. Les interfaces vocales permettent une interaction conversationnelle, dans laquelle les interlocuteurs s’appuient l’un sur l’autre pour développer le dialogue et non pas seulement sur la structure du discours. L’utilisateur d’appareils vocaux s’engage dans un échange naturellement impulsif et réactif, qui requiert une implication émotionnelle plutôt qu’une réflexion rationnelle. « Tout média vocal et interactif favorise la prédominance de l’émotivité sur la rationalité et inverse de nombreuses autres caractéristiques essentielles de l’alphabétisation ». Habitués au confort et à l’intimité des appareils personnels, les utilisateurs du numérique sont conditionnés à maintenir des frontières physiques et sociales strictes, d’où l’anxiété sociale croissante des jeunes générations. « Ils n’interrogent pas l’IA en public ; ils lui envoient des SMS ou des messages. C’est plus intime et plus confortable ».

« Dès que les voitures autonomes libéreront les conducteurs des mains et des yeux, la part d’audience de la radio diminuera et rejoindra celle des journaux papiers parmi les espèces en voie de disparition. Si les médias d’ambiance (c’est-à-dire ceux qu’on écoute sans s’impliquer) vont rester, ils risquent de devenir secondaires », prophétise Andrey Mir.

« L’alphabétisation a structuré le monde à l’image d’un catalogue. L’éducation consistait essentiellement à étudier ce catalogue de connaissances pour accéder à des savoirs plus spécialisés ». Les premiers sites web étaient organisés comme des livres ou des bibliothèques, avec des tables des matières ou des catalogues. Le champ de recherche a sonné le glas du catalogue. Plus besoin de se souvenir des connaissances engrangées ou de l’arborescence de son ordinateur, puisqu’il suffit d’interroger le champ de recherche de son ordinateur, un moteur de recherche ou une intelligence artificielle générative. La compétence cruciale désormais dans ce mode de fonctionnement est la capacité à formuler des questions pertinentes pour obtenir la meilleure réponse. Une capacité qui ne repose en rien sur la maîtrise de l’écrit traditionnel.

« Une autre compétence médiatique essentielle consiste à apprendre non pas comment utiliser un média, mais comment ne pas l’utiliser ». Comprendre la dimension hormonale de la consommation médiatique est essentiel à l’éducation aux médias, car cela peut nous aider à éteindre un appareil ou à passer d’un appareil à l’autre, avance-t-il encore.

« Les personnes ayant connu une ère pré-numérique savent généralement qu’un effort important engendre des récompenses importantes et multiples. Lire Dostoïevski demande un effort considérable, mais apporte non seulement une révélation intellectuelle, mais aussi un statut social et l’épanouissement personnel ». « Construire une relation amoureuse demande des efforts soutenus, mais apporte bien plus que des relations sexuelles : le confort du mariage et la sécurité de la famille. Cette récompense substantielle exige un effort conséquent – ​​c’était là l’essence même du système effort-récompense dans le monde physique. Les appareils numériques récompensent de simples clics, mais cette récompense est minime. Elle ne satisfait jamais pleinement ; elle se contente de maintenir l’utilisateur en marche. Cela modifie radicalement les circuits neurophysiologiques liés à l’effort et à la récompense. Les médias numériques récompensent la simple présence – un clic suffit pour se montrer, afficher ses préférences – et, par conséquent, c’est la simple présence, et non l’effort, qui acquiert de la valeur. Sur les plateformes numériques, « faire » n’a pas la même importance que dans le monde physique ; ce qui compte, c’est « être » – signaler sa présence. » 

Cette configuration cognitive engendre des conséquences culturelles profondes. La prédominance de « être » sur « faire » conduit à la génération « flocon de neige » et aux politiques identitaires, où l’identité prime sur le mérite. Ce que vous faites importe peu. L’important désormais, c’est l’identité. Et c’est pourquoi on la perçoit comme un gage de réussite, exigeant des récompenses ou des sanctions basées sur l’identité et non sur les actes. 

Un autre effet de la transition numérique est la diminution de la capacité des individus à fournir des efforts soutenus. Le cerveau n’est pas conditionné à fournir un effort soutenu et prolongé lorsque la récompense se résume à un simple clic. Par conséquent, le niveau d’éducation baisse, les carrières deviennent plus difficiles à construire, la vie personnelle plus ardue, etc. Globalement, l’anxiété sociale augmente. 

La solution à ce problème commence par l’éducation parentale, explique encore Mir. En règle générale, l’accès des enfants aux différents médias devrait suivre les étapes de l’évolution médiatique de l’humanité : jouets et jeux actifs, écoute des récits des parents, lecture, médias électroniques, et seulement ensuite, vers l’âge de 14 ans, appareils tactiles. Si cet ordre est inversé et que les appareils numériques précèdent les jouets et les livres, le cerveau ne bénéficiera pas de la stimulation neuronale associée aux médias précédents : coordination œil-main, orientation spatiale, concentration, persévérance, effort soutenu et récompense différée. 

Cependant, le monde est déjà passé des médias imprimés aux appareils numériques, et nous vivons actuellement la transition de la culture écrite à l’oralité numérique. Aucune stratégie personnelle ne peut annuler ou inverser ce changement, conclut-il. Nous devons donc nous y adapter. 

Le copier-coller, comme oralité

Dans la Suite dans les idées, Sylvain Bourmeau recevait récemment le chercheur Allan Deneuville, auteur notamment de Copier-Coller, le tournant photographique de l’écriture numérique (UGA,2025) qui expliquait que l’un de nos gestes d’écriture le plus courant, le copier-coller, n’en est pas un. Pour lui, cela consiste à écrire avec de la photographie, car copier-coller, consiste bien plus à photographier un texte et à le déplacer. Dans l’acte même de copier-coller, on n’écrit pas. Le copier-coller, au même titre que les SMS ou les vocaux, tient d’un support de l’oralité numérique. 

Deneuville pose les mêmes questions que Mir : nous n’interrogeons pas suffisamment ce que signifie écrire avec de la photographie. « Qu’est-ce que cela change à l’écriture et à la pensée, quand écrire ne consiste plus à écrire, ne consiste plus à faire passer la manière textuelle par notre propre écriture dans la pensée ? » La copie est aussi ancienne que l’écriture, rappelle Deneuville. Elle répond à deux injonctions : aller vite et être exacte. La copie manuscrite et photographique finissent par se mélanger avec la photocomposition et le photocopieur. Le copier-coller, inventé par Larry Tesler chez Xerox date de cette même époque. 

Pour Deneuville, le copier-coller a des effets sur notre manière même d’écrire. Le copier-coller est d’abord un moyen de mieux écrire, comme les élèves ont recopié  Wikipédia ou les contenus de l’IA. Nous devons trouver les modalités d’une « pédagogie du copié-collé », car le copié-collé permet tout de même d’avoir une connaissance accrue des textes. Quand on copie-colle, l’enjeu est de masquer ce qui est copié, de le faire disparaître, explique-t-il. Il faut une compréhension logique du texte pour éviter les ruptures. C’est la mythologie de l’écriture elle-même qu’il faut défaire, estime Deneuville. C’est-à-dire nous défaire du « fantasme de l’écriture »

Pour Bourmeau, copier-coller, c’est cadrer et composer, ce qui nécessite bien plus de créativité qu’on le pense. Pour Deneuville, voilà longtemps que nous savons considérer la photographie comme de l’art. Faire de la photographie avec du texte, devrait nous inviter à faire du traveling, du cadrage, du collage, de la contextualisation, de la composition, du montage… de texte. 

Pour Deneuville, l’arrivée de l’IA dans les apprentissages sonne comme une panique morale, notamment pour tous ceux qui ont une pratique professionnelle de l’écriture. Si cette panique est certainement exagérée tant nous réifions l’écriture, nous ne devons pas pour autant diminuer les risques que l’IA fait peser. Les étudiants l’utilisent d’abord pour écrire sans faire de fautes : c’est notre rapport social qui est interrogé par ces outils qui nous poussent à écrire mieux.  

Vers la folklorisation d’internet ?

« Internet est inondé d’images politiques générées par l’IA que personne ne prend pour la réalité », explique la psychologue sociale finlandaise Zea Szebeni dans un billet pour la newsletter Peripheral Politics. Le débat sur la désinformation, s’est beaucoup concentré sur les deepfakes, ces contrefaçons réalistes utilisées comme outils de déstabilisation politique… qui présentent des risques réels. Mais ce débat oublie que l’essentiel des images générées par l’IA n’ont pas la prétention à tromper. Bien souvent, personne ne les prend pour la réalité. Elles viennent la compléter, construire une atmosphère émotionnelle autour de la réalité, lui donner des formes de résonances émotionnelles, comme si elle permettait de générer un folklore, c’est-à-dire « des variations infinies sur les mêmes archétypes, constamment adaptés et partagés », qui façonnent notre perception sans jamais prétendre à la réalité

Dans les cultures orales, la « vérité » ne résidait pas principalement dans l’exactitude des faits, mais dans la résonance, rappelle la chercheuse : une histoire avait de l’importance si elle aidait les gens à comprendre leur monde, si elle pouvait être mémorisée et partagée. Puis vinrent l’écriture et l’imprimerie, qui ont tout changé. L’alphabétisation a encouragé la pensée linéaire et l’idée que la vérité pouvait être figée dans des textes faisant autorité. L’information est devenue vérifiable par la consultation des sources. Mais les médias numériques nous ramènent en arrière. Walter Ong a appelé cela une « oralité secondaire » ; nous n’avons pas perdu l’écriture, mais nous avons acquis en parallèle un système qui ressemble à la communication orale.

L’information ne réside plus dans un stockage stable, mais dans une circulation constante. Comme le souligne le journaliste de Vox, Eric Levitz : « l’information ne s’ancre pas lorsqu’elle est stockée ; elle s’ancre lorsqu’elle circule ». Ainsi, la répétition crée la réalité. Dans ce contexte, les images politiques générées par l’IA fonctionnent moins comme des affirmations factuelles que comme des mythes en circulation – évaluées non pas comme vraies ou fausses, mais comme pertinentes ou insipides.

« Nous ne sommes pas (seulement) confrontés à une crise où il est devenu impossible de distinguer le vrai du faux. Nous sommes confrontés à quelque chose de plus étrange encore, où la vérité se heurte aux récits mythiques, et dans cette compétition, les faits sont souvent désavantagés. » Mais si on peut débunker une fausse information ou un deepfake, il est plus difficile de défaire un folklore. Pour Zea Szebeni, ces productions tiennent du « lore », d’un univers folklorique, des récits qui se répètent, circulent, s’inscrustent. « Ces productions n’ont pas besoin de tromper pour fonctionner ; il leur suffit de circuler, de se répéter, de s’intégrer à la mythologie ambiante dans laquelle nous baignons. Et comme l’IA rend la production de mythes quasi gratuite, nous vivons tous désormais au sein de multiples légendes concurrentes, chacune renforcée par l’abondance algorithmique ». Ces lores fabriquent des perceptions, les recyclent, les renforcent, même si on sait qu’elles sont fausses. La circularité des fausses images de Trump par exemple renforce sa présence, sa posture, qu’elles soient jugées pertinentes pour les uns ou délirantes pour les autres. Le folklore entretient les représentations, comme l’IA les sédimentent.

  • ✇Dans les algorithmes
  • Améliorer l’accès aux données des plateformes
    Le Knight-Georgetown Institute (KGI) a réuni un groupe d’experts afin d’évaluer conjointement les recherches existantes et d’élaborer un cadre visant à améliorer l’accès aux données des plateformes. Ce nouveau cadre, « Better Access », constitue un référentiel pour un accès indépendant aux données des plateformes. Il établit des exigences minimales pour les plateformes.  Toutes les données des plateformes n’ont pas la même importance ; certains comptes et contenus exercent une influence bien

Améliorer l’accès aux données des plateformes

8 décembre 2025 à 07:00

Le Knight-Georgetown Institute (KGI) a réuni un groupe d’experts afin d’évaluer conjointement les recherches existantes et d’élaborer un cadre visant à améliorer l’accès aux données des plateformes. Ce nouveau cadre, « Better Access », constitue un référentiel pour un accès indépendant aux données des plateformes. Il établit des exigences minimales pour les plateformes. 

Toutes les données des plateformes n’ont pas la même importance ; certains comptes et contenus exercent une influence bien plus grande que d’autres, expliquent ses promoteurs pour Tech Policy Press. Le cadre « Better Access » se concentre sur le sous-ensemble de publications, de comptes et d’interactions publiques les plus importants pour la vie civique : les données qui révèlent qui détient l’influence, quels contenus se diffusent et comment les entreprises technologiques amplifient, ou atténuent, la voix de certaines personnes. 

Ce cadre définit quatre catégories de données à forte influence : les contenus largement diffusés, les comptes gouvernementaux et politiques, les comptes publics et les comptes d’entreprises notables, et les contenus sponsorisés. Ce cadre détaille les seuils applicables à ces catégories. En se concentrant sur ce segment de données plus restreint, il favorise la transparence, la protection de la vie privée et l’éthique, réduisant ainsi les risques pour la vie privée (sans toutefois les éliminer complètement). Il privilégie les comptes et les contenus dont la publicité et la valeur publique sont clairement définies, tout en établissant des conditions d’accès réalistes aux plateformes. Cependant, les données ne sont utiles que si elles sont accessibles et utilisables. C’est pourquoi ce cadre propose trois moyens pour les plateformes de faciliter l’accès aux données : une interface de données proactive, des demandes personnalisées de la part des chercheurs et une collecte de données indépendante. Ensemble, ces mécanismes renforcent la flexibilité, la pertinence, l’intégrité des plateformes et la responsabilité dans divers contextes de recherche.

Un moyen de donner un cadre pertinent et de structurer les rapports de transparence qu’exige la Commission européenne des grandes plateformes, qui peinent à produire des résultats pertinents, faute de savoir quoi leur demander, comme nous le disions il y a quelques années.

  • ✇Dans les algorithmes
  • Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers
    Avec la vérification d’âge : la modération des plateformes au profit des géants Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de loi

Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers

4 décembre 2025 à 07:00

Avec la vérification d’âge : la modération des plateformes au profit des géants

Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de lois sur la vérification d’âge. Pour l’EFF, les difficultés de Bluesky montrent que ces lois vont écraser les petites plateformes qui ne peuvent pas absorber les coûts des mesures de vérification et renforcer le pouvoir des plus grandes plateformes. « Les obligations de vérification de l’âge concentrent et consolident le pouvoir entre les mains des plus grandes entreprises, seules entités disposant des ressources nécessaires pour mettre en place des systèmes de conformité coûteux et assumer des amendes potentiellement colossales ». C’est le même constat que fait l’EFF au Royaume-Uni : les plus grandes plateformes « ont mis en place des mesures de vérification de l’âge étendues (et extrêmement maladroites), tandis que des sites plus petits, notamment des forums sur la parentalité, l’écologie et les jeux vidéo sous Linux, ont été contraints de fermer ». L’EFF donne l’exemple du “Forum du Hamster”– un forum britannique pour discuter de tout ce qui touche au petit rongeur domestique, qui a fermé ses forums, pour renvoyer ses utilisateurs vers un simple compte Instagram, et donc vers les géants des réseaux sociaux ! Pour Molly Buckler, l’OSA (Online Safety Act) est en train de flécher le trafic vers les seuls géants du net, qui seront les mieux à même de censurer les utilisateurs. C’est une loi pour consolider le pouvoir des géants au plus grand cauchemar des utilisateurs dont les ressources communautaires vont s’atrophier.

Dans un autre article pour l’Electronic Frontier Foundation, Molly Buckley rappelle que la loi sur la vérification d’âge au Royaume-Uni ne concerne pas que les contenus à caractère sexuel, mais englobe une large catégorie de contenus « préjudiciables ». Préventivement, plusieurs forums sur la parentalité, les jeux vidéo ou l’écologie ont préféré fermer leurs portes pour éviter le risque d’amendes et les complexités de la conformité à la loi. La plateforme Reddit au Royaume-Uni a été contrainte de s’enfermer derrière des barrières de vérification d’âge. Et cela n’a pas concerné que les canaux dédiés aux contenus explicites, mais également à nombre de sous-groupes dédiés à l’identité, au soutien LGBTQ+, au journalisme, aux forums liés à la santé publique comme ceux dédiés au menstruations ou aux violences sexuelles. « L’OSA définit le terme « préjudiciable » de multiples façons, bien au-delà de la pornographie. Les obstacles rencontrés par les utilisateurs britanniques correspondent donc exactement à ce que la loi prévoyait. L’OSA entrave bien plus que l’accès des enfants à des sites clairement réservés aux adultes. En cas d’amendes, les plateformes auront toujours recours à la surcensure. »

L’EFF est surtout étonné que l’OSA ait contraint Reddit à la censure, notamment explique  Buckley parce que Reddit a été une plateforme qui a œuvré à la défense de la liberté d’expression. Même si on peut lui reprocher des excès en la matière, Reddit s’est attelé à résoudre ses problèmes. Elle a été la seule plateforme à obtenir la meilleure note de l’analyse de la modération des plateformes par l’EFF en 2019, notamment parce qu’elle a mis en place une modération souvent qualifiée de remarquable (mais pas parfaite). Pour l’EFF, les mesures de vérifications d’âge ne protégeront pas les adolescents, car ceux-ci trouveront toujours des moyens pour les contourner et se rendre sur des sites toujours plus douteux, où la modération est moindre, les risques plus importants

Pour l’EFF, l’exclusion des publics d’importantes communautés sociales, politiques et créatives est problématique. « Les mandats de vérification de l’âge sont des régimes de censure » et la régulation de la pornographie n’est bien souvent que la partie émergée d’une censure qui va bien au-delà et qui permet très rapidement de censurer des contenus parfaitement légaux, notamment ceux relatifs à l’éducation sexuelle ou à l’actualité. « Les questions de modérations ne sont pas simples : on glisse vite d’une condamnation morale à une condamnation politique », observait déjà le chercheur Tarleton Gillespie dans son livre sur la modération. Et l’EFF de prévenir les Américains du risque qu’ils courent à leur tour. 

Du flou des contenus à modérer… à la régulation individuelle

Dans un autre billet datant de janvier, Paige Collings and Rindala Alajaji de l’EFF rappelaient que le problème des lois pour la protection des jeunes exigeant la vérification de l’âge des internautes, c’est qu’elles ne concernent pas seulement a pornographie en ligne, comme elles aiment à se présenter. Derrière la lutte contre les contenus « dangereux », les gouvernements s’arrogent de plus en plus le pouvoir de décider des sujets jugés « sûrs ». Pas étonnant donc, que les contestations à l’encontre de ces lois se multiplient. En fait, la question du « contenu sexuel » par exemple est définie de manière vague et peut concerner des films et vidéos interdits aux moins de 18 ans, comme des contenus d’éducation sexuelle ou des contenus LGBTQ+. D’autres énumèrent des préjudices causés par les contenus, mais là encore, vaguement définis, comme les violences qui doivent être limitées, alors que les représentations de la violence servent aussi de moyens pour les dénoncer. Sans compter que les plateformes ont déjà des politiques de modération qui qualifient nombre de contenus qui ne tombent pas sous le coup de la loi comme préjudiciables, comme l’expliquait Tarleton Gillespie dans Custodians of the Internet (Yale University Press, 2018). Bref, bien souvent la censure de contenus non pornographiques n’apparaît aux gens qu’une fois que ces lois sont mises en œuvre. En Oklahoma, le projet de loi sur la vérification de l’âge entré en vigueur le 1er novembre 2024 défini comme contenu préjudiciable aux mineurs toute description ou exposition de nudité et de « conduite sexuelle », ce qui implique que des associations sur la sexualité et la santé comme Glaad ou Planet Parenthood doivent mettre en place des systèmes de vérification d’âge des visiteurs. Pour éviter d’éventuelles poursuites judiciaires, ces associations risquent de mettre en place une surcensure.

Toutes ces lois rendent les autorités administratives et les plateformes arbitres de ce que les jeunes peuvent voir en ligne, explique encore l’EFF. C’est le cas du Kids Online Safety Act (Kosa), américain, validé par le Sénat mais pas par la Chambre des représentants, défendue ardemment par la sénatrice américaine Marsha Blackburn qui l’a promue pour « protéger les mineurs des transgenres ». Si la censure des contenus LGBTQ+ par le biais des lois de vérification de l’âge peut être présentée comme une « conséquence involontaire » dans certains cas, interdire l’accès aux contenus LGBTQ+ fait partie intégrante de la conception des plateformes. L’un des exemples les plus répandus est la suppression par Meta de contenus LGBTQ+ sur ses plateformes sous prétexte de protéger les jeunes utilisateurs des « contenus à connotation sexuelle ». Selon un rapport récent, Meta a caché des publications faisant référence au hashtag LGBTQ+, le filtre contenu sensible étant appliqué par défaut aux mineurs, faisant disparaître les hastags #lesbienne, #bisexuel, #gay, #trans et #queer. Si Meta a visiblement fait machine arrière depuis, on constate qu’une forme de censure automatisée vague et subjective s’étend sur nombre de contenus et notamment sur l’information sur la santé sexuelle. Pour les jeunes, notamment LGBTQ+, plus exposés au harcèlement et au rejet, l’accès aux communautés et aux ressources numériques est essentiel pour eux, et en restreindre l’accès présente des dangers particuliers, rappelle un rapport du Gay, Lesbian & Straight Education Network (Glsen). Mais il n’y a pas que ces publics que la censure des contenus d’information sexuel met en danger… A terme, ce sont tous les adolescents qui se voient refuser une information claire sur les risques et la santé sexuelle. Or rappellent des chercheurs espagnols pour The Conversation, l’exposition à la pornographie façonne les expériences affectives et normalisent l’idée que le pouvoir, la soumission et la violence font partie du désir. Mais, rappellent-ils, c’est bien « l’absence d’une éducation sexuelle adéquate qui est l’un des facteurs qui contribuent le plus à la consommation précoce de pornographie ».

Pour l’EFF enfin, il est crucial de reconnaître les implications plus larges des lois de vérification d’âge sur la vie privée, la liberté d’expression et l’accès à l’information. Notamment pour ceux qui tentent de préserver leur anonymat. « Ces politiques menacent les libertés mêmes qu’elles prétendent protéger, étouffant les discussions sur l’identité, la santé et la justice sociale, et créent un climat de peur et de répression »

« La lutte contre ces lois ne se limite pas à défendre les espaces en ligne ; il s’agit de protéger les droits fondamentaux de chacun à s’exprimer et à accéder à des informations vitales.» Dans un autre article encore, Paige Collings, rappelle que « les jeunes devraient pouvoir accéder à l’information, communiquer entre eux et avec le monde, jouer et s’exprimer en ligne sans que les gouvernements ne décident des propos qu’ils sont autorisés à tenir ». 

En fait, la proposition d’interdire les contenus aux plus jeunes permet assurément de simplifier la modération : aux plus jeunes, tout est interdit… Mais pour le public majeur, conscient des risques, tout est autorisé. C’est à chacun de réguler ses usages, pas à la société. 

La même injonction à une régulation qui ne serait plus qu’individuelle traverse la société. C’est à chacun de trier ses poubelles et ceux qui ne le font pas seront condamnés pour ne pas l’avoir fait, comme c’est à chacun d’être conscient des risques de ses usages numériques, et d’en subir sinon les conséquences.

Vers la criminalisation des comportements des mineurs

En France, la commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs a rendu son rapport. Ses conclusions sont « accablantes », comme le dit le Monde. Mais l’épais rapport (plus de 1000 pages) est tout de même bien problématique, comme l’analyse très pertinemment le journaliste Nicolas Kayser-Bril dans l’édition du 2 octobre de la newsletter d’Algorithm Watch. Alors que nombre d’universitaires interrogés soulignent que l’utilisation élevée de TikTok est corrélée à l’anxiété et la dépression, le rapport glisse souvent à la simple accusation. Comme si TikTok était seul porteur des maux de la jeunesse. « Les députés ont-ils succombé à la faible capacité d’attention et à l’émotionnalisation qu’ils dénoncent ? Nous ne le saurons jamais, car le Parlement français n’a pas commandé, et ne commandera probablement pas, de rapport sur les effets de Facebook sur les baby-boomers, ni sur l’algorithme de X sur les responsables politiques ». Si le rapport est accablant, il l’est surtout parce qu’il montre le déficit de mise en œuvre du DSA, malgré les obligations, comme l’expliquent Garance Denner et Suzanne Vergnolle de la Chaire de modération des contenus du Cnam

Face à ce déluge d’accusations à l’encontre de TikTok, les 53 recommandations du rapport deviennent rapidement plus surprenantes, puisqu’on n’y trouve pas de proposition d’interdiction de TikTok. On ne trouve pas non plus beaucoup de mesures qui imposent quelque chose à la plateforme, hormis celles qui renforcent ou précisent le cadre du RGPD et du DSA européen (recommandation 8 à destination du suivi des modérateurs de la plateforme), celle invitant à étudier la modification du statut des fournisseurs de réseaux sociaux comme éditeur, les rendant responsables des contenus accessibles (recommandation 10), celle réclamant davantage de ressources pour les signaleurs de confiance (c’est-à-dire les organismes en contact direct avec les plateformes pour signaler les contenus inappropriés), ainsi que celles obligeant les plateformes à fournir des paramètres de personnalisation et de diversification ou pluralisme algorithmique (recommandations 11 et 12, qui consisterait à produire « une norme ouverte pour les algorithmes de recommandation afin que des tiers puissent concevoir des flux “Pour vous” spécifiques. Les utilisateurs pourraient ensuite parcourir “TikTok, sélectionné par ARTE”, par exemple », explique Nicolas Kayser-Bril… Ce qui ne semble pas l’objectif d’un pluralisme algorithmique permettant à chacun de produire des règles de recommandation selon ses choix). En fait, presque toutes les recommandations proposées dans ce rapport sont à l’égard d’autres acteurs. Des plus jeunes d’abord : en imposant la fermeture d’accès à TikTok au moins de 15 ans, en proposant un couvre-feu pour les 15-18 ans et en envisageant d’étendre l’interdiction dès 2028 aux moins de 18 ans

Mais l’essentiel des recommandations portent sur le développement de messages de prévention à l’école et dans les services de prévention comme auprès des parents et des services de l’enfance. Des services déjà bien souvent surchargés par les injonctions. Aucune recommandation n’exige de TikTok de renforcer l’accès à des données pour la recherche ou de corriger ses algorithmes pour moins prendre en compte le temps passé par exemple ! 

Si le rapport ne fait pas (encore) de propositions pour condamner les jeunes qui accéderaient aux réseaux sociaux malgré l’interdiction, elle propose de créer dès 2028 un nouveau délit de « négligence numérique » (recommandation 43) à l’égard des parents qui laisseraient leurs enfants accéder aux réseaux sociaux. Un peu comme si dans les années 50 on avait supprimé les aides sociales aux parents qui laissaient écouter du rock à leurs enfants sous prétexte de « négligence musicale ». Ce que suggère cette recommandation qui doit être étudiée par des experts d’ici l’échéance, c’est que la vérification de l’âge va conduire à la criminalisation des comportements des plus jeunes

Pour l’instant, on n’en entend parler nulle part. Toutes les déclarations sur le développement de la vérification d’âge et du contrôle parental, n’évoquent que la protection des plus jeunes, jamais les peines qui pourraient advenir… plus tard. Mais du moment où elles seront en place, on voit déjà s’esquisser la perspective de criminaliser les adolescents et leurs parents qui ne respecteraient pas ces règles. L’implicite ici, consiste d’abord à interdire, puis demain, à condamner. Après la mise en place de la barrière d’accès, viendra la condamnation de ceux qui chercheront à la contourner. Va-t-on vers une société qui s’apprête à condamner des gamins de 14 ans pour être allé chercher des contenus pornos en ligne ? Vers des médias qui seront condamnés pour avoir laissé des enfants accéder à des images de répression violentes de manifestations ? Vers des parents qui seront condamnés pour avoir laissé leurs enfants accéder à internet ? Les 16-18 ans seront-ils condamnés pour être allé cherché de l’information sur la prévention sexuelle ou parce qu’ils se sont connectés sur TikTok au-delà de 23 heures ? Où parce qu’ils auront échangé une vidéo de Squeezie ?

La vérification d’âge nous conduit tout droit à une « nouvelle pudibonderie », disait pertinemment le journaliste David-Julien Rahmil pour l’ADN. Renforçant celle déjà l’œuvre sur les grandes plateformes sociales qu’observait en 2012 Evgeny Morozov ou le chercheur Tarleton Gillespie dans son livre, dont les systèmes automatisés surcontrôlent déjà la nudité plutôt que la pornographie. 

L’autre risque, à terme, c’est l’élargissement sans fin de la vérification d’âge à tous types de contenus, notamment au secteur marchand comme l’a montré la polémique des contenus explicites découverts sur des sites de commerces en ligne. Pour la haut-commissaire à l’enfance, Sarah El Haïry, « la protection des enfants en ligne ne peut souffrir d’aucune faille », soulignant par là le risque maximaliste des règles à venir (et ce alors que la protection sociale à l’enfance par exemple n’est que failles). Au risque que ces règles deviennent des couteaux suisses, faisant glisser la surveillance des contenus pornographiques à la surveillance de l’internet, comme le disait avec pertinence le journaliste Damien Leloup dans une analyse pourLe Monde, au prétexte que le « risque » pornographique est partout. 

Qu’on s’entende bien. Loin de moi de défendre TikTok (pas plus que Meta ou X). Mais la criminalisation des comportements des enfants et des parents sans imposer de mesures de régulation claires aux entreprises et d’abord à elles, me semble une voie sans issue. La vérification d’âge accuse la société des dégâts sociaux provoqués par les décisions des plateformes sans leur demander ni de données, ni de correctifs. En criminalisant les mineurs, elle ne propose qu’une nouvelle ère de contrôle moral, sans nuance, comme s’en émouvait pour The Conversation, le spécialiste en gestion de l’information, Alex Beattie.

Hubert Guillaud

❌
❌