Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code

claude anthropic

Coup dur pour Anthropic. L'entreprise derrière le très performant modèle Claude a accidentellement rendu public le code source de son outil pour développeurs, Claude Code. Des internautes ont fouillé dans les dossiers et ont découvert plusieurs projets de l'entreprise. Y compris un curieux concept de Tamagotchi.

830 millions de dollars : l’immense data center de Mistral aux portes de Paris prend forme

Mistral a annoncé ce lundi 30 mars 2026 avoir levé 830 millions de dollars sous forme de dette pour financer la construction d'un data center en Essonne, à Bruyères-le-Châtel. Le site, équipé de milliers de puces Nvidia de dernière génération, doit entrer en service d'ici à la fin du deuxième trimestre 2026.

Cinq jours pour infiltrer, trois heures pour tout voler : comment des hackers ont piégé des millions de développeurs IA

Dans un article de blog publié le 24 mars 2026, les chercheurs de l'entreprise de cybersécurité Snyk reviennent sur le déroulé d'une attaque menée contre la bibliothèque Python LiteLLM. Le projet, utilisé par des millions de développeurs, a été compromis pendant trois heures. Derrière l'attaque, un groupe nommé TeamPCP qui avait préparé son coup cinq jours à l'avance.

Claude Dispatch : comment profiter pleinement de l’IA agentique sans se tirer une balle dans le pied

Le 23 mars 2026, une vidéo publiée sur X par Claude a propulsé Dispatch sur le devant de la scène. Cette fonctionnalité de Cowork permet à l'IA d'Anthropic de travailler seule sur votre ordinateur pendant que vous lui donnez des ordres depuis votre téléphone. Lancée discrètement quelques jours plus tôt, elle est désormais au cœur de l'attention, et ce qu'Anthropic écrit en petites lettres sur la sécurité mérite qu'on s'y attarde.

Block licencie 40 % de ses effectifs, Jack Dorsey fait de l’IA son alibi et les investisseurs applaudissent

Block, la fintech de Jack Dorsey, vient d'annoncer une suppression massive de 40 % de ses effectifs, officiellement au nom de l'intelligence artificielle. Un choix radical, assumé, qui fait forcément débat mais que son fondateur présente comme un modèle pour l'ensemble de l'industrie.

C’est fini, l’anonymat en ligne est mort et les LLM en sont le fossoyeur

Dans une étude publiée mi-février 2026, des chercheurs venus d'ETH Zurich, de MATS Research et d'Anthropic démontrent que les grands modèles de langage (LLM) sont capables de désanonymiser des comptes en ligne à grande échelle, avec une précision et une rapidité inédites.

Voici Nearby Glasses, l’app qui permet de repérer les lunettes Meta Ray-Ban autour de soi

Disponible sur le Google Play Store, l'application « Nearby Glasses », développée par un amateur, attire l’attention. Elle permet à ses utilisateurs d’être avertis si des personnes à proximité portent des lunettes « intelligentes », comme les lunettes Ray-Ban de Meta.

Panique en bourse : les marchés financiers ont-ils vraiment compris Claude Code Security ?

Le 20 février 2026, la société américaine Anthropic annonçait le lancement de Claude Code Security, une nouvelle brique de cybersécurité automatisée intégrée directement à son outil de génération de code. L’annonce a provoqué un vent de panique sur les marchés : les valeurs des grandes sociétés de cybersécurité ont vacillé, certains y voyant une rupture brutale du modèle existant. Pourtant, la réalité technique se révèle beaucoup plus nuancée.

« Un désastre se profile à l’horizon » : pourquoi le phénomène Clawdbot inquiète autant qu’il fascine ?

Clawdbot s’est imposé en quelques jours comme le nouveau jouet à la mode de l’écosystème IA : un agent personnel capable de lire vos messages et, plus généralement, d’organiser votre vie numérique de manière proactive, 24 heures sur 24. Mais dans l’enthousiasme général, un point crucial est relégué au second plan par un bon nombre d’utilisateurs : la cybersécurité.

Nvidia se retrouve accusé d’utiliser la bibliothèque pirate Anna’s Archive pour entraîner ses IA

nvidia piratage

Tous les coups sont-ils permis dans la course effrénée à l'intelligence artificielle ? La question se pose avec des documents judiciaires qui allèguent que Nvidia aurait activement cherché à récupérer le contenu d'Anna's Archive (une célèbre bibliothèque clandestine d'ouvrages piratés) pour entraîner ses IA. Et cela, en toute connaissance de cause.

« Un pas en arrière par rapport à GPT-5 », comment le dernier outil d’OpenAI s’est fait pirater dès son premier jour

Dans une démonstration publiée sur LinkedIn le 16 janvier 2026, des chercheurs de Tenable ont révélé une faille de sécurité dans le nouvel outil d’OpenAI, ChatGPT Translate, rappelant les premières générations de garde‑fous appliqués aux agents LLM. 

Il y a un nouvel acteur dans le monde des IA, il s’appelle Confer, mise sur la confidentialité et pourrait tout changer

Annoncé dans un article du média américain Ars Technica le 13 janvier 2026, Confer ambitionne de révolutionner le secteur des LLM en plaçant la confidentialité au cœur de son fonctionnement. Son concepteur n’en est pas à son coup d’essai, il a déjà imposé l’une de ses technologies dans le domaine des messageries chiffrées : le protocole Signal.

Arnaques en ligne : l’IA les rend plus sophistiquées, mais elle vous aide aussi à les déjouer [Sponso]

Cet article a été réalisé en collaboration avec Bitdefender

Et si vous débutiez 2026 en disant stop aux arnaques en ligne ? Voici comment y parvenir facilement grâce à l’IA et à de bons outils (gratuits, pour certains).

Cet article a été réalisé en collaboration avec Bitdefender

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

Les 15 actus tech qui ont marqué 2025 (avec de l’IA, de l’IA et de l’IA)

De l'effondrement (temporaire) de la bourse au rachat historique de Warner Bros par Netflix : 2025 a été une année chargée pour l'actualité tech. Numerama revient sur les 15 événements qui ont définitivement redéfini notre futur numérique.

« Ce sera un travail stressant », Sam Altman recrute à prix d’or la personne capable d’anticiper les dérives de ChatGPT

sam altman

Le 27 décembre 2025, Sam Altman, patron d’OpenAI, maison mère de ChatGPT, a profité de son audience sur X pour partager une fiche de poste visiblement cruciale à ses yeux. L’entreprise cherche à recruter son prochain Chef de la préparation aux situations d’urgence. Un poste stratégique, très bien payé qui a déjà connu un turnover impressionnant au sein de l’organisation.

Comment la Chine compte protéger ses aînés des futurs robots IA

Le 27 décembre 2025, l’administration chinoise du cyberespace a publié une liste de règles encadrant davantage le comportement des assistants d’IA. Dans ce texte, une attention particulière est accordée aux personnes âgées ainsi qu’aux mineurs.

  • ✇Les Temps Électriques
  • Transformation numérique de la justice : séminaire 2025
    Master 2 de Cyberjustice, Strasbourg, 12 et 13 novembre 2025 En clôture d’un cycle d’enseignement de 4 années universitaires sur la transformation numérique de la justice au sein du Master 2 de Cyberjustice, la Faculté de droit, de sciences politiques et de gestion de l’Université de Strasbourg a organisé avec le soutien de l’Institut Robert… Plus...

Transformation numérique de la justice : séminaire 2025

9 décembre 2025 à 13:11
Master 2 de Cyberjustice, Strasbourg, 12 et 13 novembre 2025 En clôture d’un cycle d’enseignement de 4 années universitaires sur la transformation numérique de la justice au sein du Master 2 de Cyberjustice, la Faculté de droit, de sciences politiques et de gestion de l’Université de Strasbourg a organisé avec le soutien de l’Institut Robert… Plus...

C’est la fin de la preuve par l’image : l’outil Google Nano Banana Pro génère d’incroyables fake news à la chaîne

Le 3 décembre 2025, NewsGuard a publié une enquête sur le nouvel outil de génération d’images de Google, NanoBanana Pro. L’entreprise américaine, qui évalue la fiabilité des sites d’information, a voulu tester la capacité de cet outil à participer à des campagnes de désinformation… et les résultats sont édifiants.

OpenAI annonce une fuite de données, voici ce qui s’est réellement passé

Dans un communiqué publié le 26 novembre 2025, la société américaine OpenAI, qui développe notamment ChatGPT, annonce qu’un certain nombre de données d’utilisateurs de son API ont fuité.L’entreprise précise que l’incident provient de l’un de ses fournisseurs d’analyse de données.

Moins de clics, moins de règles : l’Europe s’apprête à détricoter le RGPD

ursula von der leyen dma dsa europe ia act numérique digital

Faut-il desserrer l'étau autour du numérique en Europe ? Bruxelles lance un grand chantier sur la question, avec des propositions visant à simplifier plusieurs aspects de certaines grandes réglementations, comme le RGPD et l'AI Act. Avec, en ligne de mire, le souhait de retrouver le chemin de la compétitivité et de l'innovation.

C’est inédit, la Chine aurait mené « la première campagne de cyberespionnage orchestrée par IA »

Dans une étude publiée le 13 novembre 2025, la société américaine Anthropic met en lumière ce qu’elle considère comme « la première campagne de cyberespionnage orchestrée par IA ». Dans cette opération, attribuée à un acteur chinois, les outils d’intelligence artificielle ne servent plus seulement d’appuis, mais jouent un rôle autonome dans différentes phases de l’attaque.

C’était une question de temps : la première vulnérabilité de ChatGPT Atlas a été trouvée

Dans un article de blog publié le 24 octobre 2025, des chercheurs de la société de cybersécurité NeuralTrust ont révélé une méthode permettant à un acteur malveillant de contourner les mécanismes de sécurité de l’assistant IA intégré au nouveau navigateur ChatGPT Atlas.

  • ✇Intelligence Artificielle – Framablog
  • Fine di Windows 10 : facciamo il punto della situazione
    Forse avete sentito parlare della fine del supporto di Windows 10 senza prestare particolare attenzione, oppure vi state chiedendo se questo vi riguarda. Facciamo il punto della situazione. Questa traduzione di NILOCRAM è distribuita con licenza Creative Commons By-SA 4.0. Testo originale : https://framablog.org/2025/10/01/fin-de-windows-10-faisons-le-point/   Di cosa si tratta ? Microsoft ha annunciato la fine del supporto per Windows 10 per il 14 ottobre 2025. Il sistema non riceverà più ag

Fine di Windows 10 : facciamo il punto della situazione

Forse avete sentito parlare della fine del supporto di Windows 10 senza prestare particolare attenzione, oppure vi state chiedendo se questo vi riguarda.
Facciamo il punto della situazione.

Questa traduzione di NILOCRAM è distribuita con licenza Creative Commons By-SA 4.0.
Testo originale : https://framablog.org/2025/10/01/fin-de-windows-10-faisons-le-point/

 

Di cosa si tratta ?

Microsoft ha annunciato la fine del supporto per Windows 10 per il 14 ottobre 2025. Il sistema non riceverà più aggiornamenti.

Microsoft sta quindi spingendo i suoi utenti a passare alla versione superiore, Windows 11.

Recentemente è stata annunciata una « proroga » (chiamiamola con il suo nome) di un anno, ottenuta dopo pressioni popolari e valida solo per i cittadini dell’Unione Europea (vedi https://www.lemonde.fr/pixels/article/2025/09/26/fin-du-support-de-windows-10-microsoft-ouvre-la-possibilite-d-obtenir-une-prolongation-des-mises-a-jour_6643073_4408996.html)

Microsoft ha fatto un comunicato sull’argomento senza entusiasmo, come nota l’associazione Halte à l’Obsolescence Programmée.

Secondo le ultime notizie, questo anno supplementare sarà gratuito, mentre inizialmente era previsto un costo di 30 dollari (circa 28 euro). Tuttavia, sarà gratuito solo se creerai il tuo account sui server di Microsoft, consentendo loro l’accesso completo ai tuoi dati e alle tue apparecchiature.

Ma in ogni caso, se hai un computer un po’ vecchio (risalente a prima del 2017), non potrà passare a Windows 11 e diventerà quindi rapidamente obsoleto dal punto di vista del software. Vedi : https://fr.wikipedia.org/wiki/Windows_11#Mise_%C3%A0_niveau_et_configuration_minimale_requise

Per completezza, esistono soluzioni alternative che consentono di installare Windows 11 su un PC privo del famoso chip di sicurezza TPM 2.0 (installato sui PC a partire dal 2016). Tuttavia, queste soluzioni compromettono la sicurezza e persino la stabilità del sistema. È pericoloso.

Ma allora cosa devo fare con il mio computer ?

Non scoraggiarti ! Continua a leggere ! Non è una fatalità !

Il mio computer smetterà di funzionare ?

Il tuo computer continuerà a funzionare. I suoi componenti hardware sono ancora in buone condizioni e progettati per durare molto più a lungo. Ma in assenza di aggiornamenti, in particolare quelli di sicurezza, il sistema Windows 10 diventerà vulnerabile. Virus e persone disoneste potranno introdursi nel computer. I rischi sono reali, anche nel mondo fisico : monitoraggio della tua attività a fini di furto d’identità, ricatto con blocco del computer (ransomware), utilizzo della tua casella di posta elettronica per inviare e-mail trappola (phishing). Non è fantascienza per spaventare, è la quotidianità degli specialisti della sicurezza informatica.

E se ti stai chiedendo « perché dovrebbero attaccare me, che sono una persona anonima nella folla ? », sappi che gli hacker setacciano ogni possibile bersaglio, migliaia di volte all’ora.

Se il tuo computer è esposto, è solo questione di tempo prima che arrivino i guai.

Devo cambiare PC ?

Se il tuo PC è precedente al 2017 e desideri continuare a utilizzare Windows, allora sì, devi cambiare computer. Ciò significa rottamare un dispositivo che funziona perfettamente e che potrebbe durare ancora per anni.

Dal punto di vista ambientale, è un vero e proprio disastro. Si stima che 240 milioni di computer finiranno nella spazzatura (ti abbiamo dato la stima più bassa, le cifre variano a seconda delle fonti, ma sono comunque enormi, un’altra stima parla di 400 milioni). Tuttavia, è stato dimostrato da tempo che è la produzione di un dispositivo elettronico a inquinare maggiormente nel suo ciclo di vita. È quindi un comportamento virtuoso conservare un dispositivo il più a lungo possibile se si vuole ridurre al minimo il suo impatto sul mondo.

Anche dal punto di vista economico è una pessima notizia. Il prezzo dei computer nuovi, che sono certamente sempre più potenti, non varia molto nel tempo. Si tratta quindi di un investimento importante. E soprattutto fatti la domanda : il tuo utilizzo giustifica l’acquisto di un computer ultra potente per la tua scrivania ?

Sappi che il problema è lo stesso per le amministrazioni, le associazioni, le aziende. Questa storia costerà una fortuna all’intera comunità e quindi, di riflesso, a ciascuno di noi : il tuo comune, la tua scuola, il tuo datore di lavoro, i ministeri, ecc. Tutto questo per una decisione presa negli Stati Uniti da una sola azienda.

Ma perché Microsoft lo fa ?

Microsoft è un’azienda capitalista che esiste per fare soldi. Mi dirai : anche il mio idraulico. Ma il mio idraulico non mi obbliga a comprare una nuova casa perché il mio rubinetto è troppo vecchio.

Microsoft integra la sua tecnologia di intelligenza artificiale (Copilot) in Windows 11. Ci sono persino computer commercializzati con il nome « Copilot+ ». Tuttavia, lo sviluppo di questa intelligenza artificiale è costato una fortuna e continuerà a costare. Ad esempio, Microsoft si è impegnata a investire 25 miliardi di euro nel Regno Unito durante la visita di Trump.

Ma l’adozione è più lenta del previsto. Le persone non sanno bene cosa fare con Copilot. A parte battute e resoconti di riunioni (abbiamo una soluzione per te : prova Lokas).

Il 27 settembre 2025 la Deutsche Bank ha pubblicato un’analisi secondo cui l’intera economia degli Stati Uniti dipende dagli investimenti nell’intelligenza artificiale.

Per Microsoft, si tratta di rendere tutto questo redditizio aumentando il prezzo delle licenze (all’acquisto, Windows 11 costerà più di Windows 10, si parla di 145 € per una licenza « famiglia » contro i 50 €, tre volte di più). Anche a costo di forzare un po’ la mano alla clientela, ma certo.

Da notare : è stato dimostrato che Windows 11 ti spia fin dalla sua installazione.

Esiste un’alternativa al cambio di computer ?

È il momento giusto per provare qualcosa di diverso.

Puoi conservare il tuo attuale computer e passare a un altro sistema che ha dato buona prova di sé : GNU Linux.

Il pinguino, mascotte di Linux, al centro dell’attenzione. Licenza CC By David Revoy

 

Un buon modo, tra parentesi (militanti), per spiegare a Microsoft che non vogliamo il suo mondo.

È una scelta sempre più diffusa : la quota di sistemi Linux nelle case è in costante aumento, anche se ancora modesta rispetto al dominio di Microsoft su questo mercato. Pensa che, sebbene sia illegale, non hai ancora una vera scelta del sistema quando acquisti un nuovo computer, perché Microsoft ha firmato accordi con i produttori. Apri la scatola e Windows è già lì. Si tratta di vendita abbinata, che è vietata, ma ti spiegheranno che un computer senza sistema operativo, che dovrai installare tu stesso, non si venderebbe.

Tuttavia, sempre più fornitori di PC offrono computer senza sistema preinstallato o lasciano a te la scelta.

Per quanto riguarda la questione che ci interessa oggi : installare Linux su un computer che già possiedi è diventato molto semplice. Paradossalmente, è quasi più semplice che per Windows, che ti obbliga a essere connesso a Internet, a creare un account Microsoft, ecc.

Un vicolo cieco, Windows ? Non preoccuparti, abbiamo altre soluzioni da proporti ! – Licenza CC By David Revoy

 

Tuttavia, può sembrare una sfida insormontabile quando si è un semplice utente. Chiedi aiuto.

Pensa a quanto è fastidioso cambiare una lampadina della tua auto : bisogna avere dita di ferro, lavorare a tentoni, con il rischio di tagliarsi, quindi preferisci chiedere a qualcuno che l’ha già fatto e tutto diventa subito più semplice. Se vuoi davvero imparare come si fa, puoi sempre cercare la documentazione in un momento più adatto. Ma l’idea, qui e ora, è quella di avere la luce sull’auto.

Vuoi passare a Linux ? Fatti aiutare

Innanzitutto, cos’è Linux ?

È un termine semplificato. Linux è il nome del motore che si trova al centro del sistema. I puristi ti correggeranno dicendo « GNU/Linux », ma la prima parte, che è altrettanto importante, è uscita dal linguaggio comune.

Per semplificare al massimo, si tratta di un sistema informatico nato nel mondo accademico che permette di far funzionare computer grandi e piccoli (il tuo smartphone Android, il tuo router Internet e il GPS della tua auto funzionano con una versione di Linux) e che consente di utilizzare tutta una serie di software, per lo più comunitari e gratuiti. Questa definizione è davvero molto semplicistica, ma la preciserai col tempo.

Quale distribuzione scegliere ?

La domanda non è essenziale, ma è necessario porsela. Infatti, i sistemi che funzionano con un kernel Linux fanno parte, a differenza di quelli più monolitici di Apple e Microsoft, di una famiglia molto ampia.

Una « distribuzione » è un insieme costituito da un sistema, un ambiente desktop e software assemblati in modo da funzionare armoniosamente. Alcune distribuzioni sono destinate a usi molto specifici ; altre sono state pensate per essere di facile accesso.

Un sistema GNU/Linux è installato con dei software per poter lavorare immediatamente. Licenza CC By David Revoy

 

I geek passano il loro tempo a testare le distribuzioni e a confrontare i loro pregi e difetti. Ognuno ha la propria opinione e ognuno è pronto a difenderla. Forse un giorno anche tu ti appassionerai.

In definitiva, le cose sono abbastanza semplici se sei alle prime armi : scegli distribuzioni orientate al « grande pubblico », in modo da trovare facilmente documentazione e assistenza. Non lasciarti incastrare in soluzioni esotiche che ti daranno del filo da torcere.

Citiamo ad esempio Emmabuntüs, Ubuntu o Fedora, che sono progettate per facilitarne l’adozione e sono dotate di un’abbondante documentazione in francese.

Ho paura di non capire nulla di Linux

Sai davvero come funziona il tuo attuale Windows ? O il tuo smartphone ? O anche il tuo router Internet ?

All’inizio non avrai bisogno di sapere tutto su Linux per utilizzarlo. Bastano poche spiegazioni. Imparerai man mano e non saprai mai tutto, ma non importa. Personalmente considero ancora la frizione una cosa magica, non ci capisco niente. Ma parto comunque al semaforo verde.

La maggior parte dei geek, stanchi di passare le vacanze di fine anno o le serate a riparare i dispositivi Windows della famiglia, hanno fatto migrare tutti a Linux. E indovina un po’ ? Riceviamo molte meno richieste di assistenza rispetto a prima !

Funziona bene come Windows ?

Se fai questa domanda a una persona che usa Linux, la risposta sarà probabilmente « funziona meglio », con un sorriso leggermente condiscendente.

I sistemi Linux hanno enormi vantaggi : sono progettati sia per essere connessi che per essere ben difesi, perché le loro origini sono proprio lì. La maggior parte dei computer che fanno funzionare Internet utilizzano Linux, quindi è stato necessario garantire la sicurezza e l’interoperabilità. Le distribuzioni destinate ai nostri dispositivi personali sono varianti di sistemi progettati per preservarne l’integrità di fronte ad attacchi, aumento del carico di lavoro, guasti e interruzioni di rete.
In sostanza, far funzionare Linux sul tuo PC è come chiedere alla direttrice di un ipermercato di gestire il minimarket all’angolo. Farà perfettamente il suo lavoro, anzi, si annoierà un po’.

Attenzione però (eh sì, c’è un ma) se esci dai sentieri battuti dell’informatica domestica e utilizzi applicazioni professionali o specializzate. Verifica che esista un equivalente in Linux, cosa molto probabile, ma aspettati di dover imparare nuove abitudini. Si tratterà di un equivalente, di un’alternativa, non della stessa applicazione. Quindi, se un’attività per te essenziale che svolgi col tuo computer è al di fuori della consultazione di Internet, delle tue e-mail, dei social network, in breve degli usi più classici, tieni presente che ciò richiederà uno sforzo più o meno grande, come per qualsiasi cambiamento.

Passare da Windows a Linux è un po’ come traslocare : non si prendono più le stesse strade per tornare a casa, le chiavi non funzionano allo stesso modo, il panificio è diverso, bisogna memorizzare il nuovo codice dell’edificio, ma alla fine si dorme sempre nel proprio letto e si è in grado di prepararsi un piatto di pasta nella nuova cucina.

Anche una passione abbastanza diffusa come la fotografia richiederà un po’ di lavoro : le applicazioni di elaborazione delle foto (DarkTable, Gimp, RawTherapee) sono potenti ed efficaci su Linux, ma richiedono un po’ di tempo per essere padroneggiate. Perché non provarle oggi stesso ? Esistono anche su Windows ! Quante ore hai passato su LightRoom e Photoshop prima di imparare a usarli ?

Quanto costa ?

Abbiamo una buona notizia per te : la maggior parte delle distribuzioni Linux sono completamente gratuite. Ciò non significa che non devi dare nulla in cambio. Puoi contribuire allo sforzo collettivo versando il tuo contributo a un’associazione, al team che si occupa della manutenzione del tuo software preferito, o dando una mano a tua volta alle persone che ti circondano.

Ho un PC DAVVERO vecchio ; esiste una versione di Linux adatta a me ?

Esistono distribuzioni Linux « leggere » che possono funzionare su hardware vecchio. Per spiegarmi meglio, sempre semplificando un po’, la base rimane la stessa (in particolare il « kernel », sviluppato 34 anni fa da Linus Torvalds, il che spiega perché si chiama così), ma vengono utilizzate applicazioni meno esigenti e un ambiente desktop più economico. Si sacrifica l’eleganza per dare respiro al PC. Le icone sono meno belle e non ci sono effetti grafici mozzafiato, ma funziona. Questo articolo è stato scritto su un dispositivo che ha più di 15 anni ed è il mio computer principale.

Un altro vantaggio : la struttura compartimentata del sistema lo rende più robusto ; ad esempio, si può fare completamente a meno di un antivirus (che, per essere onesti, richiedono meno risorse rispetto al passato).

È anche possibile migliorare le prestazioni di un vecchio computer aggiungendo memoria supplementare e un disco rigido moderno (SSD), il che costa molto meno che comprarne uno nuovo (circa 200 euro). Ma la versione 11 di Windows richiede un componente hardware che non potrete aggiungere al vostro vecchio PC.

È fatto apposta. È per venderne di nuovi.

Come posso farmi aiutare ?

Insieme possiamo spostare le montagne – Licenza CC By David Revoy

In effetti, cimentarsi da soli in questa impresa è complicato, anche se fattibile. Su Internet si trovano tutorial ovunque.

L’April, l’associazione per la promozione e la difesa del software libero (di cui Framasoft è membro), ha lanciato il primo ottobre 2025 (e per un anno) l’operazione Adieu Windows, bonjour le Libre ! Trovi tutti gli eventi organizzati dai Gruppi di Utenti di Software Libero (GULL) sul sito https://adieuwindows.april.org o su l’Agenda du Libre.

Install-party, incontri digitali, punti informazioni o repair café : c’è sicuramente un evento organizzato vicino a te. Vieni con il tuo computer, i volontari ti aiuteranno a installare una distribuzione libera (non dimenticare di salvare i tuoi dati prima, ad esempio acquistando un disco rigido esterno per poche decine di euro).

Aide Linux è un’iniziativa costituita da volontari che intervengono a titolo individuale. Li trovi su https://aidelinux.gogocarto.fr/map#/

In conclusione

È il momento giusto. È il momento di fare il grande passo, di mandare al diavolo Microsoft e passare a un sistema elegante, libero e rispettoso, conservando al contempo il tuo hardware.

Il tuo computer manterrà le sue possibilità di evoluzione, senza ricatti, senza costi aggiuntivi, per anni.

Non ti spierà e ne avrai il controllo.

Non ti rifilerà pubblicità ogni cinque minuti. Anzi, se ben configurato, ti proteggerà da essa.

Non aspettare di trovarti con le spalle al muro l’anno prossimo.

È il momento di riprenderti la tua libertà !

Per saperne di più

La petizione :
https://www.halteobsolescence.org/non-taxe-windows-coalition-22-organisations-maintien-mises-a-jour-de-securite-windows-10/

Reportage « L’œil du 20H » : https://youtu.be/76T8oubek-c?si=NYCcDMHfrHJx9_R3
Ammira la maestria dei giornalisti nell’evitare di parlare di Linux.

Un sito dedicato alla fine di Windows 10 : https://endof10.org/it/

Rinvio della fine del supporto : https://www.presse-citron.net/microsoft-windows-10-sursis-un-an/

Articolo recente di Next : https://next.ink/201908/fin-de-windows-10-que-faire/

Distribuzioni :

Il problema per le istituzioni :
https://www.lesnumeriques.com/appli-logiciel/une-gabegie-de-ressources-pour-le-public-l-environnement-et-les-finances-publiques-une-petition-s-erige-contre-la-fin-de-vie-programmee-de-windows-10-n242395.html

E la soluzione : https://www.cio-online.com/actualites/lire-jean-marie-seguret-dsi-de-lyon–se-soustraire-de-microsoft-impose-un-travail-de-fond-16527.html

I sistemi basati su Linux sono ormai alla portata di tutti :
https://abilian.com/fr/news/2-millions-utilisateurs-linux-france/
https://cnll.fr/news/linux-en-france-2-millions-utilisateurs/

Grazie a David Revoy che ha realizzato i disegni che illustrano questo articolo. Anche lo sfondo delmio schermo è un disegno di David.

Il desktop dell’autore

Le groupe bancaire BPCE met en place un dialogue social régulier sur l’usage de l’IA

9 octobre 2025 à 07:30
Syndicats et direction du groupe bancaire BPCE l’affirment de concert : ce ne sont pas les inquiétudes autour d’éventuelles pertes d’emploi qui...

Il ne sera bientôt plus possible d’utiliser des licences comme Pokémon pour générer des vidéos avec Sora 2

Les ayants droit détenteurs d’œuvres protégées pourront désormais choisir comment celles-ci seront utilisées par Sora 2, le nouvel outil de génération vidéo dopé à l’IA d’OpenAI (ChatGPT). Autre nouveauté : la création de vidéos pourrait bientôt permettre d’en tirer des revenus.

  • ✇Intelligence Artificielle – Framablog
  • Fin de Windows 10 : faisons le point
    Vous avez peut-être entendu parler de la fin du support de Windows 10 sans forcément y prêter attention, ou vous vous demandez si ça vous concerne. Faisons le point. À noter : version italienne réalisée par NILOCRAM. De quoi est-il question ? Microsoft a annoncé la fin du support de Windows 10 pour le 14 octobre 2025. Le système ne recevra plus de mises à jour. Microsoft pousse donc ses utilisateurs et utilisatrices à passer à la version supérieure, Windows 11. Récemment, un « sursis » (appelo

Fin de Windows 10 : faisons le point

Vous avez peut-être entendu parler de la fin du support de Windows 10 sans forcément y prêter attention, ou vous vous demandez si ça vous concerne.

Faisons le point.

À noter : version italienne réalisée par NILOCRAM.

De quoi est-il question ?

Microsoft a annoncé la fin du support de Windows 10 pour le 14 octobre 2025. Le système ne recevra plus de mises à jour.

Microsoft pousse donc ses utilisateurs et utilisatrices à passer à la version supérieure, Windows 11.

Récemment, un « sursis » (appelons les choses par leur nom) d’un an a été annoncé, obtenu après pression populaire et valable uniquement pour les citoyennes et citoyens de l’Union Européenne (voir https://www.lemonde.fr/pixels/article/2025/09/26/fin-du-support-de-windows-10-microsoft-ouvre-la-possibilite-d-obtenir-une-prolongation-des-mises-a-jour_6643073_4408996.html)

Microsoft a communiqué sans entrain sur le sujet, comme le note l’association Halte à l’Obsolescence Programmée.

Cette année supplémentaire sera finalement gratuite aux dernières nouvelles, il était prévu qu’elle soit facturée $30 (environ 28€). Enfin, gratuit uniquement si vous créez votre compte sur les serveurs de Microsoft, leur laissant un accès total à vos données et votre matériel.

Mais quoi qu’il arrive, si vous avez un ordinateur un peu ancien (datant d’avant 2017), il ne pourra pas passer à Windows 11 et deviendra donc rapidement obsolète d’un point de vue logiciel. Voir : https://fr.wikipedia.org/wiki/Windows_11#Mise_%C3%A0_niveau_et_configuration_minimale_requise

Pour être tout-à-fait complet, il existe des solutions de contournement qui permettent d’installer Windows 11 sur un PC dépourvu de la fameuse puce de sécurité TPM 2.0 (installée sur les PC à partir de 2016). Mais elles mettent à mal la sécurité et même la stabilité du système. C’est dangereux.

Mais alors je fais quoi avec mon ordi ?

Ne vous découragez pas ! Continuez à lire ! Ce n’est pas une fatalité !

Est-ce que mon ordinateur va cesser de fonctionner ?

Votre ordinateur va continuer à fonctionner. Ses composantes matérielles sont toujours en bon état et conçues pour durer bien plus longtemps. Mais en l’absence de mises à jour, notamment de sécurité, le système Windows 10 va devenir vulnérable. Des virus et des personnes malhonnêtes vont pouvoir s’introduire dans la machine. Les risques sont réels, y compris dans le monde physique : surveillance de votre activité à des fins d’usurpation d’identité, chantage au verrouillage de l’ordinateur (rançongiciel), utilisation de votre boite mail pour envoyer des mails-pièges (phishing). Ce n’est pas de la science-fiction pour faire peur, c’est le quotidien des spécialistes en sécurité informatique.

Et si vous vous dites « pourquoi s’attaquerait-on à moi qui suis une personne anonyme dans la foule ? », sachez que les pirates ratissent tous azimuts, des milliers de fois par heure, toutes les cibles possibles.

Si votre ordinateur est exposé, ce n’est qu’une question de temps avant que les ennuis ne pointent leur nez.

Est-ce que je dois changer de PC ?

Si votre PC date d’avant 2017 et que vous souhaitez continuer à utiliser Windows, alors oui, il faut changer d’ordinateur. C’est-à-dire mettre au rebut un appareil qui fonctionne parfaitement et qui peut encore durer des années.

Du point de vue de l’environnement, c’est une catastrophe pure et simple. On estime à 240 millions le nombre d’ordinateurs qui vont partir à la casse (on vous a mis l’estimation basse, les chiffres changent selon les sources mais ils sont toujours énormes, une autre estimation parle de 400 millions). Or, il est démontré depuis longtemps que c’est la fabrication d’un appareil électronique qui pollue le plus dans son cycle de vie. Il est donc vertueux de conserver un appareil le plus longtemps possible si on veut minimiser son impact sur le monde.

Du point de vue du porte-monnaie, c’est aussi une très mauvaise nouvelle. Le prix des ordinateurs neufs, qui sont certes de plus en plus puissants, ne varie pas tant que ça dans le temps. C’est donc un gros investissement. Et surtout posez-vous la question : votre usage justifie-t-il d’avoir une machine ultra-puissante sur votre bureau ?

Sachez que le problème est le même pour les administrations, les associations, les entreprises. Cette histoire va coûter une fortune à la communauté toute entière, et donc à chacun et chacune d’entre nous par ricochet : votre mairie, votre école, votre employeur, les ministères, etc. Tout ça pour une décision prise aux États-Unis par une seule entreprise.

Mais pourquoi Microsoft fait ça ?

Microsoft est une entreprise capitaliste qui est là pour gagner de l’argent. Vous me direz : mon plombier aussi. Mais mon plombier ne m’oblige pas à acheter un nouveau logement parce que mon robinet est trop vieux.

Microsoft embarque sa technologie d’intelligence artificielle (Copilot) dans Windows 11. Il y a même des ordinateurs qui sont commercialisés sous le nom « Copilot+ ». Or, le développement de cette intelligence artificielle lui a coûté des fortunes, et va encore lui en coûter. Par exemple Microsoft s’est engagée à investir 25 milliards d’euros au Royaume-Uni lors de la visite de Trump.

Mais l’adoption est plus lente que prévu. Les gens ne savent pas trop quoi faire avec Copilot. À part des blagues et des comptes-rendus de réunion (on a une solution pour vous : essayez Lokas).

La Deutsche Bank a d’ailleurs publié le 27 septembre 2025 une analyse selon laquelle c’est toute l’économie des États-Unis qui est suspendue aux investissements dans l’intelligence artificielle.

Pour Microsoft, il s’agit de rentabiliser tout ça en augmentant le prix des licences (à l’achat Windows 11 coûtera plus cher que Windows 10, on parle de 145€ pour une licence « famille » contre 50€, trois fois plus). Quitte à forcer un peu la main de la clientèle, ben voyons.

À noter au passage : il a été prouvé que Windows 11 vous espionne dès son installation.

 

Est-ce qu’il y a une alternative au changement d’ordinateur ?

C’est le moment où jamais de tester autre chose.

Vous pouvez conserver votre ordinateur actuel et le passer sur un autre système qui a fait ses preuves : GNU Linux.

Le manchot, mascotte de Linux, sous le feu des projecteurs. Licence CC By David Revoy

 

Une bonne façon, entre parenthèses (militantes), d’expliquer à Microsoft que son monde, on n’en veut pas.

C’est un choix qui se répand : la part des systèmes Linux à la maison ne fait qu’augmenter, même si elle est encore timide, rapport à la mainmise de Microsoft sur ce marché. Pensez que, bien que ce soit illégal, vous n’avez pas encore vraiment le choix du système quand vous achetez un ordinateur neuf, parce que Microsoft a signé des accords avec les constructeurs. Vous ouvrez le carton, Windows est déjà là. C’est de la vente liée, c’est interdit, mais on vous expliquera qu’un ordi vide, que vous devrez installer vous-même, ne se vendrait pas.

Cependant de plus en plus de fournisseurs de PC vous proposent des ordinateurs sans système pré-installé, ou vous laissent le choix.

Quant à la question qui nous préoccupe aujourd’hui : installer Linux sur un ordinateur que vous possédez déjà, c’est devenu très simple. Même, paradoxalement, presque plus simple que pour Windows, qui vous oblige à être connecté⋅e à Internet, à créer un compte Microsoft, etc.

Une impasse, Windows ? Pas de souci, on a autre chose à proposer ! – Licence CC By David Revoy

 

Toutefois, ça peut sembler un défi insurmontable quand on est simple utilisateurice. Faites-vous aider.

Pensez à l’ennui que c’est de changer une ampoule sur votre voiture : il faut avoir des doigts de fée, travailler à tâtons, au risque de se couper, alors vous préférez demander à quelqu’un qui l’a déjà fait et c’est tout de suite plus simple. Si vous voulez vraiment apprendre comment faire, il sera toujours possible de chercher de la documentation dans un moment plus adapté. Mais l’idée, là, maintenant, c’est d’avoir de la lumière sur la voiture.

Envie de passer à Linux ? Faites-vous accompagner

D’abord c’est quoi, Linux ?

C’est un mot simplificateur. Linux est le nom du moteur qui se trouve au cœur du système. Les puristes vous reprendront en disant « GNU/Linux », mais la première partie, qui est tout aussi importante, est sortie du langage courant.

Pour schématiser à la grosse louche, c’est un système informatique issu du monde universitaire qui permet de faire tourner des ordinateurs gros comme petits (votre smartphone Android, votre box Internet, et le GPS de votre voiture tournent sur une version de Linux) et qui permet d’utiliser toute une galaxie de logiciels, la plupart du temps communautaires et gratuits. Cette définition est vraiment très simpliste, mais vous l’affinerez au fil du temps.

Quelle distribution choisir ?

Cette question n’est pas essentielle, mais il faut se la poser. En effet, les systèmes tournant avec un noyau Linux font partie, contrairement à ceux d’Apple et Microsoft plus monolithiques, d’une très vaste famille.

Une « distribution » est un ensemble constitué d’un système, d’un environnement de bureau, et de logiciels assemblés de façon à fonctionner harmonieusement. Certaines distributions sont destinées à des usages bien spécifiques ; certaines ont été pensées pour être faciles d’accès.

Un système GNU/Linux est installé avec des logiciels pour pouvoir travailler immédiatement. Licence CC By David Revoy

 

Les geeks passent leur temps à tester des distributions et à comparer leurs mérites et défauts. Tout le monde a son avis, tout le monde est prêt à le défendre. Vous vous y mettrez peut-être un de ces jours.

En définitive, les choses sont assez simples si vous débutez : choisissez des distributions orientées « grand public », de façon à trouver facilement de la documentation et de l’aide. N’allez pas vous embringuer dans des solutions exotiques qui vont vous donner du fil à retordre.

Citons par exemple Emmabuntüs, Ubuntu ou Fedora qui sont conçues pour vous faciliter leur adoption et pourvues d’une abondante documentation en français.

J’ai peur de ne rien comprendre à Linux

Est-ce que vous savez réellement comment fonctionne votre Windows actuel ? Ou votre smartphone ? Ou même votre box Internet ?

Dans un premier temps, vous n’aurez pas besoin de tout savoir sur Linux pour l’utiliser. Quelques explications suffiront. Vous apprendrez en marchant et vous ne saurez jamais tout, mais ça n’est pas grave. Personnellement je considère encore que l’embrayage est un truc magique, je n’y comprends rien. Mais je démarre quand même au feu vert.

La plupart des geeks, lassés de passer leurs congés de fin d’année ou leurs soirées à dépanner les appareils Windows familiaux, ont migré tout le monde sous Linux. Et devinez quoi ? Nous recevons beaucoup moins de sollicitations qu’avant !

Ça fonctionne aussi bien que Windows ?

Si vous posez cette question à une personne qui utilise Linux, la réponse sera probablement « ça fonctionne mieux », avec le sourire légèrement condescendant de circonstance.

Les systèmes Linux ont d’énormes avantages : ils sont conçus pour être à la fois connectés et étanches, parce que leurs origines sont là. La plupart des ordinateurs qui font tourner Internet sont sous Linux, il a donc fallu faire en sorte que la sécurité et l’interopérabilité soient au rendez-vous. Les distributions destinées à nos appareils personnels sont des déclinaisons de systèmes conçus pour préserver leur intégrité face aux attaques, à une augmentation de la charge de travail, aux pannes, aux coupures du réseau.
En gros, faire tourner Linux sur votre PC, c’est comme si vous demandiez à la directrice d’un hypermarché de gérer la supérette du coin. Elle va parfaitement faire le job, voire s’ennuyer un peu.

Attention tout de même (ben oui, il y a un bémol) si vous sortez des sentiers battus de la bureautique familiale et que vous utilisez des applications professionnelles ou spécialisées. Vérifiez qu’il existe un équivalent sous Linux, ce qui est très probable, mais attendez-vous à devoir apprendre de nouvelles habitudes. Il s’agira d’un équivalent, d’une alternative, pas de la même application. Donc si une activité essentielle pour vous se trouve dans votre ordinateur en dehors de la consultation d’Internet, de vos mails, des réseaux sociaux, en bref des usages les plus classiques, notez bien que ça va vous demander un effort plus ou moins grand, comme pour n’importe quel changement.

Passer de Windows à Linux, c’est un peu comme déménager : on ne prend plus les mêmes routes pour rentrer chez soi, les clés ne fonctionnent pas pareil, la boulangerie est différente, il faut mémoriser le nouveau code de l’immeuble, mais au final on dort toujours dans son lit et on est capable de se faire des nouilles dans la nouvelle cuisine.

Même une passion assez répandue comme la photographie va vous demander un peu de boulot : les applications de traitement de photos (DarkTable, Gimp, RawTherapee) sont puissantes et efficaces sous Linux, mais elles demandent à être apprivoisées. Pourquoi ne pas les essayer dès aujourd’hui ? Elles existent aussi sous Windows ! Quel nombre d’heures avez-vous passé sur LightRoom et Photoshop avant de savoir vous en servir ?

 

Combien ça coûte ?

Nous avons une bonne nouvelle pour vous : la plupart des distributions Linux sont entièrement gratuites. Ça ne veut pas dire qu’il ne faut rien donner en échange. Vous pourrez contribuer à l’effort collectif en versant votre écot à une association, à l’équipe qui assure la maintenance de votre logiciel favori, ou encore en donnant un coup de main à votre tour dans votre entourage.

 

J’ai VRAIMENT un vieux PC ; est-ce qu’il y a une version de Linux pour moi ?

Il existe des distributions Linux « légères » qui peuvent faire tourner du vieux matériel. Pour vous expliquer, toujours en schématisant un peu, le socle reste le même (notamment « le noyau », développé il y a 34 ans par M. Linus Torvalds, ce qui vous explique pourquoi on l’appelle comme ça) mais on met des applications moins gourmandes et un environnement de bureau plus économe. On sacrifie à l’élégance pour donner du souffle au PC. Les icônes sont moins jolies et il n’y a pas d’effets graphiques époustouflants, mais ça fonctionne. Cet article est écrit sur un engin qui a plus de 15 ans et qui est mon ordinateur principal.

 

Autre atout : la structure compartimentée du système le rend plus robuste ; on peut par exemple se passer complètement d’un antivirus (qui sont devenus, pour être tout-à-fait honnête, moins gourmands qu’autrefois).

 

Il est aussi possible de donner un coup de fouet à une vieille machine en lui greffant de la mémoire supplémentaire et un disque dur moderne (SSD), ce qui revient bien moins cher que d’en racheter un (environ 200 euros). Mais la version 11 de Windows nécessite un composant matériel que vous ne pourrez pas ajouter dans votre vieux PC.

 

C’est fait exprès. C’est pour en vendre.

 

Comment me faire aider ?

Ensemble on déplace des montagnes – Licence CC By David Revoy

 

En effet, se lancer dans son coin reste délicat, même si c’est faisable. Il y a des tutoriels partout sur Internet.

 

L’April, l’association pour la promotion et la défense du Logiciel Libre (dont Framasoft est membre) a lancé ce premier octobre 2025 (et pour un an) l’opération Adieu Windows, bonjour le Libre ! Retrouvez tous les événements organisés par des Groupes d’Utilisateurices de Logiciels Libres (GULL) sur le site https://adieuwindows.april.org ou sur l’Agenda du Libre.

 

Install-parties , permanences, rendez-vous numériques, points infos ou repair cafés, il y a forcément un évènement qui sera organisé près de chez vous. Venez avec votre ordi, des bénévoles vous aideront à installer une distribution libre (n’oubliez pas de sauvegarder vos données avant, par exemple en achetant un disque dur externe pour quelques dizaines d’euros).

 

Aide Linux est une initiative constituée de bénévoles qui interviennent à titre individuel. Retrouvez les sur https://aidelinux.gogocarto.fr/map#/

La carte Aide Linux

En conclusion

C’est le moment. C’est le moment de sauter le pas, de faire un bras d’honneur à Microsoft et de passer à un système élégant, libre et respectueux, tout en conservant votre matériel.

Votre ordinateur gardera ses possibilités d’évolution, sans chantage, sans coût supplémentaire, pendant des années.

Il ne vous espionnera pas, et vous en aurez la maîtrise.

Il ne vous fourguera pas de la publicité toutes les cinq minutes. Voire, bien réglé, il vous en protégera.

N’attendez pas d’être au pied du mur l’an prochain.

C’est le moment de reprendre votre liberté !

Pour aller plus loin

Page officielle de Microsoft : https://support.microsoft.com/fr-fr/windows/windows-10-support-prend-fin-le-14-octobre-2025-2ca8b313-1946-43d3-b55c-2b95b107f281

 

La pétition :
https://www.halteobsolescence.org/non-taxe-windows-coalition-22-organisations-maintien-mises-a-jour-de-securite-windows-10/

 

Reportage « l’œil du 20H » : https://youtu.be/76T8oubek-c?si=NYCcDMHfrHJx9_R3
Admirez la virtuosité des journalistes pour éviter de parler de Linux.

Un site dédié à la fin de Windows 10 : https://endof10.org/fr/

Report de la fin du support : https://www.presse-citron.net/microsoft-windows-10-sursis-un-an/

Article récent de Next : https://next.ink/201908/fin-de-windows-10-que-faire/

 

Distributions :

 

Le problème pour les institutions :
https://www.lesnumeriques.com/appli-logiciel/une-gabegie-de-ressources-pour-le-public-l-environnement-et-les-finances-publiques-une-petition-s-erige-contre-la-fin-de-vie-programmee-de-windows-10-n242395.html

Et la solution : https://www.cio-online.com/actualites/lire-jean-marie-seguret-dsi-de-lyon–se-soustraire-de-microsoft-impose-un-travail-de-fond-16527.html

 

Les systèmes basés sur Linux sont désormais à la portée de tout le monde :
https://abilian.com/fr/news/2-millions-utilisateurs-linux-france/
https://cnll.fr/news/linux-en-france-2-millions-utilisateurs/

 

Merci à David Revoy qui a réalisé les dessins illustrant cet article. Même mon fond d’écran est un dessin de David. 

 

Bureau de l’auteur

Les ruses de la Chine pour contourner les sanctions américaines

28 septembre 2025 à 08:00
Début mars, quatre ingénieurs chinois prenaient un vol depuis Beijing en direction de la Malaisie, chacun muni d’une valise. À l’intérieur, 15...

Ce militaire sud-coréen n’existe pas. Ces hackers nord-coréens, si

Un rapport publié par la société de cybersécurité sud-coréenne Genians révèle les dessous d'une campagne de cyberespionnage menée par un groupe nord-coréen proche du pouvoir de Pyongyang. Fait notoire dans cette opération, les hackers sont parvenus à tromper ChatGPT en lui faisant générer de faux papiers d'identité militaire.

  • ✇Intelligence Artificielle – Framablog
  • Techno parade
    La prétendue « neutralité technologique » est un écran de fumée politique au service d’un discours néolibéral. Face à cela, il ne s’agit pas de rejeter la technologie en bloc, mais de l’aborder selon plusieurs perspectives qu’il faut sans cesse renouveler. Si la technique reconfigure toujours nos rapports sociaux, la bonne approche qui s’impose consiste à résister aux systèmes de pouvoir et de continuer à débattre. L’arrivée des IA génératives dans le grand public permet d’observer la manière

Techno parade

La prétendue « neutralité technologique » est un écran de fumée politique au service d’un discours néolibéral. Face à cela, il ne s’agit pas de rejeter la technologie en bloc, mais de l’aborder selon plusieurs perspectives qu’il faut sans cesse renouveler. Si la technique reconfigure toujours nos rapports sociaux, la bonne approche qui s’impose consiste à résister aux systèmes de pouvoir et de continuer à débattre.


L’arrivée des IA génératives dans le grand public permet d’observer la manière dont s’enchaînent les discours sur les techniques dans la société. Ils s’enchaînent, dis-je, car ils ne naissent pas. Ils se répètent. Et pourtant depuis Marc Bloch et Lucien Febvre, les universitaires ont fait du chemin pour dresser les méthodes et concepts de l’histoire des techniques. À leur tour, l’anthropologie et la sociologie ont spécialisé des branches disciplinaires sur les techniques. Et je pense que depuis les années 1970 il n’y a pas eu un instant où le rapport entre technique et société n’a pas été interrogé. Cela tient sans doute au fait qu’avec les Trente Glorieuses et l’informatisation de la société, les occasions d’identifier de multiples objets d’étude n’ont cessé de se multiplier. Et malgré tout cela, rien n’y semble faire. Une émission de radio (service public) sur l’arrivée des IA génératives (IAg) dans nos usages quotidiens ? elle se terminera invariablement sur le poncif relativiste du « c’est ni bon ni mauvais, tout dépend de comment on s’en sert ».

Je me suis toujours demandé d’où pouvait bien provenir cet indécrottable relativisme qui brouille nos rapports sociaux. Peut-être faut-il en chercher la cause dans le fait qu’on on apprend très tôt que faire usage d’un argument, c’est déjà presque commettre un abus. Dans nos démocraties libérales où, souvent, les égaux sont seulement supposés, parler haut et clair revient à menacer l’autre de le faire apparaître confus — donc à l’opprimer. À moins d’être couvert par le statut d’autorité institutionnelle, ou d’exercer la raison du genre dominant, et donc effectivement exercer un pouvoir, mieux vaut donc se taire ou douter, et retourner bosser. Résultat : une société intellectuellement désarmée, éduquée à la déférence molle au service des « gagnants ».

Alors parlons fort, à défaut parfois d’être clair : ce relativisme est le terreau idéal pour une absorption efficace des discours politiques qui instrumentalisent les idées vaseuses de progrès et de neutralité des techniques. De là vient le pouvoir non des techniques elles-mêmes mais de ceux qui les instrumentalisent. Le débat sur la neutralité des techniques vise deux objectifs : d’une part soutenir la vision instrumentale des groupes d’intérêts économiques, en vue de nous faire croire qu’il faut s’adapter à leur monde, et d’autre part un détournement du cadre de nos libertés qui limite les techniques à leur contrôle hiérarchique. Un autre objectif dont nous ne parlerons qu’à la marge dans ce billet est celui des groupes complotistes : ils concernent des pratiques de déstabilisation politique en vue d’intérêts économiques, mais les étudier revient à partir sur d’autres considérations que celles développées ici.

Ce billet est expérimental. Je vais tâcher d’aligner quelques arguments à partir d’une analyse du relativisme technologique et de son instrumentalisation politique. Je déconstruirai ensuite le mythe de la neutralité de la technique en explorant différentes perspectives entre Marx et Langdon Winner, en envisageant plusieurs postures. Enfin, je tâcherai de trouver une porte de sortie vers une décentralisation des techniques.

Le symptôme idéologique

Il faut l’affirmer ici avec, peut-être, une certaine condescendance envers ceux qui se torturent les méninges à ce sujet : la technique n’est pas neutre, et nous le savons depuis très longtemps que ce soit d’un point de vue purement intuitif ou d’un point de vue épistémologique ou philosophique. Il faut être sérieux sur ce point. La question formulée « La technique est-elle neutre ? » est un artifice dissertatif visant à poser un cadre conceptuel sur le rapport entre technique et société. Et c’est d’ailleurs ce que nous allons faire ici.

Si je précise cela, c’est parce que les discours politiques sur la neutralité technologique sont souvent caricaturés : on les réduit à des prises de position légères, comme s’ils ignoraient ou négligeaient les responsabilités liées aux impacts sociaux des techniques. Nous avons nous mêmes pratiqué cet artifice sur le Framablog, par souci de concision (et aussi à cause d’un esprit quelque peu revanchard, mais justifié) lorsque nous avons parlé des mots de la ministre de l’Éducation Najat Vallaud-Belkacem à l’époque de la signature d’un partenariat avec Microsoft. Mais caricaturer amène parfois à ignorer naïvement combien la posture en question est en réalité retorse et malsaine. Les responsabilités ne sont ni négligées ni ignorées, elles sont évacuées par la trame néolibérale à laquelle adhèrent les acteurs politiques. C’est d’autant plus grave.

Il s’agit bien ici de technologie et non de technique. La technique, c’est le savoir-faire, le métier, l’outil, le dispositif. La technologie est un mot plus récent, il décrit l’ensemble du système qui va des connaissances à la mise en œuvre technicienne. Pour faire vite, le clavier est un objet technique, la frappe est une technique, là où il y a une foule de technologies qui font qu’Internet existe. Dans le monde de la décision publique, ce qu’on appelle les politiques technologiques sont les décisions stratégiques (négociations, lois, contrats et accords) qui sont censées donner les orientations technologiques d’un pays.

Dans ce contexte, la plupart des discours politiques, et même des lois promulguées par les élus, postulent une « neutralité technologique » des institutions, des fonctions représentatives, ou plus généralement des organes de l’État. Pour donner un exemple récent, on peut citer l’examen au Sénat Français de la proposition de loi Programmation et simplification dans le secteur économique de l’énergie, dans la séance du 8 juillet 2025. Un amendement (num. 19 rectifié bis) portait sur l’ajout de la mention « neutralité technologique » en complément à la question de la maîtrise des coût. Le rapporteur arguait sur le fond que « la neutralité technologique est un bon principe en matière de politique énergétique, dans la mesure où il permet de ne pas opposer les différentes énergies décarbonées entre elles – il ne faut surtout pas le faire ! –, qu’elles soient d’origine nucléaire ou renouvelables ». L’amendement fut adopté.

Ce principe de « neutralité technologique » se retrouve à de multiples échelons des politiques internationales. Ainsi, les politiques européennes prônent depuis longtemps ce principe au risque parfois de quelques pirouettes rhétoriques. Par exemple au lieu de persister à affirmer que l’objectif consiste à ne plus vendre de voitures thermiques en 2035, la Commission Européenne invoque le principe de neutralité technologique : l’objectif est que les voitures n’émettent plus de CO2, mais comme la Commission est « neutre technologiquement », elle n’imposerait rien d’autre et encore moins les voitures électriques, or il se trouve que les voitures thermiques émettent du CO2…

Qu’il s’agisse de la Commission Européenne ou de ce débat au Sénat Français, ils révèlent tous deux la manière dont le pouvoir de l’État est pensé, c’est-à-dire une tartufferie néolibérale qui impose d’un côté un contrôle effectif à l’encontre de tout favoritisme pour une technologie dont seules certaines entreprises pourraient se prévaloir d’un monopole ou d’une hégémonie, et d’un autre côté une logique de diminution de l’autorité publique sur les équilibres en jeu entre technologie, société et environnement. C’est à la société de se réguler toute seule, « yaka proposer » (pour reprendre les termes de Najat Vallaud-Belkacem). C’est évidemment faire fi de toutes les questions liées à la propriété des techniques (la propriété intellectuelle, entre autre), aux pouvoirs financiers qui fixent les prix et imposent à la société des modèles la plupart du temps insupportables (pour les humains comme la planète en général).

Au sommet de cette tartufferie, on retrouve notre cher président E. Macron affirmant en novembre 2024 :

« Et moi, je me fiche de savoir que l’électron qui m’aide à faire l’électrolyse pour produire de l’hydrogène vert soit un électron qui est fait à base d’éoliens offshore au Danemark, de solaire en Espagne ou de nucléaire en France. Ce que je veux, c’est que ce soit de l’hydrogène européenne compétitive décarbonée. »

Pourvu que ce soit compétitif et que cela satisfasse les accords Européens, la messe est dite. Et pour les conséquences, on repassera.

Terminal de contrôle de la centrale électrique du Fort de Mutzig (1893)

Terminal de contrôle de la centrale électrique de la forteresse Kaiser Wilhelm II (Fort de Mutzig, 1893), produite par l’entreprise Siemens-Schuckert. Ce fort rassemble une foule d’innovations de la fin du XIXe siècle mises au service de la logique de guerre (électricité, télécommunications, armement…). Photographie : Thomas Bresson , CC-By 3.0 (Wikimédia), 2010.

L’injonction néolibérale

C’est pas sans arrière-pensée que j’aborde le sujet de la neutralité technologique par le prisme des postures politiques. Habituellement, on s’interroge sur la manière dont le politique s’empare de la question après avoir analysé le cadre. Or, comme je l’ai dit, nous avons déjà la réponse : la technique n’est pas neutre, on le sait depuis Platon (cf. Le Gorgias). Ce qui est étonnant en revanche, c’est de voir comment le principe de neutralité technologique est en fait un instrument de régulation (ou de non-régulation, justement). C’est ce qui fait par exemple que la souveraineté numérique d’un pays Européen est un objectif géostratégique rendu impossible à cause de l’entrisme permanent des géants multinationaux comme Microsoft qui, au nom de cette neutralité technologique des institutions, ont réussi à imposer leurs systèmes techniques au détriment de solutions alternatives qui ne sont justement pas choisies par la décision publique, toujours au nom de cette neutralité.

C’est là que se fait la jonction. La neutralité technologique des institutions est elle-même un instrument (un sophisme dirait Socrate à Gorgias) car elle trouve sa justification sur deux plans. Le premier : laisser le marché déterminer les coûts tout en garantissant les équilibres concurrentiels sans que les enjeux sociétaux (les externalités négatives) viennent susciter un contrôle intempestif (i.e. : vous pouvez chopper des cancers, les exportations agricoles sont plus importantes que votre santé). Le second : si c’est à la société de s’auto-équilibrer en composant avec l’état du marché qui est lui-même une émanation de la société (vision simpliste du monde entrepreneurial), c’est à elle de proposer des alternatives technologiques et par conséquent toutes les techniques sont en soi neutres puisque c’est la manière dont elles sont employées qui a des conséquences, pas la manière dont elles se répartissent sur le marché.

Pour les institutions dans un monde capitaliste, il importe donc, devant toutes les innovations, de s’interroger sur leurs rentabilités et leur viabilité sur le marché avant que de s’interroger sur les valeurs que leur accorde la société. Si on voit bien que le néolibéralisme n’y accorde aucune importance, c’est justement parce que pour une telle politique, la neutralité de la technique n’est pas un sujet. Le sujet, c’est la libéralisation du marché. On considérera donc qu’une bonne politique sociale, obligée de naviguer dans ce même cadre néolibéral, aura tout intérêt à se soucier de ces valeurs, de la manière dont les technologies sont reçues et incorporées dans la société, afin que les institutions puissent apporter des réponses, des recours (i.e. soigner les cancéreux atteints par la pollution agricole, par exemple). Or, dans la mesure où, comme nous l’avons vu, une politique technologique ne peut ni ne doit favoriser qui que ce soit (par exemple favoriser des entreprises de logiciels libres ou open source au détriment de Microsoft au nom de la concurrence), elle ne peut pas émettre d’avis en faveur d’une technologie ou d’une autre, sauf si cela entre dans une stratégie économique donnée (une orientation générale industrielle, par exemple). Et si une bonne politique sociale ne peut pas changer les institutions du néolibéralisme, elle ne peut que se réfugier derrière la neutralité de la technique et émettre une bonne vieille réponse de normand : c’est à la société de voir comment réceptionner les techniques, pas au politique d’imposer un cadre qui relèverait de la société et non du marché.

Et c’est pourquoi on retrouve un Mitterrand expliquant tranquillement en novembre 1981 que la technique est neutre, que les innovations techniques s’imposent à nous et que c’est une question de maîtrise et de volonté que de faire en sorte qu’on puisse s’en arranger : en somme, il faut s’adapter (maîtriser les techniques, les introduire intelligemment…) :

« (… L)’informatique, parmi d’autres innovations majeures, aujourd’hui, est, me semble-t-il, capable de démultiplier considérablement les moyens de créer et de travailler de chacun. Cela certes, si elle était mal maîtrisée, si elle ne s’inscrivait pas dans un projet d’ensemble, l’informatique pourrait n’être, comme tant d’autres sciences et techniques, qu’une agression supplémentaire des individus, la source d’une aggravation de l’insécurité et du chômage, des inégalités, des oppressions. Elle pourrait conduire à une solitude croissante de l’homme, abandonné à un face à face tragique avec des objets de plus en plus sophistiqués, de plus en plus capables de raisonner et de communiquer entre eux.
Mais, au contraire, si elle est introduite intelligemment, dans le contexte d’un projet global de société, elle pourra transformer la nature du travail, créer des emplois, favoriser la décentralisation, la démocratisation des institutions, donner au commerce, au travail de bureau, à la poste, à la banque, aux entreprises petites et moyennes, des outils efficaces pour se développer. Enfin, et peut-être et surtout, elle apportera à la santé des hommes, à leur formation, à leur culture des moyens sans comparaison avec ceux dont ils disposent maintenant pour s’exprimer, leur permettant de multiplier, à un échelon considérable, leurs moyens d’apprendre, de créer et de communiquer. »

C’est ce genre de réflexion qui eut des conséquences tout à fait concrètes dans la société française. Par exemple : le plan Informatique Pour Tous lancé en 1985. Avant de devenir l’échec que l’on connaît, il eu un intérêt certain pour les élèves (dont moi) qui en ont bénéficié et qui ont pu se frotter à l’informatique et à la programmation très tôt. Mais, au fond, ce Plan ne disait pas autre chose que c’est à chacun de s’adapter à l’informatisation de la société, une « Révolution » qui n’est autre que la révolution des entreprises qui se lançaient toutes dans la grande aventure de l’optimisation de la production grâce à l’économie des données informatiques (c’est ce que j’ai montré dans mon bouquin). Message reçu par les enfants : l’informatique change le monde, si vous ne vous y mettez pas, c’est le chômage qui vous guette. Injonction néolibérale par excellence.

Le néolibéralisme a mit un demi-siècle pour imposer au monde ses principes. Alors que le libéralisme pensait à un « homme économique », le néolibéralisme pense l’homme en situation de concurrence permanente, c’est un humain « entrepreneur de lui-même », un mélange de volontarisme individuel et d’abdication des valeurs collectives et de commun. M. Foucault l’analysait ainsi dès 1979 : « Il s’agit de démultiplier le modèle économique, le modèle offre et demande, le modèle investissement-coût-profit, pour en faire un modèle des rapports sociaux, un modèle de l’existence même, une forme de rapport de l’individu à lui-même, au temps, à son entourage, à l’avenir, au groupe, à la famille. » (Foucault 2004, p. 247)

Dans nos subjectivités à tout instant l’injonction néolibérale résonne. C’est l’objet du livre de Barbara Stiegler (Stiegler 2019) qui résume la conception de Walter Lippmann, selon laquelle l’homme est incapable de s’adapter par nature à un état du monde qui s’impose et ne négocie pas (l’état économique industriel et productiviste du monde) et que c’est à l’État d’impulser la transformation de l’humain par l’éducation ou l’hygiénisme. Il en résulte cette injonction permanente, soit par des techniques comme le nudge et le jeu de l’influence-surveillance des individus, soit par l’autorité parfois brutale qui nous soumet aux dogmes néolibéraux.

Pour le discours politique de la « neutralité technologique », les innovations sont inéluctables, peu importe qui les produit et pourquoi. Que les plateformes aient créé un capitalisme de surveillance qui produit de la haute rentabilité sur la marchandisation de nos intimités numériques est un sujet qui n’est finalement pas interrogé par la décision publique sauf sur un mode réactif après moult plaidoyers et recours juridiques. Il faut s’y faire, c’est tout, parce que c’est ainsi que fonctionne l’économie numérique. On ira faire des courbettes à Zuckerberg et Musk pour leur demander de bien vouloir respecter le RGPD et verser quelques miettes pour toute indemnité.

C’est ce qui défini le « progrès technologique » : dans le cadre néolibéral, l’émergence des innovations et leur rôle dans la sphère économique sont conçus par le politique, de droite comme de gauche, comme une logique de marché à laquelle la société doit s’adapter. En matière d’économie numérique, par exemple, on sort de l’équation toute idée d’autogouvernance (pour ne pas dire autogestion) des outils numériques, ainsi que toute possibilité de réflexion collective qui irait à l’encontre des logiques de marché au profit des valeurs de justice ou de bien-être portées dans la société.

Dans un livre co-écrit par l’ex-syndicaliste (viré bien à droite dans ses vieux jours) Jacques Juillard et le philosophe Jean-Claude Michéa, les deux auteurs s’échangent des lettres (Michéa, Julliard 2018). Pour le premier, « Le progrès technique est axiologiquement neutre, (…) et le mauvais usage qui en a été fait par le capitalisme sous sa forme sauvage et prédatrice ne le condamne pas ». Dans sa lettre-réponse, le second lui rétorque, à raison, de prendre en compte niveau de complexité d’un système technique et d’interroger l’« usage émancipateur et humainement positif » des innovations. J.-C. Michéa souligne : « Or à partir du moment où l’accumulation du capital (…) ne repose pas sur la production de valeurs d’usage mais uniquement sur celle de valeurs d’échange (…), il est inévitable que le système libéral en vienne peu à peu à soumettre le pouvoir d’inventer lui-même au seuls impératifs de la rentabilité à tout prix. »

Se demander si les techniques sont émancipatrices et en faire un principe d’action et de décision, c’est éclater le carcan néolibéral dans lequel le politique s’est fourvoyé depuis tant d’années.

Un contrôle autoritaire

Mais il y a d’autres choix. Avant d’engager plus loin la réflexion, arrêtons-nous un instant sur les libertariens comme Peter Thiel (on se pincera le nez). Si nous nous interrogeons sur les « usages émancipateurs » des techniques, c’est que la conjoncture actuelle n’y est pas favorable. Une autre solution pourrait donc, comme le fait P. Thiel, consister à comparer les périodes et regretter que le rythme des innovations et de leur imprégnations dans la société soit fortement ralenti ces dernières années (Thiel 2025).

Une analyse économique pourrait nous montrer qu’il en va ainsi des cycles des innovations. Par exemple l’informatisation de la société a atteint un point d’inflexion, un ralentissement de croissance, une phase asymptotique où, bien que des nouveautés apparaissent, leur diffusion ne joue pas un grand rôle dans l’économie globale. Par exemple l’arrivée des IA génératives fait certes beaucoup parler, mais les équilibres économiques ne changent guère si ce n’est du point de vue des valeurs spéculatives (les « gros » restent les mêmes) créant une bulle technologique en manque de rentabilité. En pratique, si de nouveaux usages apparaissent, on est encore loin du bouleversement structurel de l’informatique d’entreprise des années 1970 ou de l’arrivée d’Internet dans les foyers. N’ayant pas de boule de cristal, je suppose qu’il est possible qu’un renversement se produise, néanmoins, pour l’instant, rien de semblable et on se préoccupe plutôt d’une économie de guerre, ce qui n’est pas plus réjouissant.

Or, P. Thiel propose un autre point de vue. Selon lui, si les techniques nous opposent des risques existentiels, comme la bombe atomique, nous avons tout fait pour ralentir leurs rythmes d’innovation, de création, et de changements sociaux. La raison plus profonde, c’est que les gouvernements au pouvoir on laissé (selon le cadre néolibéral) se développer des contraintes qui, aux yeux de P. Thiel, sont bien trop importantes pour que le « progrès » technique puisse se développer correctement et « augmenter » l’humanité. Les structures institutionnelles ont satisfait les revendications sociales et la politique fait bien trop appel à l’expertise scientifique, réputée contradictoire et laissant trop de place au doute. Telles seraient les causes de ce ralentissement. Il faudrait donc sortir de ce cadre, et effectuer des choix stratégiques qui accélèrent les techniques « bénéfiques » et contrôlent celles que l’on jugerait dangereuses. Reprenant les idées du philosophe transhumaniste Nick Bostrom, P. Thiel affirme que la solution pourrait consister en…

« un gouvernement mondial efficace, avec une police extrêmement efficace, pour empêcher le développement de technologies dangereuses et forcer les gens à ne pas avoir des opinions trop diverses — car c’est cette diversité qui pousserait certains scientifiques à pousser des technologies qu’ils ne devraient pas développer. »

En somme une dictature bienveillante en faveur du transhumanisme, qui ne prendrait pas en compte l’axiologie, trop complexe pour définir une unique ligne conductrice autoritaire. En d’autres termes, débarrassons-nous de la morale et de l’éthique qui ne font que nous embrouiller. Quant à savoir qui seront les dépositaires de l’autorité : ceux qui produisent ces techniques, bien entendu, et qui prennent l’engagement que l’humanité ne tombera pas dans la catastrophe qui nous attend si nous continuons à développer les techniques de manière erratique (Slobodian 2025 ; Prévost 2024).

On voit ici que ce monde sans démocratie que voudrait nous imposer ce type de libertarien remet assez radicalement en cause la prétendue « neutralité technologique » des institutions. Il affirme d’autant moins que la technique serait neutre. C’est au contraire une position assumée que de dire que, la technique n’étant pas neutre, il nous faut une structure de gouvernement capable de la contrôler tout en contrôlant les intérêts des novateurs. Nous reviendrons plus loin sur la question du contrôle car elle implique assez directement celle des conditions de nos libertés. Toujours est-il que cet exemple de P. Thiel montre que le plus important est de définir le cadre épistémique et axiologique dans lequel on se place pour parler de la prétendue neutralité des techniques et que, justement, c’est parce que nous remettons sans cesse en jeu cette problématique que nous faisons évoluer le rapport entre technique et société. C’est là tout l’intérêt de s’interroger sur cette neutralité (depuis Platon).

Humains et machines

Extrait du film d’animation Wall-E réalisé par Andrew Stanton (Disney/Pixar), 2008.

On ressort le vieux Marx

Le premier réflexe que nous pourrions avoir face à ce qui précède, consisterait à établir une opposition stricte entre les structures de domination du capitalisme, les possédants de l’outil de production, et les autres, travailleurs, utilisateurs. Les dispositifs techniques seraient des instruments d’aliénation et non d’émancipation. De là émerge une conception économique de la situation qui voit dans le développement des technologies un horizon de libération de la condition humaine à condition de se libérer de la domination capitaliste. C’est une vision du rapport social à la technique qui s’oriente vers une certaine idée de la neutralité de la technique en tant que simple instrument : dans les mains des capitalistes (ou des libertariens aujourd’hui) la technique est un instrument de domination.

Dans ce cas, le pivot est Marx et l’épouvantail serait le luddisme. En effet, une lecture un peu rapide de Marx ferait de notre ami à barbe grise l’un des tenants de la neutralité de la technique. Que nous dit-il, après avoir raconté quelques épisodes où, dans l’Angleterre des XVIIe et XVIIIe siècles, des ouvriers privés d’emploi à cause des innovations qui automatisaient une grande partie de leurs tâches finirent par y mettre le feu ?

« Il faut du temps et de l’expérience avant que l’ouvrier apprenne à distinguer la machinerie de son utilisation capitaliste, et donc à transférer ses attaques du moyen matériel de production lui-même, à la forme sociale d’exploita­tion de celui-ci. » – (Marx 1993, p. 481)

Partant d’un certain bon sens, ce n’est évidemment pas par un acte de destruction sans revendication claire qu’on gagne une cause… Rien ne nous dit non plus que ces ouvriers des siècles passés n’avaient pas de revendication autre que celle de retrouver leur emploi. Mais c’est aussi la thèse de Marx que de montrer que ces révoltes sont un préalable à un mouvement ouvrier de prise de conscience de sa propre classe (et pour certains historiens aussi, c’est un peu ce que montre E. P. Thompson, dans La formation de la classe ouvrière anglaise). Cependant, à partir de cette citation, on conclu généralement que selon Marx, les machines et plus généralement les techniques de production sont neutres, elles ne seraient que des instruments qui, dans certaines mains seraient des instruments de domination, dans d’autres, seraient des instruments de libération de classe.

En réalité, Marx adopte une approche articulée autour de deux aspects. Le premier consiste en une analyse des rapports sociaux, qu’il considère comme fondamentalement différents selon qu’il s’agit de l’usage d’un simple instrument ou de celui d’une machine, un dispositif technique élémentaire ou une technologie plus complexe : « Dans la manufacture et le métier, l’ouvrier se sert de son outil ; dans la fabrique il sert la machine » (Marx 1993, p. 474). C’est-à-dire que la machine non seulement inverse le rapport de l’ouvrier à l’outil de production (il sert la machine), mais en plus elle modifie la structure même du modèle économique de la production (l’atelier devient la fabrique). Sur un second aspect, Marx nous dit aussi : « Les rapports sociaux sont intimement liés aux forces productives. En acquérant de nouvelles forces productives, les hommes changent leur mode de production, et en changeant le mode de production, la manière de gagner leur vie, ils changent tous leurs rapports sociaux. Le moulin à bras vous donnera la société avec le suzerain ; le moulin à vapeur, la société avec le capitaliste industriel » (Marx 2019, chap. 2). Il y aurait donc un certain déterminisme technique qui influe sur les conditions historiques d’émergence du capitalisme et avec lui toute une culture technique. Si les conditions sociales changent avec le capitalisme, c’est parce que celui-ci procède d’un auto-engendrement : il modifie et « révolutionne » les structures (et le progrès technique est un facteur déterminant) pour pouvoir s’installer. L’innovation technique qui a lieu « dans » le capitalisme est capitaliste, elle est là pour satisfaire ses exigences de productivité et de rentabilité. Pire encore, pour Marx, le développement technologique du capital a pour conséquence (et réciproquement) que le gain de productivité doit s’accomplir dans une dynamique toujours plus rapide (par exemple éviter que le stockage ne soit un manque à gagner sur la vente des produits) ce qui impose une exigence de rentabilité où l’ouvrier est englouti par la machinerie et le capital devient son propre « sujet automate » (Marx 2011, pp. 652-653).

Comme je l’ai dit plus haut, nous savons que la technique n’est pas neutre, et il n’y a aucune raison pour que Marx puisse défendre un autre point de vue sur cette question précise. En revanche, Marx est aussi l’héritier d’une conception civilisationnelle du progrès technique, héritée des Lumières, même s’il s’en montre critique. Il reconnaît ainsi au capital une force destructive qui cesse d’être productive uniquement « lorsque le développement de ces forces productives elles-mêmes rencontre un obstacle, dans le capital lui-même » (Marx 2011, p. 286). Et c’est bien là le reproche qu’on pourrait lui faire, à savoir que la critique de la technique ne s’élabore qu’au regard du développement du capitalisme et dans l’attente d’une révolution prolétariennne, une attente d’où les luddites ne sont jamais sortis. En ce sens (et uniquement : n’allez pas me faire dire ce que je ne dis pas) la conception de Marx et celle de P. Thiel aujourd’hui se rejoignent sur un point : les tergiversations de la société quant à son aliénation par la technique ont tendance à péricliter. Pour l’un la sortie est une révolution de la base, pour l’autre c’est une révolution par le haut, dans les deux cas, un accaparement des techniques-moyen de production, soit par les prolétaires en créant un État autoritaire de transition (et on aura assez reproché, à raison, cette conception marxiste), soit par les bourgeois en créant un État autoritaire… pour toujours. L’enjeu est toujours le même : le contrôle du système technicien.

Capture d'écran de la vidéo YouTube de l'INA sur Pierre Dac

Intervention lors du dernier séminaire d’expression scientifique d’avant-garde : le Biglotron. Par Pierre Dac, 1965. Archives INA

Technique moderne et déterminisme

Il faut donc changer de braquet. Le problème est le mode formel du capitalisme duquel il faut sortir en opposant une axiologie et un principe de vie. L’analyse économique seule ne peut pas nous aider davantage.

Si on pense la technique en termes instrumentariens, et que le capitalisme est le cadre auto-reproductif de notre rapport à la technologie, alors, que nous soyons conscients ou pas de nos classes sociales, nos rapports sociaux sont déterminés par la dynamique des innovations. Sortir de ce déterminisme suppose une révolution. Cependant, bien qu’assez longtemps après Marx, il a été largement démontré que l’électronicisation de la société, c’est-à-dire l’apparition des micro-conducteurs puis l’informatisation à tous les échelons du travail et du quotidien, impose dans nos vies la logique formelle du capitalisme. Le travail s’est de plus en plus taylorisé pour devenir un ensemble de traitements séquentiels (si le métier ne s’y prête pas, on aura tout de même des indicateurs de mesure, des systèmes d’évaluation pour rendre calculable ce qui ne l’est pas) et avec la surveillance, nos vies intimes ont intégré la sphère marchande grâce à l’extractivisme des plateformes et l’exploitation des données de profilage comportemental.

Cela implique un raisonnement plus ontologique. On peut le trouver chez Martin Heidegger qui, dans les années 1950, anticipait avec assez de clairvoyance le changement technique et proposait le terme d’arraisonnement pour décrire la manière dont, par la technique, se dévoile un mode où l’être n’est plus conçu que comme quelque chose d’exploitable (Heidegger 1958). Pour lui, la technique moderne n’est plus l’art, mais un rapport paradoxal. Elle résulte d’une volonté qui soumet l’homme à son propre destin technologique. Devenu lui-même un être technique, l’homme instrumentalise et « arraisonne » le monde, le réduisant à une simple ressource, incapable de le percevoir autrement. Par la suite, les Guy Debord ou Jacques Ellul ont en réalité cherché à montrer que l’homme pouvait encore échapper à ce destin funeste en prenant conscience ici de la prégnance de l’idéologie capitaliste et là d’une autonomie de la technique (hors de l’homme). Cependant, on ne peut s’empêcher de penser que l’extraction de données à partir de la vie privée comme à partir des performance individuelles dans le travail taylorisé est bien une forme d’arraisonnement poussé à l’extrême, sur l’homme lui même, désormais objet de la technique.

Le discours du déterminisme technologique qui implique que la société doit s’adapter à la technique prend une dimension tout à fait nouvelle dans le contexte de l’informatisation de la société. À travers l’histoire de la « Révolution Informatique », ce cauchemar heideggerien est né d’un discours aliénant, où l’ordinateur devient l’artefact central, et contre lequel la simple accusation d’aliénation technologique n’est plus suffisante pour se prémunir des dangers potentiels de cette désormais profonde acculturation informatique. Les combats pour la vie privée, loin d’être technophobes, sont autant de manifestations de l’inquiétude de l’homme à ne pouvoir se réapproprier la logique technicienne.

Dans ce contexte, voilà qu’arrive une autre idée encore de la neutralité de la technique : la technique ne serait que l’application de nos connaissances scientifiques. Elle n’aurait aucune sociologie propre (des gens comme Bruno Latour auraient travaillé pour rien). Cela implique des visions simplistes de « la » science et de « la » technique : la science nous dit le réel, la technique est l’application de la science, donc la technique est une nécessité par laquelle nous agissons sur le monde et le comprenons. Et comme la science ne serait que l’explication des chaînes de causalité du réel, alors la technique nous détermine comme une partie des chaînes causales (notre action sur le monde) : nous n’avons pas le choix, nous devons changer le monde ou nous y adapter ou nous mourrons (il faut bien nourrir nos datacenter avec de l’eau, tout est une question de choix). Si on s’en tient à ce formalisme, on rejoint ce que disait Detlef Hartmann (Hartmann 1981) à propos du capitalisme : le capitalisme nous rêve sur un mode formel (si… alors… et/ou). Pour reprendre les parenthèses de la phrase précédente, cela veut dire que nous devons croire en la technique : si nous avons besoin des datacenter pour vivre dans un monde numérisé qui nous apporte tout le confort nécessaire ( !), alors nous avons besoin de beaucoup d’eau pour refroidir nos data center, quitte à pomper dans les nappes et priver les terres agricoles… mais pas d’inquiétude, tout se fera toujours à l’équilibre car nous savons ce que nous faisons, nous maîtrisons les techniques. On pourrait construire la même logique pour tout, l’essentiel serait de s’en remettre à ceux qui maîtrisent les techniques : ce n’est ni un choix politique ni un choix moral, c’est neutre, et nous y sommes poussés par la nécessité technique.

Si on ne pense qu’avec des machines et dans la mesure où tout ce qu’on donne à une machine et tout ce qu’on attend d’elle est une somme d’informations computables, le résultat sera uniquement un résultat quantitatif. D’un autre côté, ce qui est incomputable n’est pas pour autant non-déterminé. Pour s’en sortir, la théorie algorithmique de l’information (voir notamment les travaux de Kolmogorov) montre que la complexité d’un objet dépend de la taille de l’algorithme qui rend possible cet objet. Par exemple la sélection naturelle ne suppose pas une nécessité absolue de chaque forme (un déterminisme causal absolu), mais un jeu de contraintes. Ce jeu de contrainte peut être décrit de manière algorithmique mais cette description serait d’une longueur telle qu’elle relève d’un niveau de complexité inatteignable. Mais cela ne signifie pas qu’il ne sera jamais atteignable (ça, c’est pour les positivistes optimistes). Il y aurait donc du déterminisme partout, tout le temps ? Dans le déterminisme classique, l’action est expliquée comme l’effet d’une chaîne causale mécanique. L’homme agit parce qu’il y est poussé par des causes antérieures, comme une bille roule parce qu’on l’a poussée. Il y a cependant une autre manière de voir les choses : le déterminisme n’est pas une limitation de notre liberté ou de notre créativité, mais un ordre immanent au réel. Les sciences cherchent à découvrir ce déterminisme, ses causalités, mais on sait, contrairement à ce que soutenait Spinoza, que tout n’est pas déterminé (que dit la théorie quantique sur l’imprédictibilité ?). Pour autant, la spontanéité dans le processus créatif n’est pas une négation du déterminisme, mais un phénomène émergent dans un système trop complexe pour être calculé (à l’échelle macroscopique, quelles longueurs d’algorithmes faut-il pour décrire le monde ? l’arrivée des nouvelles IA aujourd’hui pourrait nous surprendre)1.

Une posture démiurgique considérerait que la liberté humaine influence le réel et son déterminisme immanent. C’est la posture de Peter Thiel : les sciences se contredisent trop et distillent trop de doutes, il nous faut une science uniforme dont la technique serait l’application pure, et cette conception performative de la connaissance (au besoin sous la coupe d’un pouvoir autoritaire) permettrait de redynamiser la croissance technicienne. Sauf qu’il y a des lois causales immanentes au réel, sur lesquelles la liberté humaine ne peut rien : les sciences explorent le réel mais ne l’engendrent pas. Cette impuissance est souvent vue comme une contrainte à laquelle nous devrions nous adapter (néolibéralisme) ou contre laquelle nous devrions lutter (libertariannisme néo-fascisant).

En fait, il y a au moins deux niveaux de nécessité : celle du réel et celle des valeurs. La nécessité axiologique selon laquelle nous exerçons notre liberté est celle qui répond, par exemple, aux exigences de justice. C’est une nécessité parce que ce n’est pas un monde d’où les causes sont absentes, au contraire, il s’agit d’un ensemble de causes que nous classons et arrangeons en fonction de leurs valeurs. Il n’y a pas d’un côté un déterminisme mécanique et de l’autre la contingence de nos sociétés, mais il y a le plan des valeurs. Et ce plan n’échappe pas pour autant à la connaissance scientifique (voir par exemple la longue introduction épistémologique de Bernard Lahire dans Les structures fondamentales des sociétés humaines). Nous n’agissons donc pas malgré le réel ou contre lui, mais dans un monde emprunt de causalités et à un autre niveau de nécessité. Soulignons en passant qu’une autre tendance radicale consiste à faire passer l’axiologique au rang de principe premier qui transcende toutes les causalités, je veux parler de la plaie de la religion qui amène invariablement à une lutte de pouvoir sur le contrôle des techniques et à empêcher tout rapport rationnel entre éthique et technique2. Je ne m’étendrai pas davantage sur le sujet, ce texte est déjà assez long.

Une approche non-réactionnaire

Dans d’autres textes, j’ai eu l’occasion de me rapporter à la pensée de Detlef Hartmann. Selon lui, dans le monde capitaliste, la technologie exerce une violence. Elle échoue à transformer en logique formelle ce qui échappe par essence au contrôle formel (l’intuition, le savoir-être, le pressentiment, etc.). Dès lors, d’après D. Hartmannn, l’application d’une logique formelle aux comportements est toujours une violence car elle vise à restreindre la liberté d’action, mais aussi l’imagination, la prise de conscience que d’autres possibilités sont envisageables. Pour moi, cette approche a au moins un avantage, celui de mettre fin à l’idée d’une « force » ou d’une « intelligence » technique qui produirait une conscience de classe qui se retournerait contre le capital. C’était la thèse de Rudolf Bahro qui cherchait une alternative concrète au communisme dont il critiquait l’appareillage (technique lui aussi) d’État écrasant. Il s’agissait de croire que l’intelligence technologique (le progrès, les sciences, l’éducation) pouvait permettre de se libérer des mécanismes de domination et permettre aux groupes (autogestionaires) de prendre le contrôle de tous les processus de décision. Or, l’autogestion appliquée à l’échelle d’un État, même si elle se compose de multiples autogestions locales, finit par devenir une sorte de mégamachine centralisée. En réalité, l’autogestion authentique est celle qui fédère les initiatives tout en offrant la plus grande diversité possible d’alternatives. En somme, c’est celle qui préserve et nourrit un imaginaire libre et foisonnant. C’est ce que D. Hartmannn appelle un principe vital, un principe qui échappe au contrôle formel du capital comme à tout pouvoir centralisé.

Même si D. Hartmann n’est pas un penseur anarchiste, il y a tout de même quelque chose d’intéressant là-dedans. Cependant, les anarchistes « classiques » sont bien souvent tombés dans le piège positiviste qui perçoit la technologie comme intrinsèquement positive. C’est vieux comme les écrits de Proudhon, bercés par le positivisme de Comte bien qu’il s’en montrait extrêmement critique du point de vue de sa sociologie dont il disait qu’elle ne faisait que substituer la sociabilité à l’individualisme et faisait disparaître le droit. Chez Proudhon, avec la critique de la division technique du travail, qui serait le reflet de la division sociale, il y a aussi l’opposition entre l’état de nature et l’état social, où l’homme est par la technique en perpétuelle recherche d’augmentation de sa puissance d’agir. Si Proudhon se montre critique vis-à-vis de la technique, c’est pourtant par l’apprentissage polytechnique que passe l’émancipation du travailleur. La pensée de Proudhon ne permet pas (pas encore) de penser le système technicien dans ce qu’il pourrait avoir d’aliénant en dehors de la productivité.

Cherchons encore. Un penseur comme Murray Bookchin a très tôt dans ses écrits considéré la technique comme un instrument de domination : c’est dans la mesure où la technique est assimilée à un instrument de production qu’elle est instrument de domination. Il ne peut alors y avoir de porte de sortie qu’à partir du moment où l’on prend en compte que cette domination représente en fait les deux faces d’une même pièce : l’extractivisme capitaliste sur l’homme et l’instrument qui déséquilibre et la société et la nature.

Il ne faut pas dénoncer à la légère l’attitude schizoïde du public à l’égard de la technologie, attitude qui associe la terreur et l’espoir. Elle exprime en effet instinctivement une vérité fondamentale : cette même technologie, qui pourrait libérer l’être humain dans une société organisée en vue de satisfaire ses besoins, ne peut que le détruire dans une société visant uniquement « la production pour la production ». Il est bien certain que l’ambivalence manichéenne imputée à la technologie n’est pas un trait de la technologie comme telle. La capacité de créer et celle de détruire que recèle la technologie moderne ne sont que les deux faces de la dialectique sociale, le reflet de la positivité et de la négativité de la société hiérarchique. S’il y a quelque vérité à soutenir, comme Marx, que la société hiérarchique fut « historiquement nécessaire » afin de « dominer » la nature, on ne doit pas oublier pour autant que cette notion de « domination de la nature » est elle-même issue de la domination de l’humain par l’humain. L’être humain et la nature ont toujours été associés en tant que victimes de la société hiérarchique. Que l’un comme l’autre soient aujourd’hui menacés d’un cataclysme écologique est la preuve que les instruments de production ont fini par devenir trop puissants pour servir d’instruments de domination. – (Bookchin 2016, p. 32)

Ce qui est important pour M. Bookchin, c’est le mode d’organisation sociale qui contrôle les moyens de production et plus largement la technique. L’émancipation s’appuie donc sur la technique. Pour autant, n’est-ce pas un point de vue trop idéaliste qui revient à promouvoir une croyance dans une « bonne » intelligence technique ? Car après tout, le problème est là : si nous rejetons la thèse de la neutralité de la technique, c’est parce qu’elle n’envisage à aucun moment la manière dont la technique reconfigure sans cesse les rapports entre les humains entre eux et avec leur environnement. Mais envisager une « bonne » intelligence technique contre une « mauvaise » revient à se précipiter tout aussi bien dans une impasse.

C’est le choix des anarcho-primitivistes, du moins ceux qui se réclament d’une posture aussi radicale que John Zerzan, par exemple. La lecture civilisationnelle qu’ils ont de la technique revient à la réduire à une question de besoin et d’adéquation comportementale. Avec une certaine lecture de l’anthropologie, on peut effectivement prétendre assimiler le « progrès » technique à un productivisme aliénant et redéfinir l’abondance comme une simple adéquation à des besoins limités, plus ou moins fantasmée à partir de ce que l’on sait effectivement des sociétés de chasseurs-cueilleur d’autrefois (et l’archéologie récente a fait des découvertes qui remettent largement en cause ces conceptions certes utopistes mais faussées). S’opposer à cela ne réduit pas à savoir si on veut revenir à l’âge de pierre ou à la bougie. Ce serait réduire le débat. Il s’agit de savoir ce qui distingue le radicalisme d’une posture purement réactionnaire qui revient finalement à faire de la technique une émanation en soi négative sans en considérer les conditions d’existence mais en vouant une haine à des pseudo-représentants du monde économique ou politique. Une chasse aux sorcières dont le but est avant tout moral que réellement constructif. On retrouve aujourd’hui même des résurgences de ce type dans des globiboulgas malfaisants comme le montrait récemment le groupe Technopolice.

Le refus catégorique d’une ou plusieurs technologies représente une impasse conceptuelle et pratique, car toute technique s’inscrit dans un processus cumulatif d’innovations successives et dans un réseau de systèmes techniques dont certains point de convergence peuvent être fort éloignés les uns des autres. Prenez par exemple la physique nucléaire et la médecine et voyez-en le développement en ingénierie d’imagerie ou de génétique. L’histoire des sciences et des techniques montre que les avancées techniques ne sont jamais isolées, mais s’insèrent dans des chaînes complexes de savoirs et d’applications. Par exemple, l’intelligence artificielle regroupe un ensemble très diversifié de technologies — apprentissage automatique, réseaux neuronaux, traitement du langage naturel — qui interagissent et évoluent continuellement depuis… 50 ans. Ainsi, un rejet global de l’IA comme phénomène homogène est conceptuellement inexact et socialement problématique.

La solution n’est pas dans le rejet mais dans le questionnement. Plus haut, je faisais référence au machinisme. On peut se demander effectivement comment l’introduction de l’automatisation dans la fabrique redéfini le rapport de l’ouvrier au travail et en conclure une dépossession, une prolétarisation. Mais en augmentant la productivité, l’automatisation — par exemple la robotique — redéfini assez radicalement ce qu’est le travail en soi. Sur ce point, dans La baleine et le réacteur, Langdon Winner a proposé l’idée de « somnambulisme technologique » pour décrire comment les sociétés adoptent de vastes transformations technologiques sans en examiner les implications profondes3. L. Winner argumente que le développement technologique est un processus de construction du monde, où en modifiant les choses matérielles, nous nous changeons nous-mêmes. La question centrale n’est pas seulement « comment les choses fonctionnent », mais « quel genre de monde sommes-nous en train de créer ? » Les technologies ne sont pas de simples aides, mais de puissantes forces qui remodèlent l’activité humaine et sa signification. Elles structurent notre quotidien, créant de nouvelles « formes de vie ».

À mesure que les technologies sont développées et mises en œuvre, des changements importants dans les modes d’activité humaine et les institutions humaines sont déjà en cours. De nouveaux mondes sont en train de voir le jour. Ce phénomène n’a rien de « secondaire ». Il s’agit en fait de la réalisation la plus importante de toute nouvelle technologie. La construction d’un système technique qui implique les êtres humains comme éléments opérationnels entraîne une reconstruction des rôles et des relations sociales. Cela résulte souvent des exigences de fonctionnement du nouveau système : celui-ci ne peut tout simplement pas fonctionner si le comportement humain ne s’adapte pas à sa forme et à son processus. Ainsi, le simple fait d’utiliser les machines, les techniques et les systèmes à notre disposition génère des modèles d’activités et des attentes qui deviennent rapidement une « seconde nature ». Nous « utilisons » effectivement les téléphones, les automobiles, l’éclairage électrique et les ordinateurs au sens conventionnel du terme, c’est-à-dire en les prenant et en les reposant. Mais notre monde devient rapidement un monde dans lequel la téléphonie, l’automobilité, l’éclairage électrique et l’informatique sont des formes de vie au sens le plus fort du terme : la vie serait difficilement concevable sans eux. – (Winner 2020, chap. 1)

Un peu comme Jacques Ellul, nous devrions non plus tellement nous interroger sur les techniques elles-mêmes mais sur le système technicien. Pour J. Ellul la technique est déterminante dans les transformations sociales même si tout fait social ne se détermine pas par la technique. Mais ce qui alarmait J. Ellul, c’est que la technicisation de la société est un mouvement apparemment inéluctable, et la technologie moderne adopte une logique autonome, engendre son propre principe de perpétuation et d’accroissement au détriment de l’axiologie. C’est le somnambulisme auquel fait référence L. Winner et c’est en même temps la situation avec laquelle nous devons perpétuellement nous arranger : d’un côté les critiques à l’encontre des innovations sont souvent perçues comme des discours anti-technologiques voire anti-sociaux, d’un autre côté l’innovation s’inscrit dans un contexte politico-économique dont il ne serait que très difficile de sortir (le capitalisme, le néolibéralisme) sans une révolution. Dans les deux cas, nous ne sortirons pas de notre condition d’êtres appartenant à un système technicien.

Pour terminer cette section sur un exemple clivant actuellement : devons-nous adopter les IA génératives (IAg) dans nos pratiques quotidiennes ? On pourra toujours accuser les firmes qui produisent les services d’IAg de satisfaire le modèle oppressif du capitalisme de plateformes. La question ne devrait pas être posée en ces termes (pour ou contre l’IAg ?). La question est de savoir ce qui a fait que dans le développent du système technicien nous soyons arrivés à ces inventions, pourquoi se sont-elles si rapidement intégrées dans les pratiques et qu’est-ce que cela produit comme changements sociaux, quelles « formes de vie » ? On peut certes craindre, pour reprendre les mots de L. Winner, qu’« une fois de plus, on dit à ceux qui poussent la charrue qu’ils conduisent un char d’or ».

My Human Kit

Capture d’une illustration du site de l’association My Human Kit. « En utilisant la force combinée de la solidarité, du fait maison et de la fabrication numérique, My Human Kit démontre que la diversité et l’intelligence collective sont essentielles à une société inclusive. ». myhumankit.org

Pour une politique anarchiste des techniques

Cela ne nous dit toujours rien des principes que nous devrions adopter. Cela ne dit rien non plus sur ce qu’il faudrait sacrifier en adoptant quels principes que ce soit. Le développement technologique est un processus cumulatif qui incorpore les relations sociales dans la réalité matérielle. À chaque point d’inflexion, il faut reposer la question, sans cesse ! Je terminerai alors sur ce point : il faudra toujours tenter d’échapper aux logiques de pouvoir qui se servent des techniques pour arriver à leurs fin dans la situation de choix politique qui s’avance devant nous.

Nous vivons un instant clé où le changement climatique, l’effondrement écologique et la crise démocratique font que le capitalisme atteint une aporie. Si P. Thiel nous parle de la fin des temps (et il n’est pas le seul) c’est bien parce que ce genre de libertarien voudrait s’assurer d’être du « bon » côté des inégalités qui s’annoncent à une échelle mondiale, avec les guerres qui s’ensuivront. Pourra-t-on l’éviter ? je n’en sais rien. Mais il est toujours possible de s’interroger sur l’ordre social que nous pourrions établir dans le but, justement, de limiter les effets des erreurs passées et envisager l’avenir de manière plus sereine.

Si nous souhaitons conserver le système actuel, la manière dont nous produisons nos technologies ne peut qu’être centralisée autour de structures d’État, plus ou moins au service des groupes d’intérêts. Cette centralisation a du bon car elle permet de faire des choix politiques au nom d’une neutralité technologique du pouvoir : les technologies militaires ont besoin d’un contrôle hiérarchique, le marché de l’énergie a besoin d’être compétitif au prix des inégalités, les biotechnologies doivent pouvoir rendre l’agriculture toujours plus rentable, etc.

Si en revanche nous prenons conscience que nous ne pouvons continuer à croître indéfiniment dans un monde fini, que ce fait s’impose à nous ou que nous anticipions tant qu’il est encore possible de le faire, c’est d’une décentralisation des institutions et de la production de technologies dont nous avons besoin. Je reprends alors à mon compte la proposition d’Uri Gordon (Gordon 2009) pour une politique anarchiste de la technologie en trois points. Chacun de ces points renvoie à une posture utopiste (mais concrète) de décision collective, démocratique, car, finalement, c’est bien la clé de l’affaire :

  1. La résistance abolitionniste : s’opposer fermement à tout système technique qui renforce la centralisation du pouvoir, détruit l’environnement ou sert principalement les intérêts des États autoritaires et des grandes entreprises. Par exemple : les technologies militaires, la surveillance, l’exploitation des énergies fossiles. Ce n’est pas du primitivisme ou du luddisme, c’est « reconnaître que certaines formes d’abolitionnisme technologique sont essentielles à la politique anarchiste ». C’est un principe d’action qui cherche à identifier et contester les technologies qui, loin d’améliorer la vie collective, aggravent les inégalités et menacent les plus vulnérables en consolidant le pouvoir économique et politique d’une minorité.
  2. L’adoption désabusée : certaines technologies, comme Internet, peuvent être utilisées stratégiquement malgré leurs infrastructures bien trop centralisées (par exemple les câbles sous-marins aux enjeux géostratégiques). Du côté des utilisateurs, des alternatives existent et proposent d’une part des pratiques non capitalistes (prenons l’exemple du Fediverse), et d’autre part la création de communs en opposition frontale avec l’économie classique. De manière générale, c’est bien la création de communs dans tous les interstices où le pouvoir est faible qui permet d’utiliser des techniques de manière décentralisée. D’autres exemples existent, par exemple dans le monde agricole les semences paysannes contre les multinationales, ou encore les coopératives de réparation ou d’invention de matériels agricoles.
  3. La promotion active : il s’agit d’œuvrer en ayant conscience des limites matérielles, tout en gardant la part de subversion nécessaire à la créativité et à la réappropriation de la production. En ingénierie, il s’agit d’encourager les innovations « low-tech », la valorisation des savoirs traditionnels et de l’artisanat, le recyclage, la réparation et la reconstruction de matériel open-source, voire de redonner vie à d’anciennes technologies pour une utilisation à plus petite échelle et plus durable. Pour reprendre l’expression qu’emprunte lui-même Uri Gordon, cette approche vise une « micropolitique subversive d’autonomisation techno-sociale » pour construire des espaces alternatifs matériels et sociaux.

Ces principes doivent cependant être critiqués. La résistance aux techniques de surveillance en vue de les abolir nécessite des efforts considérables de plaidoyer si et seulement si nous nous imaginons être dans un État démocratique dont les organes sont effectivement à l’écoute des citoyens. Dans une dictature, faut-il même en parler ? On voit bien ici que ce principe est d’emblée soumis aux conditions politiques de l’usage des techniques.

Concernant les technologies militaires, pour faire simple, nous pouvons prendre l’exemple de l’armement atomique. Un contrôle hiérarchique strict est nécessaire pour encadrer l’usage : compte-tenu de l’enjeu géostratégique, nous devons nous résoudre à ce que l’usage de l’arme nucléaire soit soumis aux jeux de pouvoir en politique extérieure (la dissuasion) comme en politique intérieure (prémunir l’arrivée au pouvoir d’un parti belliqueux). L’arme nucléaire existe et ce simple fait ne peut que nous cantonner à un plaidoyer en faveur du désarmement nucléaire mondial.

Concernant l’arrivée de nouvelles technologies, l’étude de cas des IA génératives (IAg) pourrait servir d’illustration. Comme je l’ai dit plus haut, nous devons sans cesse interroger le cadre axiologique par lequel nous élaborons une critique des techniques. Quelle est la dynamique des dispositifs socio-techniques et leurs points de jonction qui font que les IAg sont apparues et aient, de manière aussi spectaculaire, intégré nos pratiques quotidiennes ? Il faudrait en faire des études et elles sont encore loin d’être rédigées. Quelques éléments nous mettent sur la voie, par exemple les positions hégémoniques des entreprises qui fournissent des services d’IAg. Parmi les trois principes ci-dessus, lequel adopter ? sans doute un mixte. Mais c’est là l’un des points critiques que de définir ex ante trois attitudes possibles : si l’on veut rester honnête, elles ne sont pas exclusives entre elles et, dans cette mesure, elles aboutissent invariablement à des positions mitigées. Mais peut-être est-ce là la leçon de l’histoire des techniques : l’ambivalence des techniques nous pousse nous-mêmes à nous positionner de manière ambivalente, en acceptant nos contradictions et pourvu qu’on puisse en débattre sans relativisme. La manière dont nous conduisons nos systèmes techniques est le reflet de notre humanité.

Notes

  1. Il y a peu de références dans ce paragraphe car il serait laborieux d’expliquer dans le détail la construction de cet argumentaire. J’ai été l’un des étudiants en philosophie à Strasbourg de Miguel Espinoza qui nous a alors expliqué (avec plus ou moins de réussite) ses travaux remarquables sur l’intelligibilité de la nature. Prolonger la discussion ici nous amènerait bien trop loin.↩︎
  2. Oui, je sais bien que la religion n’a jamais empêché la rationalité, il y a assez de textes critiques théologiques pour le démontrer. Ce n’est pas mon sujet. C’est simplement qu’il est impossible de positionner un curseur fiable entre une simple approche critique religieuse des techniques et la volonté d’influence sociale qu’imposent les religieux sur le prétexte des techniques. Un exemple au hasard : les campagnes anti-avortement. Lorsque les religieux en auront fini avec ça, je commencerai peut-être éventuellement à leur tendre une oreille distraite si j’ai du temps à perdre.↩︎
  3. Sur ce point j’ajouterai une nuance car nous sommes aussi passés maîtres dans l’art de l’évaluation des risques, mais la question du principe de précaution se pose toujours dans un mouchoir de poche, par exemple lorsque le risque est à des années lumières de l’état des connaissances.↩︎
  4. L’image d’illustration de l’en-tête de ce billet est un extrait d’une image générée par Google Gemini 2.5. Voir la FAQ de Framasoft à ce propos.

Références

BOOKCHIN, Murray, 2016. Au-delà de la rareté : l’anarchisme dans une société d’abondance. Montréal Québec, Canada : Éditions Écosociété. ISBN 978-2-89719-239-6.

FOUCAULT, Michel, 2004. Naissance de la biopolitique : cours au Collège de France, 1978-1979. Paris, France : EHESS : Gallimard : Seuil. ISBN 978-2-02-032401-4.

GORDON, Uri, 2009. Anarchism and The Politics of Technology. WorkingUSA [en ligne]. 5/1/2009. Vol. 12, n° 3, pp. 489‑503. [Consulté le 27/7/2025]. DOI 10.1163/17434580-01203010. Disponible à l’adresse : https://brill.com/view/journals/wusa/12/3/article-p489_10.xml

HARTMANN, Detlef, 1981. Die Alternative : Leben als Sabotage. Iva-Verlag Polke. Tübingen.

HEIDEGGER, Martin, 1958. La question de la technique. In : Essais et Conférences. Paris : Gallimard. pp. 9‑48.

MARX, Karl, 1993. Le Capital. Critique de l’économie politique. Livre premier. Paris : PUF. Quadrige.

MARX, Karl, 2011. Manuscrits de 1857-1858 dits « Grundrisse ». Paris : Éditions sociales.

MARX, Karl, 2019. Misère de la philosophie. Paris : Payot.

MICHÉA, Jean-Claude et JULLIARD, Jacques, 2018. La Gauche et le peuple : lettres croisées. Paris, France : Flammarion.

PRÉVOST, Thibault, 2024. Les prophètes de l’IA : pourquoi la Silicon Valley nous vend l’apocalypse. Montréal, Canada : Lux Éditeur. ISBN 978-2-89833-161-9.

SLOBODIAN, Quinn, 2025. Le capitalisme de l’apocalypse : ou le rêve d’un monde sans démocratie. Paris, France : Éditions du Seuil. ISBN 978-2-02-145140-5.

STIEGLER, Barbara, 2019. « Il faut s’adapter » : sur un nouvel impératif politique. Paris, France : Gallimard. ISBN 978-2-07-275749-5.

THIEL, Peter, 2025. Peter Thiel et la fin des temps (parties 1 et 2) [en ligne]. [Le Grand Continent]. 20/4/2025. [Consulté le 26/4/2025]. Disponible à l’adresse : https://legrandcontinent.eu/fr/2025/04/20/peter-thiel-apocalypse-1/

WINNER, Langdon, 2020. The Whale and the Reactor. A Search for Limits in an Age of High Technology. Chicago : University of Chicago Press.

  • ✇Intelligence Artificielle – Framablog
  • FramIActu – Le bilan après six mois de veille
    Peut-être l’attendiez-vous impatiemment, et pourtant, la FramIActu de juillet n’a pas vu le jour.Nous l’annoncions à demi-mot en juin : nous ne publierons plus la FramIActu sur un rythme mensuel. Les raisons à cela sont multiples et c’est pourquoi nous vous proposons un article « bilan », qui fait le point sur des mois (voire des années) de veille sur l’intelligence artificielle.   Différents termes techniques liés au champ de recherche de l’Intelligence Artificielle ont été utilisés dans cet

FramIActu – Le bilan après six mois de veille

Peut-être l’attendiez-vous impatiemment, et pourtant, la FramIActu de juillet n’a pas vu le jour.
Nous l’annoncions à demi-mot en juin : nous ne publierons plus la FramIActu sur un rythme mensuel. Les raisons à cela sont multiples et c’est pourquoi nous vous proposons un article « bilan », qui fait le point sur des mois (voire des années) de veille sur l’intelligence artificielle.

 

Différents termes techniques liés au champ de recherche de l’Intelligence Artificielle ont été utilisés dans cet article.
Si certains termes vous échappent, nous vous invitons à consulter le site FramamIA où nous avons cherché à expliquer la plupart d’entre eux.

Les évolutions techniques des derniers mois

De meilleures performances

Au cours des derniers mois, les entreprises et start-ups du domaine n’ont cessé d’améliorer les grands modèles de langage (LLMs) et autres systèmes d’IA, afin que ceux-ci puissent accomplir des tâches plus variées, être plus efficaces, et soient moins chers à produire et à déployer.

L’institut sur l’intelligence artificielle centré sur l’humain de l’université de Standford a récemment publié un index analysant ces états et évolutions sous différents aspects.
Dans ce rapport, nous constatons une forte amélioration des performances des IA sur les tests de référence servant à évaluer leurs capacités.
L’écart de performances entre les différents modèles est d’ailleurs largement réduit en comparaison de l’année dernière.
En revanche, de nouveaux tests comparatifs, bien plus exigeants, ont été développés (comme le fameux « Dernier examen de l’humanité ») et les IA y réalisent, pour le moment, des scores très faibles.

Autre amélioration : alors qu’en 2022 le plus petit modèle (PaLM) réalisait un score de 60 % à un un test comparatif spécifique (MMLU) avait besoin de 540 milliards de paramètres, le modèle Phi-3-mini de Microsoft accompli aujourd’hui les mêmes performances avec 3,8 milliards de paramètres. Il est donc aujourd’hui possible de construire des modèles qui nécessitent bien moins de ressources.

Vous avez dit six doigts ?

Les améliorations des performances et des capacités des différents modèles d’IA génératives (IAg) sont particulièrement visibles pour les IAg spécialisées dans la génération d’images et de vidéo.
Si à leurs débuts les IAg comme Dall-E ou Midjourney étaient moquées par le public en raison des absurdités qu’elles généraient, leurs résultats sont aujourd’hui bien plus difficiles à différencier de la réalité. Finies les mains à six doigts !

Les IAg permettant de créer des vidéos sont d’autant plus impressionnantes (techniquement), notamment Veo 3, de Google, récemment sortie et permettant de créer des vidéos en tout genre avec une cohérence sans précédent. Il est désormais extrêmement difficile de discerner une vidéo générée par Veo 3 d’une vidéo filmée par des humain·es.

Voici de nombreux exemples de vidéos générées par Veo 3.

Mistral, de son côté, a publié un nouveau modèle de compréhension audio nommé Voxtral. Celui-ci aurait de meilleures performances que Whisper, le modèle d’OpenAI, jusqu’alors considéré comme le meilleur en terme de rapport qualité/prix.
Voxtral propose des performances similaires ou supérieures à ses concurrents pour un coût bien plus bas.

Toutes ces améliorations sont déjà utilisées par de nombreuses entités à travers le monde.

Comme Netflix, qui a utilisé l’IAg pour créer une scène d’effondrement d’immeuble dans une de ses séries1, ou Disney, ayant utilisé ChatGPT pour écrire les paroles d’une des chansons de sa série indienne Save the Tigers2.

Netflix, d’ailleurs, souhaite mettre en place des coupures publicitaires générées par IA pendant le visionnage des vidéos3.

L’arrivée d’un nouveau paradigme : les modèles de raisonnement

Les modèles d’IAg traditionnels sont basés sur un paradigme consistant à « entraîner » les IA à partir du plus grand nombre de données possible afin de créer les millions (voire les milliards) de paramètres qui composeront le modèle. Le coût de ce type de modèle est principalement concentré sur cette phase d’entraînement.

Par exemple, le première modèle GPT d’OpenAI, GPT-1, sorti en juin 2018, contenait 117 millions de paramètres4. Un an plus tard, le modèle GPT-2 en comportait 1,5 milliards5. Quelques mois plus tard, GPT-3 en comportait 175 milliards6. Enfin, le modèle GPT-4.5, en comporterait, d’après les rumeurs7 (car nous n’avons pas de donnée officielle)… entre 5 et 10 billions (10 000 milliards) !

Ce paradigme, s’il fonctionnait très bien au cours des années précédentes, semble atteindre aujourd’hui un plafond de verre. Malgré l’augmentation massive du nombre de paramètres, les résultats obtenus ne sont pas aussi impressionnants que l’on pourrait s’y attendre, mais surtout, le coût pour exploiter de tels modèles devient difficile à assumer pour des entreprises comme OpenAI.

L’entreprise a d’ailleurs rapidement retiré GPT-4.5 de son offre8, au profit d’un nouveau modèle nommé GPT-4.1, bien moins cher pour la compagnie. (On est d’accord, c’est un peu n’importe quoi les noms de modèle chez OpenAI !)

Pour faire face aux limites qui semblent se dessiner, un nouveau paradigme a vu le jour : celui des modèles de raisonnement.

L’idée est qu’au lieu de se concentrer principalement sur l’entraînement du modèle, les modèles de raisonnement sont conçus pour accomplir des étapes supplémentaires (par rapport aux modèles classiques) afin d’achever des résultats similaires voire meilleurs sans avoir à augmenter la taille du modèle.

Contrairement à un modèle classique qui cherchera à donner directement une réponse lors de l’étape d’inférence, les modèles de raisonnement découpent cette étape en différents processus plus petits, cohérents les uns vis-à-vis des autres.

Comparaison d'un LLM classique avec un LLM de raisonnement.Trois étapes pour le LLM classique :
Une question est posée, le LLM la traite puis donne une réponse.

Pour un LLM de raisonnement, plusieurs étapes s'ajoutent avant de donner une réponse : ces étapes peuvent être potentiellement illimitées et constituent le raisonnement.
Comparaison d’un LLM classique avec un LLM de raisonnement.
Source : Maarten Grootendorst – A visual guide to reasoning LLMs

Le nombre d’étapes qu’un modèle de raisonnement va effectuer est configurable, et peut aussi bien varier d’une étape unique à des dizaines ou des milliers. En revanche, plus le nombre d’étapes est conséquent, plus le coût (en temps, en énergie, en puissance de calcul) est élevé.

Ce dernier point représente un changement majeur : les modèles de raisonnement peuvent potentiellement être bien plus coûteux en termes de ressources que les modèles classiques car le nombre d’étapes de raisonnement revient à multiplier — souvent de façon cachée à l’utilisateurice — la quantité de calculs nécessaires pour fournir une réponse.

Or, face au succès de modèles comme Open-o1 ou DeepSeek-R1, les modèles de raisonnement ont le vent en poupe et sont souvent ceux privilégiés, aujourd’hui.

L’émergence des IA agentiques

Les IA agentiques sont des IA conçues pour être capables d’interagir avec leur environnement.

Là où les IAg classiques s’appuient sur un jeu de données figé et apportent une réponse « simple » en fonction de la demande qu’on leur fournit, les IA agentiques ont pour objectif de pouvoir accéder à d’autres applications afin d’accomplir la tâche demandée en toute autonomie. De plus, l’IA agentique est capable d’exécuter une série de sous-tâches jusqu’à l’accomplissement de la demande.

En théorie, vous pouvez demander à une IA agentique de créer votre site vitrine. Celle-ci va alors concevoir la structure du site, établir une charte graphique et l’appliquer. Elle le testera ensuite pour s’assurer qu’il fonctionne. Enfin, l’agent pourra très bien pousser le code sur une forge logiciel (comme Github, Gitlab, ou autre) et exécuter des actions sur la forge afin de créer un site accessible au public. Dans tout ce processus, votre seule action aurait été de demander à l’IA agentique de vous réaliser ce site.

Dans la pratique, les IA agentiques sont encore largement peu efficaces, les plus performantes ne réussissent pour le moment que 30 % des tâches en totale autonomie9. Cependant, comme pour les IAg auparavant, on peut assez facilement imaginer, au regard de la vitesse d’évolution des techniques d’IA, que des progrès fulgurants arriveront d’ici un an ou deux.

On peut d’ailleurs noter l’émergence d’un protocole nommé MCP, initié par Anthropic, pour standardiser la manière dont les IA se connectent à d’autres applications.

À noter que’OpenAI vient de sortir ChatGPT Agent10 prétendant pouvoir presque tout réaliser et Google a annoncé différentes applications d’IA agentiques11.

Il est probable que l’utilisation d’IA agentiques se démocratise à mesure que leurs capacités s’améliorent et que les géants comme Google les intègrent aux applications de notre quotidien.

Une accumulation de problèmes sociétaux

Nous l’avons vu, les IAg ne cessent de s’améliorer techniquement. Cependant, nombre des problèmes soulevés lors de l’apparition de ChatGPT n’ont pas été traités et de nouveaux apparaissent.

Les robots indexeurs d’IA attaquent le Web

Pour collecter les données nécessaires à l’entraînement des IA génératives, les acteurs de l’IA parcourent l’ensemble du Web pour en extraire le contenu. Aujourd’hui, de nombreux acteurs ont déployé leur propre robot pour y parvenir.

Le problème est que ces robots mettent à mal l’ensemble de l’infrastructure faisant tourner le Web et ne respectent pas les sites précisant ne pas souhaiter être indexés par ces robots.

Comme nous en parlions dans la FramIActu d’avril certains sites ont constaté que plus de 90 % de leur trafic proviennent désormais des robots d’IA. Pour Wikipédia, cela représente 50 % de trafic supplémentaire depuis 202412.

Afin de palier ce pillage des ressources et garantir l’accès de leurs sites internet aux humain·es, des organisations comme l’ONU ont opté pour la mise en place d’un logiciel « barrière » à l’entrée de leurs site13. Nommé Anubis, ce logiciel permet d’empêcher les robots d’IA d’accéder au site web. Cependant, cette barrière n’est pas sans coût : les utilisateurices doivent parfois patienter quelques fractions de seconde (voire, parfois, quelques secondes) avant de pouvoir accéder à un site internet, le temps qu’Anubis s’assure que la demande d’accès provient bien d’un·e humain·e.

À Framasoft, nous avons aussi été confronté à cette situation et certains de nos services sont désormais protégés par Anubis.

D’autres acteurs se tournent vers Cloudflare puisque cette entreprise a mis en place un outil permettant de bloquer les robots d’IA par défaut14. Cloudflare est utilisé par environs 1/5 des sites web15. Cela signifie que l’entreprise se place dans une position privilégiée pour décider de qui a le droit d’accéder au contenu de ces sites web.

À l’avenir, il est possible que les acteurs d’IA les plus riches doivent finir par payer Cloudflare pour accéder au contenu des sites protégés par l’entreprise.

Si cela se produit, un des risques possibles est qu’au lieu d’empêcher l’essor de l’IA, la situation accentue plutôt l’écart entre les géants du numérique et les autres acteurs, plus modestes.

Le Web est pollué

Depuis l’arrivée de l’IA générative, un changement majeur dans l’histoire de l’humanité a eu lieu : il est désormais plus rapide de « créer » du contenu que d’en lire.
Ce simple fait semble totalement transfigurer notre rapport au Web puisque celui-ci se rempli à une vitesse vertigineuse de contenus générés par IA, dont une bonne partie se fait passer pour du contenu rédigé par des humain·es.

Aussi, les IAg sont très fortes pour créer du contenu adapté aux règles de Google Search, permettant à des entités peu scrupuleuses de faire apparaître leur contenu en tête des résultats du moteur de recherche. Cette pratique, nommée IA Slop, représente un véritable fléau. Le contenu diffusé n’a pas besoin d’exprimer un propos en rapport avec le réel, il est généré et publié automatiquement à l’aide d’IAg afin d’attirer du public en espérant générer du trafic et des revenus publicitaires.
À ce sujet, nous republiions il y a quelques mois sur le Framablog un article passionnant d’Hubert Guillaud.

De plus, le média Next publiait, il y a quelques mois, une enquête sur le millier de médias générés par IA mis en avant par Google Actualités, la principale plateforme d’accès aux médias16.

L’IAg est aussi utilisée pour concevoir des articles et messages de médias sociaux promouvant des discours complotistes ou climato-sceptiques à une échelle presque industrielle17,18.
Les promoteurs de ces théories peuvent plus facilement que jamais trouver de nouvelles adhésions à leur discours. Cette facilité pour générer du contenu vraisemblable contribue fortement à l’accroissement des discours visant à désinformer.

À mesure que le Web se rempli de contre-vérités, celles-ci risquent de prendre de plus en plus de poids dans les réponses des futurs modèles d’IAg. On parle d’une forme d’autophagie, où les IAg se nourrissent d’éléments générés par d’autres IAg19.

C’est à cause de ce phénomène d’autophagie que des entreprises comme Reddit (un média social très populaire dans le monde anglo-saxon) peuvent se permettre de revendre à prix d’or leurs données : du texte rédigé par des humain·es et facilement identifiable comme tel20,21.

La pollution du Web ne s’arrête cependant pas aux contenus textuels… désormais, avec la facilité d’accès aux IAg d’images et de vidéos, des millions de contenus générés par l’IA pullulent sur internet.
À la sortie de Veo3, Tiktok s’est retrouvé noyé sous la quantité de vidéos généré par l’IAg, dont un certain nombre contenant des propos racistes22. Certain·es artistes ont même cherché à profiter de la tendance en prétendant que leurs vidéos étaient générée par l’IAg, alors que celles-ci étaient réalisées par des humain·es23.

Certaines entreprises se spécialisent aussi dans la génération de DeepFake pornographiques. Ces outils permettent alors à des harceleurs de nuire à leurs ex petites-amies24 et à des adolescents de nuire leurs camarades25.
Les principales victimes de ces DeepFakes sont des femmes26.

Ces contenus générés par IA et la difficulté à les différencier des contenus « humains » participent à un sentiment d’abandon du réel. Il devient tellement difficile et exigeant de différencier le contenu généré par IA des autres que l’on peut être tenté·e de se dire « À quoi bon ? ».

À la manière de ce que décrit Clément Viktorovitch vis-à-vis de la perception des discours politiques27, il est possible que nous entrons ici aussi dans une ère de post-vérité : qu’importe si le contenu est vrai ou faux, tant qu’il nous plaît.

Un rapport au savoir bouleversé

En construisant une encyclopédie collaborative, gérée comme un commun et disponible mondialement, Wikipédia a révolutionné l’accès au savoir.
Non seulement la plus grande bibliothèque de l’histoire de l’humanité est à portée de clics, mais nous pouvons désormais participer aussi à son élaboration.

Wikipédia a permis de renverser un paradigme ancré depuis longtemps qui consistait à réserver la rédaction d’une encyclopédie aux experts du sujet. Grâce à quelques règles permettant d’assurer la qualité des contributions, l’encyclopédie en ligne permet un effort d’intelligence collective inédit dans l’histoire.

Or, si Wikipédia est accessible librement dans la plupart des pays du monde, la majorité des personnes accèdent à son contenu… via le moteur de recherche Google.

En effet, le réflexe commun pour accéder à Wikipédia est de chercher un terme sur son moteur de recherche préféré (Google pour l’immense majorité de la planète) et d’espérer que celui-ci nous présente un court résumé de la page Wikipédia correspondante et nous pointe vers celle-ci.

Google sert donc aujourd’hui d’intermédiaire, de porte d’accès principale, entre une personne et la plus grande encyclopédie de l’humanité.
Le problème, c’est que Google est bien plus qu’un simple moteur de recherche.

Google possède un système éditorial complexe, « personnalisant » les résultats en fonction de l’identité d’un individu, sa culture, son pays28, et poussant les éditeurs des sites Web à se plier à la vision que l’entreprise a du Web. Ne pas respecter cette vision nuit à notre bon référencement sur le moteur de recherche et donc, fait encourir le risque de ne jamais être trouvé·e dans la masse des sites existants.
Cette vision se confond avec le but lucratif de l’entreprise, dont le profit prévaut sur le reste. C’est pourquoi les liens sponsorisés prennent une place importante (principale, presque) dans l’interface du moteur. Il est ainsi nécessaire de payer Google pour s’assurer que notre site Web soit vu.

Cette éditorialisation du contenu chez Google a encore évolué récemment avec la mise en place d’AI Overviews. Cette fonctionnalité (pas encore activée en France), s’appuyant sur l’IA de l’entreprise, résume automatiquement les contenus des différents sites Web. Certes, la fonctionnalité semble pratique, mais elle pourrait encourager une tendance à ne jamais réellement visiter les sites.
Avec l’AI Overviews, nous ne quittons plus de Google.

À travers cette fonctionnalité, Google apporte d’autres briques pour transformer notre rapport au Web29 et asseoir sa position dominante dans l’accès au savoir.

Cependant, Google n’est pas le seul acteur à transformer notre rapport au Web et à l’accès au savoir. Les IA conversationnelles prennent de plus en plus de place et récemment ChatGPT est même devenu plus utilisé que Wikipédia aux États-Unis30.
Sans que cela n’indique pour le moment une diminution dans l’usage de Wikipédia par les humain·es, il est possible que celui-ci se raréfie à mesure que la qualité des réponses des IAg s’améliorent ou recrachent directement le contenu de Wikipédia.

Les acteurs de l’IA risquent donc de devenir les nouvelles portes principales pour accéder à l’encyclopédie. Nous pouvons imaginer différents risques à cela, semblables à ceux déjà existants avec Google, comme lorsque l’entreprise a volontairement dégradé la qualité des résultats des recherches pour que les utilisateurices consultent davantage de publicités31.

Le rapport au savoir évolue aussi dans le monde de la recherche, où l’IA est aussi en train de bousculer des lignes, car de plus en plus de projets scientifiques s’appuient désormais sur ces outils32. Une étude estime que 13.5 % des recherches bio-médicales réalisées en 2024 étaient co-rédigé·es à l’aide d’une IAg33.

Les auteurices de l’étude indiquent :

Si les chercheurs peuvent remarquer et corriger les erreurs factuelles dans les résumés générés par IA de leurs propres travaux, il peut être plus difficile de trouver les erreurs de bibliographies ou de sections de discussions d’articles scientifiques générés par des LLM

et ajoutent que les LLMs peuvent répliquer les biais et autres carences qui se trouvent dans leurs données d’entraînement « ou même carrément plagier ».

De plus, l’IA n’est pas utilisée que pour la rédaction des papiers scientifiques. De plus en plus de chercheureuses basent leurs études sur des modélisations faites par IA34, entraînant parfois des résultats erronés et des difficultés à reproduire les résultats des études… voire même rendre la reproduction impossible.

Il est difficile de mettre en lumière tous les impacts sociétaux de l’IA (et particulièrement l’IAg) dans un article de blog. Nous avons simplement sélectionné quelques points qui nous semblaient intéressants mais si vous souhaitez approfondir le sujet, le site FramamIA peut vous fournir des clés de compréhension sur l’IA et ses enjeux.

L’Intelligence Artificielle n’est pas un simple outil

Depuis le tsunami provoqué par l’arrivée de ChatGPT, nous entendons souvent que l’Intelligence Artificielle n’est qu’un « simple outil », sous-entendant que son impact sur nos vies et nos sociétés dépend avant tout de notre manière de l’utiliser.

Illustration CC-By David Revoy.

Ce discours s’appuie sur le postulat que l’outil — et la technique en général —, quel qu’il soit, est foncièrement neutre.

Or, si on reconnaît l’ambivalence de la technique, c’est-à-dire qu’elle puisse avoir à la fois des effets positifs et négatifs, cela ne signifie pas pour autant que les conséquences de ces effets s’équilibrent les unes les autres et encore moins que la technique est neutre d’un point de vue idéologique, politique, social ou économique.

Au contraire, tout outil porte forcément les intentions de ses créateurices et s’intègre dans un système économico-historico-social qui en fait un objet fondamentalement politique, éliminant toute possibilité de neutralité. De plus, les conditions d’existence d’un outil et son intégration dans nos sociétés l’intègrent de fait dans un système qui lui est propre, occultant ici l’idée de « simple outil ». Un outil est forcément plus complexe qu’il n’y paraît.

Dans son blog, reprenant un billet d’Olivier Lefebvre paru sur Terrestre.org, Christophe Masutti écrivait récemment qu’« on peut aisément comprendre que comparer une IAg et un marteau pose au moins un problème d’échelle. Il s’agit de deux systèmes techniques dont les conditions d’existence n’ont rien de commun. Si on compare des systèmes techniques, il faut en déterminer les éléments matériels et humains qui forment chaque système. »

Si le système technique du marteau du menuisier peut se réduire à des conditions matérielles et sociales relativement faciles à identifier dans un contexte restreint, il en va tout autre des IAg « dont l’envergure et les implications sociales sont gigantesques et à l’échelle mondiale ». On peut reprendre ainsi l’inventaire des conditions que dresse Olivier Lefebvre :

  • des centres de données dont les constructions se multiplient, entraînant une croissance vertigineuse des besoins en électricité35,36,
  • des réseaux de télécommunication étendus et des usines de production de composants électroniques, ainsi que des mines pour les matières premières qui sont elles mêmes assez complexes (plus complexes que les mines de fer) et entraînent des facteurs sociaux et géopolitiques d’envergure37,
  • les investissements colossaux (en milliards de dollars) en salaires d’ingénieurs en IA, en infrastructures de calcul pour entraîner les modèles, en recherche, réalisés dans une perspective de rentabilité38,39,40,41,
  • l’exploitation humaine : des millions de personnes, majoritairement dans les pays du Sud, sont payées à la tâche pour labelliser des données, sans lesquelles l’IA générative n’existerait pas42,43,44,
  • le pillage d’une immense quantité d’œuvres protégées par droits d’auteurs pour l’entraînement des modèles45,46,
  • et nous pouvons rattacher plein d’autres éléments en cascade pour chacun de ceux cités ci-dessus.

L’Intelligence Artificielle est une bulle économique mais…

… mais cela signifie pas que lorsque celle-ci éclatera, l’IA (et particulièrement les IA génératives) disparaîtra. Les changements apportés à la société semblent indiquer tout le contraire. L’IA a déjà commencé à transformer drastiquement notre société.

Alors que de nombreux pays du monde et d’entreprises s’étaient engagés à atteindre une neutralité carbone d’ici 2050, ces engagements semblent aujourd’hui ne plus intéresser personne. Google a augmenté de 65 % ses émissions de gaz à effet de serre en 5 ans47, Microsoft de 29 % en 4 ans48, Trump relance la filière charbon aux États-Unis49

Au nom des sacro-saintes compétitions et productivités, les engagements climatiques reculent alors même que nous constatons qu’il est désormais impossible de limiter le réchauffement climatique à +1,5°C par rapport à l’ère pré-industrielle50.

Les conséquences du recul de ces engagements et l’amplification du réchauffement climatique liée aux effets directs (construction de nouveaux centre de données, de nouvelles sources d’énergie, etc.) et indirects (encouragement du climato-scepticisme, report des engagements climatiques, etc.) sont des effets dont les conséquences nous affectent déjà et qui s’accentueront très certainement à l’avenir.

Cependant, les bouleversements climatiques ne sont pas les seuls sujets sur lesquels s’exerce l’influence de l’IAg dans notre société. L’IAg est aussi un système poussant à la prolétarisation des sociétés.

Aujourd’hui, 93 % des 18-25 ans ont utilisé une IAg ces six derniers mois, et 42 % les utilisent au quotidien, soit deux fois plus que l’année dernière51.

Il est probable que des milliers (voire des millions) d’étudiant·es ont déjà développé une dépendance à l’IAg dans le cadre de leurs études et ne peuvent aujourd’hui plus s’en passer pour accomplir les tâches que la société et ses institutions attendent d’elles et eux.

Alors qu’un tiers des PME (Petites et Moyennes Entreprises) l’utilisent déjà, la France souhaite que 80 % des PME et ETI (Entreprises de Taille Intermédiaire) adoptent l’IA dans leurs pratiques de travail d’ici 203052.

ChatGPT est aujourd’hui utilisé par 400 millions d’utilisateurices hebdomadaires53… et nous parlons uniquement de ChatGPT, pas de Gemini, Claude, ou autre concurrent.

Dans leur excellente étude sur le « forcing de l’IA », le collectif Limites Numérique décortiquait la manière dont les géants du numérique imposent l’utilisation de l’IA à leurs utilisateurices en l’intégrant absolument partout.

WhatsApp et ses 2,4 milliards d’utilisateurices ? Meta AI est intégré par défaut.

Android et ses 3,3 milliards d’utilisateurices ? Gemini est désormais activé par défaut.
Google Search et ses 190 000 recherches par seconde ? Intégration d’AI Overviews pour 200 pays, permettant de résumer automatiquement les contenus des sites.

En trois ans, l’IA générative s’est imposée absolument partout dans notre environnement numérique et même si de nombreuses start-ups tomberont lors de l’explosion de la bulle financière54, il est probable que les géants du secteur restent en place.

Par contre, nos habitudes, nos pratiques de travail, notre rapport au monde et au savoir… eux, auront bel et bien changé.

Conclusion

Nous l’avons dit en introduction de cet article, cela fait des années que nous observons et cherchons à comprendre ce que représente l’IA et ses enjeux. Pour être honnête, ce n’est clairement pas chose aisée.

Comme nous avons essayé de le faire comprendre à travers le site FramamIA, l’IA est bien plus qu’un « simple outil ». C’est d’abord un champ de recherche mais aussi un système complexe, similaire au système numérique (dans lequel il s’intègre).

Depuis ChatGPT, notre temps de veille pour suivre l’actualité du numérique, déjà conséquent à l’époque, a presque doublé. Nous avons passé littéralement des centaines d’heures à lire des articles, à réfléchir à leur propos, à en discuter en interne. À chercher à comprendre comment techniquement fonctionne une IA générative et ses différences avec une IA spécialisée ou un algorithme n’étant pas considéré comme une IA. À chercher à comprendre, aussi, si l’adoption de cette technique n’est qu’une simple mode ou si celle-ci est bel et bien en train de révolutionner notre environnement.

Nous continuerons, à l’avenir, d’accomplir cette veille même si le rythme de publication de la FramIActu sera moins dense. Malgré tout, nous continuerons de partager notre veille sur notre site de curation dédié.

Aussi, comme nous sommes une association « qui fait », nous explorons d’autres pistes pour accomplir notre objet associatif (l’éducation populaire aux enjeux du numérique) autour de ce sujet. Nous souhaitons aider la société à subir le moins possible les conséquences négatives de l’imposition de l’IA dans nos vies.

Nous avons des pistes d’action, nous vous les partagerons quand nous seront prêt·es !

Belle fin d’été à toutes et tous !

À bientôt sur le Framablog !

  1. L’IA générative utilisée par Netflix dans “L’Éternaute” génère surtout… des économies — Télérama ↩︎
  2. Disney a crédité ChatGPT au générique de l’une de ses séries — BFMTV ↩︎
  3. Netflix will show generative AI ads midway through streams in 2026 — ArsTechnica ↩︎
  4. GPT-1 ­— Wikipédia ↩︎
  5. GPT-2 — Wikipédia ↩︎
  6. GPT-3 — Wikipédia ↩︎
  7. How Big Is GPT-4.5 and Why ? — Github ↩︎
  8. OpenAI lance GPT-4.1 et met déjà GPT-4.5 à la retraite — Next ↩︎
  9. TheAgentCompany : Benchmarking LLM Agents on Consequential Real World Tasks — arXiv ↩︎
  10. OpenAI dégaine son ChatGPT Agent, qui prétend pouvoir presque tout faire — Next ↩︎
  11. IA chez Google : des annonces, des annonces, mais quelle stratégie ? ­— Next ↩︎
  12. Comment les robots d’exploration impactent les opérations des projets Wikimedia — Wikimédia ↩︎
  13. Anubis works — Xe Iaso ↩︎
  14. Cloudflare va bloquer les crawlers des IA par défaut — Next ↩︎
  15. Usage statistics and market share of Cloudflare — W3Techs ↩︎
  16. [Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google) — Next ↩︎
  17. The ABCs of AI and Environmental Misinformation — DeSmog ↩︎
  18. Anatomy of an AI-powered malicious social botnet — arXiv ↩︎
  19. Self-Consuming Generative Models Go MAD — arXiv ↩︎
  20. Exclusive : Reddit in AI content licensing deal with Google — Reuters ↩︎
  21. Reddit says it’s made $203M so far licensing its data — TechCrunch ↩︎
  22. TikTok is being flooded with racist AI videos generated by Google’s Veo 3 — ArsTechnica ↩︎
  23. Real TikTokers are pretending to be Veo 3 AI creations for fun, attention — ArsTechnica ↩︎
  24. A Deepfake Nightmare : Stalker Allegedly Made Sexual AI Images of Ex-Girlfriends and Their Families — 404 Media ↩︎
  25. Enquête ouverte en Normandie après la diffusion de deepfakes d’une douzaine de collégiennes — Next ↩︎
  26. Photos intimes, deepnudes : 13 femmes en colère s’organisent — Next ↩︎
  27. Clément Viktorovitch : « Le discours politique a perdu pied et s’est affranchi du réel » — L’est éclair ↩︎
  28. Ce site montre à quel point les moteurs de recherche ne sont pas neutres et impartiaux — Numerama ↩︎
  29. Pour la première fois, un géant de la tech affirme que l’IA va tuer le web — Numerama ↩︎
  30. Aux États-Unis, ChatGPT est plus utilisé que Wikipédia — Le Grand Continent ↩︎
  31. The Man Who Killed Google Search — Where’s your Ed at ? ↩︎
  32. Intégrité scientifique à l’heure de l’intelligence artificielle générative : ChatGPT et consorts, poison et antidote ? — Cairn.info ↩︎
  33. En 2024, 13,5 % des résumés d’articles de recherche biomédicale étaient co-rédigés par IA — Next ↩︎
  34. Why an overreliance on AI-driven modelling is bad for science — Nature ↩︎
  35. Intelligence artificielle : Stargate, le projet fou américain à 500 milliards de dollars — Next ↩︎
  36. Après Microsoft et Google, Amazon annonce aussi des investissements dans le nucléaire — Next ↩︎
  37. Nvidia dépense 500 milliards de dollars pour des usines dédiées à l’IA aux États-Unis — Frandroid ↩︎
  38. IA : une nouvelle impulsion pour la stratégie nationale — info.gouv.fr ↩︎
  39. Sharing : The Growing Influence of Industry in AI Research — Medium ↩︎
  40. ACL 2023 The Elephant in the Room : Analyzing the Presence of Big Tech in Natural Language Processing Research — arXiv ↩︎
  41. NVIDIA a franchi les 4 000 milliards de dollars de capitalisation — Next ↩︎
  42. Les sacrifiés de l’IA — France TV ↩︎
  43. Vidéos sur les travailleurs du clic — DataGueule ↩︎
  44. Meta poaches 28-year-old Scale AI CEO after taking multibillion dollar stake in startup — Reuters ↩︎
  45. « Vous ne pouvez plus faire sans nous » : les acteurs culturels cherchent l’accord juste avec les sociétés d’IA — Libération ↩︎
  46. Intelligence artificielle : Open AI copie Ghibli sans l’accord de Miyazaki — Libération ↩︎
  47. Google undercounts its carbon emissions, report finds — The Guardian ↩︎
  48. Depuis 2020, les émissions de Microsoft ont augmenté de 29 % — Next ↩︎
  49. Trump relance le charbon américain pour alimenter les datacenters d’IA — Datacenter Magazine ↩︎
  50. Limiter le réchauffement climatique à 1,5 °C est désormais impossible — Le Monde ↩︎
  51. Étude : 93 % des 18-25 ans utilisent l’IA en 2025 — Blog du Modérateur ↩︎
  52. Avec « Osez l’IA », le gouvernement veut accélérer l’adoption de l’IA en entreprise — Next ↩︎
  53. OpenAI’s weekly active users surpass 400 million — Reuters ↩︎
  54. Generative AI experiences rapid adoption, but with mixed outcomes – Highlights from VotE : AI & Machine Learning — S&P Global ↩︎
  • ✇Intelligence Artificielle – Framablog
  • L’IA est une technologie comme les autres
    Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 03 mars 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA. Après une vingtaine d’articles republiés tous les dimanches depuis plusieurs mois, nous prenons une pause estivale ! Vous pouvez néanmoins toujours consulter, chaque semaine, les articles proposés par Hubert Guillaud sur le site de Dans Les Algorithmes ! Hubert Guillaud L’IA ne sera pas la révolution que l’o

L’IA est une technologie comme les autres

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 03 mars 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.

Après une vingtaine d’articles republiés tous les dimanches depuis plusieurs mois, nous prenons une pause estivale ! Vous pouvez néanmoins toujours consulter, chaque semaine, les articles proposés par Hubert Guillaud sur le site de Dans Les Algorithmes !


L’IA ne sera pas la révolution que l’on pense. Son déploiement concret va prendre du temps. Elle ne sera pas non plus la menace existentielle qu’on imagine, parce qu’elle ne se développera pas là où les risques de défaillances sont trop importants. L’IA va rester sous contrôle malgré sa diffusion, estiment les chercheurs Arvind Narayanan et Sayash Kapoor dans une mise en perspective stimulante de notre avenir.

 

 

 

 

 

 

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni interventions politiques drastiques ni avancées technologiques ». L’IA n’est pas appelée à déterminer elle-même son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts économiques et sociétaux transformateurs seront lents (de l’ordre de plusieurs décennies) ».

Selon eux, dans les années à venir « une part croissante du travail des individus va consister à contrôler l’IA ». Mais surtout, considérer l’IA comme une technologie courante conduit à des conclusions fondamentalement différentes sur les mesures d’atténuation que nous devons y apporter, et nous invite, notamment, à minimiser le danger d’une superintelligence autonome qui viendrait dévorer l’humanité.

La vitesse du progrès est plus linéaire qu’on le pense

« Comme pour d’autres technologies à usage général, l’impact de l’IA se matérialise non pas lorsque les méthodes et les capacités s’améliorent, mais lorsque ces améliorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie  » , rappellent les chercheurs, à la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers : How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-à-dire que l’élargissement des applications à d’innombrables secteurs est souvent lent mais décisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matière d’IA ne devraient pas être de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intégration de l’IA dans un large éventail de processus productifs. L’enjeu tient bien plus à élargir les champs d’application des innovations qu’à maîtriser la course à la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les déploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sécurité est lente. Même dans le domaine de « l’optimisation prédictive », c’est-à-dire la prédiction des risques pour prendre des décisions sur les individus, qui se sont multipliées ces dernières années, l’IA n’est pas très présente, comme l’avaient pointé les chercheurs dans une étude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexité et l’opacité de l’IA font qu’elle est peu adaptée pour ces enjeux. Les risques de sécurité et de défaillance font que son usage y produit souvent de piètres résultats. Sans compter que la réglementation impose déjà des procédures qui ralentissent les déploiements, que ce soit la supervision des dispositifs médicaux ou l’IA Act européen. D’ailleurs, “lorsque de nouveaux domaines où l’IA peut être utilisée de manière significative apparaissent, nous pouvons et devons les réglementer ».

Même en dehors des domaines critiques pour la sécurité, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses études estiment que l’usage de l’IA générative est déjà très fort. Une étude très commentée constatait qu’en août 2024, 40 % des adultes américains utilisaient déjà l’IA générative. Mais cette percée d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumériste d’une approche productive, la seconde était bien moins maîtrisée que la première. L’adoption est une question d’utilisation du logiciel, et non de disponibilité, rappellent les chercheurs. Si les outils sont désormais accessibles immédiatement, leur intégration à des flux de travail ou à des habitudes, elle, prend du temps. Entre utiliser et intégrer, il y a une différence que le nombre d’utilisateurs d’une application ne suffit pas à distinguer. L’analyse de l’électrification par exemple montre que les gains de productivité ont mis des décennies à se matérialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de réaliser des gains de productivité, c’est surtout la refonte complète de l’agencement des usines autour de la logique des chaînes de production électrifiées.

Les deux chercheurs estiment enfin que nous sommes confrontés à des limites à la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux décennies à se développer, du fait des contraintes de sécurité nécessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais très souvent, “l’écart entre la capacité et la fiabilité” reste fort. La perspective d’agents IA pour la réservation de voyages ou le service clients est moins à risque que la conduite autonome, mais cet apprentissage n’est pas simple à réaliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour être déployé. Même dans le domaine de la recommandation sur les réseaux sociaux, le fait qu’elle s’appuie sur des modèles d’apprentissage automatique n’a pas supprimé la nécessité de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour déployer de l’IA est fortement limitée en raison des coûts sociaux de l’expérimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou répondre à des examens, comme à ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles réelles. En fait, trop souvent, les indicateurs permettent de mesurer les progrès des méthodes d’IA, mais peinent à mesurer leurs impacts ou l’adoption, c’est-à-dire l’intensité de son utilisation. Kapoor et Narayanan insistent : les impacts économiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrès. En fait, il est probable que cette surproduction même limite l’innovation. Une étude a ainsi montré que dans les domaines de recherche où le volume d’articles scientifiques est plus élevé, il est plus difficile aux nouvelles idées de percer.

L’IA va rester sous contrôle

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacité à raisonner clairement sur un monde doté d’une IA avancée. Assez souvent, l’intelligence elle-même est assez mal définie, selon un spectre qui irait de la souris à l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriété en jeu pour analyser les impacts de l’IA. C’est plutôt le pouvoir – la capacité à modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisée pour accroître nos capacités. La différence entre l’IA et les capacités humaines reposent surtout dans la vitesse. Les machines nous dépassent surtout en termes de vitesse, d’où le fait que nous les ayons développées surtout dans les domaines où la vitesse est en jeu.

“Nous prévoyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraînés (en particulier les équipes humaines, et surtout si elle est complétée par des outils automatisés simples) dans la prévision d’événements géopolitiques (par exemple, les élections). Nous faisons la même prédiction pour les tâches consistant à persuader les gens d’agir contre leur propre intérêt”. En fait, les systèmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prédisent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrôle reste fort, des audits à la surveillance des systèmes en passant par la sécurité intégrée. “En cybersécurité, le principe du « moindre privilège » garantit que les acteurs n’ont accès qu’aux ressources minimales nécessaires à leurs tâches. Les contrôles d’accès empêchent les personnes travaillant avec des données et des systèmes sensibles d’accéder à des informations et outils confidentiels non nécessaires à leur travail. Nous pouvons concevoir des protections similaires pour les systèmes d’IA dans des contextes conséquents. Les méthodes de vérification formelle garantissent que les codes critiques pour la sécurité fonctionnent conformément à leurs spécifications ; elles sont désormais utilisées pour vérifier l’exactitude du code généré par l’IA.” Nous pouvons également emprunter des idées comme la conception de systèmes rendant les actions de changement d’état réversibles, permettant ainsi aux humains de conserver un contrôle significatif, même dans des systèmes hautement automatisés. On peut également imaginer de nouvelles idées pour assurer la sécurité, comme le développement de systèmes qui apprennent à transmettre les décisions aux opérateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systèmes agents dont l’activité est visible et lisible par les humains, ou encore la création de structures de contrôle hiérarchiques dans lesquelles des systèmes d’IA plus simples et plus fiables supervisent des systèmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le développement et l’adoption de l’IA avancée, l’innovation se multipliera pour trouver de nouveaux modèles de contrôle humain.

Pour eux d’ailleurs, à l’avenir, un nombre croissant d’emplois et de tâches humaines seront affectés au contrôle de l’IA. Lors des phases d’automatisation précédentes, d’innombrables méthodes de contrôle et de surveillance des machines ont été inventées. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrôler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilité et du contrôle en favorisant l’efficacité et l’automatisation doit toujours être contrebalancée. Les IA mal contrôlées risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutôt que les systèmes trop autonomes et insuffisamment supervisés sont vite débranchés. Nul n’a avantage à se passer du contrôle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques.

La course aux armements par exemple, consistant à déployer une IA de plus en plus puissante sans supervision ni contrôle adéquats sous prétexte de concurrence, et que les acteurs les plus sûrs soient supplantés par des acteurs prenant plus de risques, est souvent vite remisée par la régulation. “De nombreuses stratégies réglementaires sont mobilisables, que ce soient celles axées sur les processus (normes, audits et inspections), les résultats (responsabilité) ou la correction de l’asymétrie d’information (étiquetage et certification).” En fait, rappellent les chercheurs, le succès commercial est plutôt lié à la sécurité qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aéronautique, “l’intégration de l’IA a été limitée aux normes de sécurité existantes, au lieu qu’elles soient abaissées pour encourager son adoption, principalement en raison de la capacité des régulateurs à sanctionner les entreprises qui ne respectent pas les normes de sécurité”. Dans le secteur automobile, pourtant, pendant longtemps, la sécurité n’était pas considérée comme relevant de la responsabilité des constructeurs. Mais petit à petit, les normes et les attentes en matière de sécurité se sont renforcées. Dans le domaine des recommandations algorithmiques des médias sociaux par contre, les préjudices sont plus difficiles à mesurer, ce qui explique qu’il soit plus difficile d’imputer les défaillances aux systèmes de recommandation. “L’arbitrage entre innovation et réglementation est un dilemme récurrent pour l’État régulateur”. En fait, la plupart des secteurs à haut risque sont fortement réglementés, rappellent les deux chercheurs. Et contrairement à l’idée répandue, il n’y a pas que l’Europe qui régule, les États-Unis et la Chine aussi ! Quant à la course aux armements, elle se concentre surtout sur l’invention des modèles, pas sur l’adoption ou la diffusion qui demeurent bien plus déterminantes pourtant.

Répondre aux abus. Jusqu’à présent, les principales défenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modèles, estiment les chercheurs. Le problème fondamental est que la nocivité d’un modèle dépend du contexte, contexte souvent absent du modèle, comme ils l’expliquaient en montrant que la sécurité n’est pas une propriété du modèle. Le modèle chargé de rédiger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisé à des fins marketing ou d’hameçonnage ; les interventions au niveau du modèle seraient donc inefficaces. Ainsi, les défenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations légitimes), mais plutôt les systèmes d’analyse et de filtrage des e-mails qui détectent les schémas suspects, et les protections au niveau du navigateur. Se défendre contre les cybermenaces liées à l’IA nécessite de renforcer les programmes de détection des vulnérabilités existants plutôt que de tenter de restreindre les capacités de l’IA à la source. Mais surtout, “plutôt que de considérer les capacités de l’IA uniquement comme une source de risque, il convient de reconnaître leur potentiel défensif. En cybersécurité, l’IA renforce déjà les capacités défensives grâce à la détection automatisée des vulnérabilités, à l’analyse des menaces et à la surveillance des surfaces d’attaque”.Donner aux défenseurs l’accès à des outils d’IA puissants améliore souvent l’équilibre attaque-défense en leur faveur”. En modération de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider à identifier les opérations d’influence coordonnées. Nous devons investir dans des applications défensives plutôt que de tenter de restreindre la technologie elle-même, suggèrent les chercheurs.

Le désalignement. Une IA mal alignée agit contre l’intention de son développeur ou de son utilisateur. Mais là encore, la principale défense contre le désalignement se situe en aval plutôt qu’en amont, dans les applications plutôt que dans les modèles. Le désalignement catastrophique est le plus spéculatif des risques, rappellent les chercheurs. “La crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique repose souvent sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel”. Dans le monde réel, la surveillance et le contrôle sont très présents et l’IA est très utile pour renforcer cette surveillance et ce contrôle. Les craintes liées au désalignement de l’IA supposent que ces systèmes déjouent la surveillance, alors que nous avons développés de très nombreuses formes de contrôle, qui sont souvent d’autant plus fortes et redondantes que les décisions sont importantes.

Les risques systémiques. Si les risques existentiels sont peu probables, les risques systémiques, eux, sont très courants. Parmi ceux-ci figurent “l’enracinement des préjugés et de la discrimination, les pertes d’emplois massives dans certaines professions, la dégradation des conditions de travail, l’accroissement des inégalités, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystème de l’information, le déclin de la liberté de la presse, le recul démocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques évoqués précédemment”. Car ces risques découlent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intérêts, l’IA ne faisant qu’amplifier les instabilités existantes dans notre société. Nous devrions bien plus nous soucier des risques cumulatifs que des risques décisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant à réorienter la régulation de l’IA, notamment en favorisant la résilience. Pour l’instant, l’élaboration des politiques publiques et des réglementations de l’IA est caractérisée par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la société. Si les probabilités de risque existentiel de l’IA sont trop peu fiables pour éclairer les politiques, il n’empêche que nombre d’acteurs poussent à une régulation adaptée à ces risques existentiels. Alors que d’autres interventions, comme l’amélioration de la transparence, sont inconditionnellement utiles pour atténuer les risques, quels qu’ils soient. Se défendre contre la superintelligence exige que l’humanité s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrôle centralisé sur l’IA, qui risque d’être un remède pire que le mal. Or, nous devrions bien plus nous préoccuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inégalités. Pour nous défendre contre ces risques-ci, pour empêcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, défendent les deux chercheurs.

Ils recommandent d’ailleurs plusieurs politiques. D’abord, améliorer le financement stratégique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et améliorer nos connaissances sur les risques et leur atténuation. Ils proposent également d’améliorer la surveillance des usages, des risques et des échecs, passant par les déclarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de données d’incidents de l’IA) ou la protection des lanceurs d’alerte… Enfin, ils proposent que les “données probantes” soient un objectif prioritaire, c’est-à-dire d’améliorer l’accès de la recherche.

Dans le domaine de l’IA, la difficulté consiste à évaluer les risques avant le déploiement. Pour améliorer la résilience, il est important d’améliorer la responsabilité et la résilience, plus que l’analyse de risque, c’est-à-dire des démarches de contrôle qui ont lieu après les déploiements. “La résilience exige à la fois de minimiser la gravité des dommages lorsqu’ils surviennent et la probabilité qu’ils surviennent.” Pour atténuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la démocratie, la liberté de la presse ou l’équité dans le monde du travail. C’est-à-dire d’améliorer la résilience sociétale au sens large.

Pour élaborer des politiques technologiques efficaces, il faut ensuite renforcer les capacités techniques et institutionnelles de la recherche, des autorités et administrations. Sans personnels compétents et informés, la régulation de l’IA sera toujours difficile. Les chercheurs invitent même à “diversifier l’ensemble des régulateurs et, idéalement, à introduire la concurrence entre eux plutôt que de confier la responsabilité de l’ensemble à un seul régulateur”.

Par contre, Kapoor et Narayanan se défient fortement des politiques visant à promouvoir une non-prolifération de l’IA, c’est-à-dire à limiter le nombre d’acteurs pouvant développer des IA performantes. Les contrôles à l’exportation de matériel ou de logiciels visant à limiter la capacité des pays à construire, acquérir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modèles d’IA à pondération ouverte… sont des politiques qui favorisent la concentration plus qu’elles ne réduisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le même modèle, les vulnérabilités de ce modèle peuvent être exploitées dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “réaliser les avantages de l’IA”, c’est-à-dire accélérer l’adoption des bénéfices de l’IA et atténuer ses inconvénients. Pour cela, estiment-ils, nous devons être plus souples sur nos modalités d’intervention. Par exemple, ils estiment que pour l’instant catégoriser certains domaines de déploiement de l’IA comme à haut risque est problématique, au prétexte que dans ces secteurs (assurance, prestation sociale ou recrutement…), les technologies peuvent aller de la reconnaissance optique de caractères, relativement inoffensives, à la prise de décision automatisées dont les conséquences sont importantes. Pour eux, il faudrait seulement considérer la prise de décision automatisée dans ces secteurs comme à haut risque.

Un autre enjeu repose sur l’essor des modèles fondamentaux qui a conduit à une distinction beaucoup plus nette entre les développeurs de modèles, les développeurs en aval et les déployeurs (parmi de nombreuses autres catégories). Une réglementation insensible à ces distinctions risque de conférer aux développeurs de modèles des responsabilités en matière d’atténuation des risques liés à des contextes de déploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modèles fondamentaux et de l’imprévisibilité de tous les contextes de déploiement possibles.

Enfin, lorsque la réglementation établit une distinction binaire entre les décisions entièrement automatisées et celles qui ne le sont pas, et ne reconnaît pas les degrés de surveillance, elle décourage l’adoption de nouveaux modèles de contrôle de l’IA. Or de nombreux nouveaux modèles sont proposés pour garantir une supervision humaine efficace sans impliquer un humain dans chaque décision. Il serait imprudent de définir la prise de décision automatisée de telle sorte que ces approches engendrent les mêmes contraintes de conformité qu’un système sans supervision. Pour les deux chercheurs, “opposer réglementation et diffusion est un faux compromis, tout comme opposer réglementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas réguler, mais bien de garantir de la souplesse. La législation garantissant la validité juridique des signatures et enregistrement électroniques promulguée en 2000 aux Etats-Unis a joué un rôle déterminant dans la promotion du commerce électronique et sa diffusion. La législation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le développement du secteur par la création de pilotes certifiés. Nous devons trouver pour l’IA également des réglementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bénéfices de l’IA afin de les rendre plus équitables et d’indemniser les personnes qui risquent de subir les conséquences de l’automatisation. Le renforcement des filets de sécurité sociale contribuera à atténuer l’inquiétude actuelle du public face à l’IA dans de nombreux pays”. Et les chercheurs de suggérer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis à mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste équilibre entre une adoption trop précipitée qui génère des défaillances et de la méfiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privé.

  • ✇Intelligence Artificielle – Framablog
  • Recrutements automatisés : défaillances spécifiques, défaillances systémiques
    Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 11 juin 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA. Hubert Guillaud Démontrer les défaillances des systèmes de recrutement automatisé demeure compliqué. Les enquêtes et tests des usagers, des chercheurs, des médias… parviennent souvent à pointer des défaillances spécifiques que les entreprises ont beau jeu de rejeter comme n’étant pas représentatifs. Et effecti

Recrutements automatisés : défaillances spécifiques, défaillances systémiques

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 11 juin 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Démontrer les défaillances des systèmes de recrutement automatisé demeure compliqué. Les enquêtes et tests des usagers, des chercheurs, des médias… parviennent souvent à pointer des défaillances spécifiques que les entreprises ont beau jeu de rejeter comme n’étant pas représentatifs. Et effectivement, corriger les biais de recrutement nécessite d’être capable de les mesurer. Comment répondre aux défaillances du recrutement automatisé ?

 

C’est le dossier de Dans les Algorithmes !

 

 

 

 

 

Le problème auquel nous sommes confrontés dans les systèmes de recrutement automatisés est que ni les postulants ni les départements RH ni les régulateurs ni le grand public ne savent très bien comment les CV sont inspectés et scorés (voir la première partie de ce dossier). Les candidats savent rarement si ces outils sont la seule raison pour laquelle les entreprises les rejettent – et aucun de ces systèmes n’explique aux utilisateurs comment ils ont été évalués. Pourtant, les exemples flagrants de défaillances spécifiques sont nombreux, sans qu’il soit toujours possible de prouver leurs défaillances systémiques.

Dans son livre, The Algorithm : How AI decides who gets hired, monitored, promoted, and fired and why we need to fight back now (L’algorithme : comment l’IA décide de qui sera embauché, surveillé, promu et viré et pourquoi nous devons riposter, Hachette, 2024, non traduit), la journaliste Hilke Schellmann donne beaucoup la parole à des individus qui ont bataillé contre des systèmes : une développeuse black très compétente discriminée en continu, un data scientist écarté sans raisons de postes pour lesquels il était plus que compétent… un candidat d’une cinquantaine d’années, excédé qui finit par changer sa date de naissance et se voit magiquement accepté aux candidatures où il était refusé ! Le testing systémique des outils d’embauche automatisés est encore trop rare et trop souvent individuel… Mais il montre bien souvent combien ces systèmes sont défaillants, à l’image de celui initié récemment par Bloomberg : les journalistes ont demandé à ChatGPT de classer des CV dont le seul élément modifié était le prénom et le nom des candidats. Sans surprise, les CV avec des noms à consonance afro-américaine étaient à chaque fois les plus mal classés !

Pourtant, démontrer les dysfonctionnements de ces systèmes demeure compliqué, concède la journaliste. Notamment parce que ces éclairages reposent souvent sur des exemples spécifiques, de simples tests, des études limitées en ampleur, en profondeur et dans le temps… que les entreprises ont beau jeu de les rejeter comme n’étant pas représentatifs. L’accumulation de preuves de défaillances devrait néanmoins être plus que préoccupante.

Les informations sur le fonctionnement de ces systèmes sont rares, la plupart du temps elles ne nous parviennent que quand ces systèmes dysfonctionnent publiquement. En 2018, une enquête de Reuters avait montré que le système de recrutement d’Amazon était fortement biaisé au détriment des femmes : ses données d’entraînement (les CV des gens déjà recrutés par Amazon) comportaient trop peu de femmes et les écartait par défaut. Malgré les tentatives de l’équipe d’Amazon pour réparer le système d’embauche, l’équipe a fini par abandonner le projet, faute d’y parvenir. C’est dire que réparer les défaillances et les biais n’est pas si simple. Les problèmes de discriminations ne se sont pourtant pas arrêtés. La Commission pour l’égalité des chances en matière d’emploi (EEOC, l’agence fédérale américaine chargée de lutter contre la discrimination à l’emploi), poursuit chaque année de nombreuses entreprises qui ont des pratiques d’embauches discriminatoires massives et problématiques.

Vous avez du mal à trouver un emploi ? La faute aux robots recruteurs.
Image extraite d’un article de Hilke Schellmann pour The Guardian.

 

Pour John Jersin, longtemps vice-président de Linkedin, ces problèmes de discrimination invisibles, cachés dans d’autres pratiques ou au fin fond des mots, restent inaperçues des développeurs de systèmes, notamment parce que la réduction des biais évoque d’abord le risque qui affecte certaines catégories de population plutôt que d’autres. Le débiaisage invite à écarter des éléments visibles, comme le genre, les prénoms, les pronoms, les photos… mais n’insiste pas assez sur le fait que les biais peuvent être, par cascade, à plein d’autres endroits. Chez Linkedin, Jersin a construit une équipe d’ingénieurs en IA pour combattre les biais de l’IA. Pour réduire les biais de genre, la solution de Linkedin a été… de mettre encore plus d’IA en utilisant des coefficients de représentativité genrés selon les emplois pour corriger la visibilité des annonces (comme Meta envisage de le faire pour les annonces immobilières). L’exemple montre bien que pour corriger les biais, encore faut-il pouvoir les mesurer, et non seulement mesurer les biais de représentativité, mais également ceux de la diffusion des annonces. Sans compter que ces corrections qui visent à réduire les écarts de performance entre groupes démographiques risquent surtout de produire un “égalitarisme strict par défaut”, qu’une forme d’équité. Le débiaisage laisse ouvertes plusieurs questions : Quelles corrections appliquer ? Comment les rendre visibles ? Jusqu’où corriger ?

Sans compter qu’il faudrait pouvoir corriger toutes les autres formes de discrimination, liées à l’âge ou la couleur de peau… Ou encore des discriminations liées à l’origine géographique des candidats qui permet d’écarter très facilement des candidatures selon leur localisation. Et surtout de la plus prégnante d’entre elles : la discrimination de classe.

Pseudoscience automatisée

Les systèmes d’embauche automatisé reposent principalement sur l’analyse de mots et nous font croire que cette analyse permettrait de prédire la performance au travail, la personnalité des candidats ou l’adéquation entre une offre et un poste. Ces outils de sélection et d’évaluation sont partout promus comme s’ils fournissaient des informations stables, fiables, objectives et équitables, sans jamais se soucier de leur validité scientifique. Pourtant, les vendeurs de ces systèmes n’apportent jamais la moindre preuve de la validité scientifique de leurs solutions.

Pour les chercheurs Mona Sloane, Emanuel Moss et Rumman Chowdhury, ces systèmes reposent surtout sur des pratiques pseudoscientifiques qu’autre chose. Et bien souvent, les évaluations sont prises dans des chaînes de traitement qui impliquent plusieurs types d’outils et de techniques qui rendent leur audit difficile, notamment parce que certains résultats ont des conséquences sur d’autres mesures. Pour les chercheurs, il faudrait revenir aux « racines épistémologiques » des systèmes, c’est-à-dire aux prétentions à la connaissance qu’ils formulent, comme de prétendre que l’analyse des mots d’un CV puisse caractériser la performance au travail. La perspective de déployer des audits pour s’assurer de leur conformité qui ne se limiteraient qu’à des questions d’équité (de genre ou d’âge par exemple) ne peuvent pas corriger les problèmes que génère cette fausse prétention à la connaissance. Or, pour l’instant, sans même parler d’équité, les entreprises ne sont même pas obligées de révéler aux candidats les outils qu’elles mobilisent ni leurs effets. Nous ne connaissons ni la liste des systèmes mobilisés, ni leurs intentions, ni les données utilisées, ni celles utilisées pour la modélisation… L’opacité de l’emploi automatisé s’étend bien plus qu’il ne se résout.

Cambridge Analytica nous a permis de comprendre l’impact du profilage pseudo-psychologique. Dans le domaine du recrutement, on utilise depuis longtemps le profilage psychologique : la graphologie comme les tests psychologiques ont été inventés pour le travail, comme nous l’expliquait le psychologue Alexandre Saint-Jevin. Nombre d’outils tentent de prédire le profil psychologique des candidats, comme Humantic AI ou Crystal. IBM elle-même a longtemps promu une version dédiée de Watson… avant de l’arrêter. L’idée consiste le plus souvent à scanner le profil des candidats pour savoir qui ils sont vraiment, afin de prédire leurs comportements. Le secteur est en plein boom. Il représente quelque 2 milliards de dollars en 2023. Il n’est pourtant rien d’autre que de « l’astrologie de bureau » qui ne produit rien d’autre que de notre propre hallucination.

Pour compléter ces analyses pseudo-psychologiques, de nombreux outils comme Fama, Foley, Ferretly ou Intelligo… aspirent les contenus des médias sociaux (sans demander leur consentement aux candidats) et appliquent sur ces contenus des analyses émotionnelles souvent simplistes, consistant à caractériser positivement ou négativement les mots utilisés, les likes déposés… sans parvenir à distinguer le sarcasme ou l’ironie, comme l’a vécu une employée en recevant 300 pages d’analyse automatisé de son profil par Fama – une pratique qui, en France, rappelle un arrêt de la Cour de cassation, devrait être très encadrée, notamment parce que cette collecte d’informations tiers peut-être déloyale par rapport à l’objet de leur mise en ligne.

Dans ces profilages, les individus sont réduits à des schémas psychologiques simplistes, provenant de personnes qui ont passé ces tests de personnalités et dont les systèmes conservent les profils de réseaux sociaux associés, pour les comparer à ceux de nouveaux candidats dont on ne connaît pas les résultats aux tests de personnalités afin de les déduire par comparaison. Cela conduit bien souvent à produire des corrélations basiques : les fans de Battlestar Galactica sont introvertis, ceux de Lady Gaga extravertis ! Dans son livre, Schellmann teste Humantic sur son profil Twitter et Linked-in. Sur le premier, elle apparaît « autoritaire, énergique et impulsive ». Sur le second, elle est « analytique, prudente et réfléchie » ! Sur le second analysé par Crystal, elle est dite « franche, assurée et agressive » ! Elle fait passer le test à ses étudiants en data science. Ils téléchargent chacun un même CV qui produit des résultats différents ! Contactées suite à ces contradictions, les plateformes ont beau jeu de répondre que l’échantillon est trop faible pour être représentatif… À nouveau, le déni des résultats spécifiques sert toujours à masquer les défaillances systémiques.

Nombre de systèmes usent et abusent de tests psychologiques consistant à faire sens des mots d’un CV. Pourtant, la recherche dans le domaine a montré depuis longtemps que les tests de personnalités peinent à mesurer la performance au travail et que celle-ci a d’ailleurs peu à voir avec la personnalité

À défaut de trouver des critères pertinents pour distinguer des candidats souvent assez proches les uns des autres, le recours à la pseudoscience permet d’imaginer des différences ou de recouvrir des discriminations bien réelles d’un vernis socio-culturel.

Schellmann a également testé des outils d’entretiens audio et vidéo comme Hirevue ou Retorio. Ce ne sont déjà plus des outils anodins. 60 des 100 plus grandes entreprises américaines utilisent Hirevue et quelque 50 000 candidats sont auditionnés chaque semaine par le système d’entretien automatisé développé par cette entreprise. Hirevue est peu disert sur le fonctionnement en boîte noire de son système. À ce qu’on en comprend, le système produit plusieurs scores qui tentent d’évaluer la capacité à négocier, à persuader… ou la stabilité émotionnelle. En tentant d’apprécier ce qui est dit et comment il est dit. Mais, comme toujours avec l’analyse émotionnelle, « les outils confondent la mesure avec son interprétation ». Ces outils innovants, démasqués par plusieurs enquêtes, ont pourtant peu à peu coupé certaines de leurs fonctionnalités. Retorio comme Hirevue n’utilisent plus la reconnaissance faciale ni l’analyse du ton de la voix pour analyser l’émotion des candidats, suite à des révélations sur leurs dysfonctionnements (un audit pour Hirevue et une enquête de journalistes allemands pour Retorio qui montrait que le score d’une même personne n’était pas le même selon la manière dont elle était habillée, si elle portait ou non des lunettes ou selon l’arrière-plan qu’elle utilisait). Cela n’empêche pas que leurs réponses, elles, soient scorées sur les mots utilisés selon leur « positivité » ou leur « négativité » (une analyse qui n’est pas sans poser problème non plus, puisque des termes très simples comme juif, féministe ou gay ne sont pas interprétés positivement par ces systèmes d’analyses de langue). Mais le problème n’est pas que là : la retranscription même des propos est parfois déficiente. S’amusant d’obtenir un bon score en anglais sur MyInterview, un système du même type, Schellmann se met alors à parler allemand, sa langue natale… avant de recevoir un transcript généré automatiquement qui transforme son Allemand en pur globish sans grand sens… tout en lui attribuant un très bon score ! De quoi interroger profondément les promesses de tous ces outils qui masquent sous des calculs complexes leurs profondes béances méthodologiques et leurs incapacités à produire autre chose que des leurres. Le problème, c’est que ces leurres peuvent tromper les entreprises qui achètent très chères ces solutions… mais ils trompent d’abord et avant tout les candidats, qui eux, n’ont pas beaucoup de modalités de recours, face à des systèmes bien plus aberrants que fiables.

Les outils automatisés pour l’embauche ne réduisent pas les biais du recrutement. Au mieux, ils les invisibilisent, au pire, ils les amplifient. Derrière leur vernis d’objectivité, ces systèmes produisent surtout une subjectivité cachée, à l’image des innombrables techniques de classements des employés qui ont de plus en plus cours dans les entreprises et que dénonce la journaliste de Marianne, Violaine des Courières, dans son livre, Le management totalitaire (Albin Michel, 2023). Pour assurer une compétition de plus en plus vive, explique-t-elle, on psychiatrise le monde du travail avec du profilage comportemental ou psychique. C’est un peu comme si la course au mérite n’était jamais totalement aboutie, qu’il fallait toujours l’améliorer jusqu’à parvenir à des critères qui ne regardent plus vraiment les compétences mais reposent sur des mesures de plus en plus absconses pour permettre de distinguer des candidats souvent très semblables.

Alors, comment améliorer les choses ?

Selon le chercheur Arvind Narayanan, l’embauche est l’un des pires secteurs pour utiliser l’IA, car ce que ces systèmes doivent prédire n’est pas clair. La productivité, la performance ou la qualité d’un employé ne sont pas des critères faciles à catégoriser. Apporter la preuve que leurs systèmes fonctionnent devrait être la première responsabilité des vendeurs de solutions, en publiant les études scientifiques indépendantes nécessaires, en laissant les entreprises les tester, et en permettant à ceux qui sont calculés d’obtenir des résultats et des explications sur la manière dont ils ont été calculés. Dans le domaine médical, les laboratoires doivent prouver que leurs médicaments fonctionnent avant de pouvoir être mis sur le marché, rappelle-t-il. Ce n’est pas le cas de ces systèmes d’évaluation des candidatures comme de bien des systèmes automatisés utilisés dans le domaine du travail. « Les essais contrôlés randomisés devraient être un standard dans tous les domaines de la prise de décision automatisée », plaide-t-il. Rappelant également la nécessité d’exiger la transparence des données d’entraînement des systèmes. Pas sûr cependant qu’inviter les acteurs du recrutement à inspecter, réformer et transformer leurs pratiques et leurs outils suffise, sans qu’une régulation et une responsabilité plus forte ne s’impose à eux. Sans sanction ni contrôle, les outils du recrutement automatisés ne se réformeront pas d’eux-mêmes. 

Mais encore faut-il pouvoir mieux mesurer et mettre en visibilité leurs défaillances. Pour cela, une autre piste consiste à ce que les recruteurs soient plus transparents sur leurs recrutements et leurs effets : qu’ils produisent des données sur les candidatures et les sélections auxquels ils procèdent, que ce soit sur le genre, l’âge, l’origine ethnique, géographique ou le niveau social. Pour faire reculer les discriminations invisibilisées et amplifiées, il faut que les entreprises soient contraintes à documenter les résultats de leurs sélections comparativement aux candidatures reçues et soient contraintes de documenter le niveau d’exposition et de publicisation de leurs annonces. C’est en ce sens qu’il faut lire les premiers efforts appelant à documenter l’égalité professionnelle… En France, l’index de l’égalité professionnelle n’observe que l’écart de rémunération des hommes et des femmes dans les entreprises de plus de 50 employés (mais sera suivi de la transparence des rémunérations et des salaires d’embauches qui doivent être intégrés par les entreprises d’ici juin 2026). Prolonger cet effort de transparence jusqu’aux systèmes de recrutement en demandant aux entreprises de produire des métriques sur leurs sélections à l’embauche et en automatisant les malus pour les entreprises dont les recrutements sont les plus discriminants par rapport au niveau de candidature reçu, pourrait être un puissant levier pour produire une transparence là où il n’y en a pas. Reste, comme le soulignait la CGT vis-à-vis d’un récent projet de loi contre la discrimination à l’embauche, la simple exposition des entreprises qui ont des pratiques discriminantes et les amendes ne suffiront pas à régler le problème des discriminations systématiques à l’embauche.

Reste que pour en prendre le chemin, il faudrait pourtant inverser la logique à l’œuvre aujourd’hui, où le contrôle s’exerce bien plus sur les candidats à l’emploi, notamment les chômeurs, que sur les pratiques des recruteurs. Celles-ci ne sont pourtant pas sans critiques, comme le soulignait une étude sur les offres d’emploi non pourvues menée par le Comité national CGT des travailleurs privés d’emploi et précaires, dénonçant la désorganisation des offres d’emploi, leur redondance voire le fait que nombres d’entre elles sont légalement problématiques.

Imposer la transparence et auditer les systèmes de recrutement, c’est la politique qu’a tenté d’initier la ville de New York l’année dernière… sans succès. Un article de recherche signé Lara Groves, Jacob Metcalf, Alayna Kennedy, Briana Vecchione et Andrew Strait explique justement pourquoi cette tentative de régulation n’a pas marché ! En juillet 2023, la ville de New York a mis en œuvre un règlement local imposant aux employeurs new-yorkais qui utilisent des outils de recrutement automatisés de les soumettre à des audits indépendants. Cet audit consiste en un audit de biais sur les discriminations raciales et de genres (mais pas sur l’âge ou le handicap) qui doit être publié sur le site web de l’employeur sous forme de ratio d’impact. Le ratio d’impact consiste à mesurer le taux de sélection des candidats selon les différents groupes démographiques, de genre et racial. L’idée est de mesurer la différence entre le niveau de sélection d’un groupe vis-à-vis de celui du groupe le plus sélectionné. Un ratio d’impact de 1,0 signifie que le taux de sélection est parfaitement égal entre les groupes, un ratio d’impact inférieur indique un résultat discriminatoire à l’encontre du groupe le moins sélectionné : plus le résultat est faible et plus il est discriminatoire, donc. Si le taux est inférieur à 0,8 selon les conventions juridiques américaines anti-discrimination, on estime qu’il y a une discrimination de fait (mais cette estimation tient plus d’un compromis arbitraire, car cette limite n’a jamais été concrètement questionnée ou évaluée). Enfin, même si elle prévoit des sanctions, la loi n’impose aucune obligation à un employeur qui découvrirait un impact discriminatoire, celui-ci devant uniquement publier un audit annuel de ses recrutements et de leurs effets.

Dans le tableau, plusieurs colonnes :* Race/Ethnicity Categories * Number Of Applicants * Scoring Rate * Impact Ratio Le contenu du tableau, ligne par ligne : * Hispanic or Latino - 470904 45% 0.89 * White 1457444 46% 0.9 * Black or African American 796447 48% 0.96 * Native Hawaiian or Pacific Islander 14904 45% 0.9 Asian 941554 50% 1.00 Native American or Alaska Native 29612 43% 0.85 Two or More Races 216700 46% 0.92

Dans le tableau ci-dessus, le ratio d’impact publié par une entreprise new-yorkaise montre par exemple que c’est la catégorie des populations autochtones qui sont le plus discriminées par le système de recrutement utilisé par l’entreprise. Image tirée de l’étude Auditing Work.

 

Les chercheurs ont constaté que très peu d’audits ont été rendus publics et aucun référentiel central n’a été créé par le Département de la protection des consommateurs et des travailleurs de la ville de New-York. Les chercheurs ont réussi à collecter seulement 19 audits, ce qui semble bien peu vu le nombre d’entreprises new-yorkaises. L’interview des cabinets chargés d’auditer les systèmes pointe que la loi proposée comportait trop d’imprécisions et laissait trop de marges de manœuvre aux employeurs (ceux-ci pouvant ne pas publier de rapport s’ils évaluaient que les systèmes automatisés n’aidaient pas « substantiellement » leur entreprise à embaucher). Pire, cette transparence ne permet pas vraiment aux candidats non recrutés et potentiellement discriminés d’agir à l’encontre des discriminations qu’ils auraient pu subir. Les chercheurs soulignent également la grande difficulté des auditeurs, à accéder aux données des services qu’utilisent les entreprises, pouvant rendre les audits peu fiables, voire tronqués. Les chercheurs en tirent quelques recommandations. La transparence (bien relative puisqu’elle se limitait ici à des tableaux de chiffres !) sur les discriminations à l’embauche ne suffit pas à produire du changement. Aucun candidat à l’embauche n’a semble-t-il tiré bénéfice de ces informations, et rien n’obligeait les entreprises prises en défaut à prendre des mesures correctives. Les chercheurs recommandent d’élargir le principe aux plateformes et fournisseurs d’outils de recrutement, que les documents de transparence soient collectés centralement et mieux accessibles aux candidats à l’emploi. Pour les chercheurs, les lois sur l’audit doivent également proposer des mesures et des définitions claires et précises. La loi doit également éclaircir les normes qui s’appliquent aux auditeurs plutôt que de leur laisser définir les bonnes pratiques. Enfin, la collecte de données doit être rendue plus fluide d’autant que l’enquête va un peu à l’encontre des principes de confidentialité. Elle doit permettre aux auditeurs de pouvoir mener des évaluations indépendantes, approfondies et significatives.

L’échec de la politique new-yorkaise montre en tout cas que la perspective d’un index de la discrimination automatisée à l’embauche doit être un peu plus organisé qu’il n’a été pour être rendu fonctionnel.

Passer des logiciels de recrutement… aux logiciels de candidature !

Quand on s’intéresse aux défaillances spécifiques et systémiques des outils de recrutement automatisé, le plus étonnant finalement, c’est de constater qu’en tant que société, nous soyons capables d’adopter des outils qui ne fonctionnent pas, des outils foncièrement contraire à l’éthique, profondément discriminants… sans provoquer de réaction de rejet forte du corps social. Cela est certainement lié au fait que les plus discriminés sont habitués à l’être. Ce n’est pas une raison pour s’y résigner ! La zone du recrutement reste un espace sans beaucoup de pouvoir pour les candidats. A ce jour, ils n’ont ni le droit de recevoir des explications ni celui de contester les décisions.

L’AI Act européen promet pourtant d’améliorer le niveau de responsabilité des systèmes de recrutement automatisés, puisque nombre d’entre eux devraient faire partie des systèmes à risque élevé. On verra à l’usage s’il fait progresser la transparence des systèmes, mais, sans règles plus claires, il est probable que les choses évoluent peu, autrement que sous les coups de scandales publics de dysfonctionnements visibles, comme cela a été le cas jusqu’à présent.

Peut-être que la solution pour contrer les défaillances fonctionnelles du recrutement consisterait plutôt à en inverser radicalement la logique à l’œuvre. Et c’est peut-être là que nous pourrions trouver les meilleures perspectives d’évolution.

Jusqu’à présent le monde du recrutement est façonné par une logique qui bénéficie totalement aux recruteurs. Ce n’est pas pour rien qu’on parle d’ailleurs de logiciels de recrutements. Alors peut-être que la solution consiste à passer aux logiciels de candidatures !  Et cette perspective, avec l’arrivée de l’IA générative et des agents intelligents est peut-être plus proche de se réaliser que jamais. Alors que les recruteurs disposent de tout pouvoir, il est possible que les candidats puissent en reconquérir. Comment ?

C’est la piste qu’explore le développeur Hussein Jundi sur Towards Data Science, en imaginant un robot logiciel capable de chercher des postes à sa place – ce qui ne serait déjà pas une mauvaise option tant la recherche sur les sites d’emploi est restée fruste et défaillante (oui, vous aussi, vous recevez des propositions de stages à Paris alors que vous avez une alerte pour des CDI à Nantes !). Mais on pourrait aller plus loin et imaginer un robot capable de candidater à notre place, d’adapter les termes de son CV aux mots clefs des annonces, de démultiplier de façon autonome ses candidatures en produisant des micro-variations sur les termes des compétences recherchées… Hussein Jundi nous suggère finalement une piste très stimulante pour finir de casser un recrutement déficient : doter les utilisateurs de robots capables d’adapter leurs candidatures aux systèmes de tris automatisés que les entreprises utilisent. Il ne propose rien d’autre que d’exploiter et d’amplifier les faiblesses du recrutement automatisé… pour le faire imploser.

Des agents robotiques pour candidater à notre place — Hussein Jundi.

 

Ce que dessine cette perspective, c’est que dans cette course sans fin à l’automatisation, il n’est pas sûr que les entreprises profitent de leurs avantages encore longtemps. À force de ne pas vouloir inspecter et réguler leurs pratiques, il est possible qu’à terme, les utilisateurs les subvertissent. Des logiciels capables de modifier votre profil Linked-in selon l’origine de celui qui le regarde. Des logiciels capables d’adapter vos CV aux annonces, de multiplier les candidatures à un même poste avec des variations de termes de son CV, des logiciels capables d’aller puiser dans les API des systèmes de recrutements pour informer des critères retenus… afin d’améliorer le matching. On pourrait même imaginer des systèmes capables d’inonder de candidatures les systèmes de recrutement pareils à des attaques de déni de services.

Incapable de réformer ses pratiques, le recrutement se moque des candidats. Il est temps que les candidats prennent les recruteurs à leur propre jeu et qu’ils retrouvent du pouvoir d’agir ! Chiche ? On lance une startup ! 😊

MAJ du 14/10/2024 : Les logiciels de candidatures, nous y sommes !

  • ✇Intelligence Artificielle – Framablog
  • FramIActu n°5 — La revue mensuelle sur l’actualité de l’IA
    Alors que les chaleurs estivales arrivent, l’actualité de l’Intelligence Artificielle s’est elle aussi réchauffée ce dernier mois avec des avancées techniques majeures. Préparez votre boisson préférée et installez-vous confortablement : c’est l’heure de la FramIActu ! Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0 Pourquoi est-ce que Grok se met à parler de « génocide blanc » ? Le 14 mai dernier, Grok, l

FramIActu n°5 — La revue mensuelle sur l’actualité de l’IA

Alors que les chaleurs estivales arrivent, l’actualité de l’Intelligence Artificielle s’est elle aussi réchauffée ce dernier mois avec des avancées techniques majeures.

Préparez votre boisson préférée et installez-vous confortablement : c’est l’heure de la FramIActu !

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Celui si est assis et semble parler.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

Pourquoi est-ce que Grok se met à parler de « génocide blanc » ?

Le 14 mai dernier, Grok, l’IA générative de xAI (société mère de X, ex-Twitter), a été détournée par un individu afin d’orienter les réponses de l’IA.
Celle-ci a, pendant plusieurs heures, parlé d’un génocide anti-blanc fictif qui aurait eu lieu en Afrique du Sud.
Outre le fait que l’événement ait surpris les utilisateurices de l’outil d’Elon Musk (patron de l’entreprise), celui-ci démontre qu’il est aujourd’hui possible d’orienter et d’influencer massivement les réponses des IA génératives.
Pour ce faire, la personne mal-intentionnée a exploité un outil fréquent des systèmes d’IA générative : le prompt système.

Plutôt que de ré-entraîner les IA génératives sur des éléments spécifiques ajoutés au fil de l’eau, les entreprises d’IA générative indiquent des instructions à l’Intelligence Artificielle au moment où l’utilisateurice fait sa propre demande. Cette instruction permet, par exemple, d’indiquer des règles de modération de contenu et de les adapter au fil de l’eau, en fonction des besoins.
Or, ces instructions ne sont pas communiquées publiquement. Nous ne savons jamais quand elles changent ni leur contenu exact.
C’est ce point qui a permis à l’attaquant·e de pouvoir modifier le prompt système discrètement.

xAI s’est engagé à publier les prompts systèmes sur la forge logicielle Github afin que tout le monde puisse consulter ceux-ci. Cela devrait aider à limiter une éventuelle récidive… même si rien ne peut le garantir.
Aussi, rien n’indique que la concurrence suivra ce mouvement et publiera aussi ses prompts systèmes.

Enfin, nous voyons encore une fois que les systèmes d’IA génératives sont plus complexes qu’ils n’y paraissent pour l’utilisateurice et manquent de transparence. Même si les prompts systèmes sont publiés, les données d’entraînement des IA génératives sont très opaques et nous manquons toujours énormément d’informations pour comprendre réellement ce qu’il se passe quand nous envoyons une instruction à une IA.

Est-ce que Google vient d’enterrer la recherche sur le web ?

Le 20 mai dernier, à l’occasion de la conférence Google I/O, Google a annoncé l’arrivée de nouvelles innovations biberonnées à l’Intelligence Artificielle.

Parmi celles-ci, vous avez peut-être déjà entendu parler de Veo 3, le nouveau générateur de vidéos ultra-réaliste de l’entreprise. Si, deux ans en arrière, nous pouvions nous moquer des images générées par IA, car nous pouvions facilement compter les 7 doigts présents sur les mains des personnes générées artificiellement, nous ne pouvons presque plus faire la différence entre un contenu réel et fictif aujourd’hui… et pas seulement pour les images mais pour les vidéos aussi.
Certain·es artistes s’amusent même à surfer sur la vague de popularité des vidéos générées par Veo 3 en indiquant que leurs propres clips vidéos, réalisés entièrement sans IA, seraient générés à l’aide de l’outil de Google.

Mais Veo 3 n’est pas la seule prouesse technique présentée par Google lors de l’événement. L’entreprise a dévoilé différentes nouveautés pour faire évoluer leur moteur de recherche et la manière dont les utilisateurices explorent (ou consomment) le Web.
Parmi les évolutions, et celle-ci est déjà accessible et utilisée par de nombreuses personnes, l’AI Overview, la fonctionnalité du moteur de recherche pour résumer l’essentiel d’un site web ou apporter une réponse à votre question… directement dans le moteur de recherche. Nous n’avons (ou n’aurons bientôt) plus besoin de sortir de Google pour obtenir réponse à nos questions.

Dans son article, Numerama rappelle :

Reste que Google n’a pas évoqué, encore, comment il compte rémunérer les contenus parcourus par son IA et répondre à la question que tout le monde se pose : à partir de quelles données l’IA répondra-t-elle quand aucun humain ne pourra être rémunéré pour les produire ?

Autre évolution importante et uniquement disponible aux états-unis pour le moment, les achats par IA.
Cette fonctionnalité nous permet de demander à l’IA de chiner pour nous sur les sites d’achats en fonction de critères choisis puis nous permet d’automatiser entièrement le processus d’achat via Google Pay.
Cette fonctionnalité, nommée « Buy for me » (« Achète pour moi » en français), permet de définir le prix auquel nous souhaitons acheter un article et le fera automatiquement dès que celui-ci sera trouvé.

Enfin, la dernière nouveauté rapportée dans l’article de Numerama n’est pas des moindres : celle-ci s’appelle sobrement AI Mode.
L’outil AI Mode permet, entre autres, de faire des « recherches profondes ».
Dans l’exemple présenté par Google, l’utilisateurice demande à l’
AI Mode de trouver deux billets pour un match de baseball avec des places situées vers le bas. L’outil essaye différents mots-clés pour sa recherche, puis compare 15 sites afin de trouver les places souhaitées. Les options trouvées sont alors triées du moins cher au plus cher avec une description de la vue obtenue sur le terrain à partir des sièges…

En quelques secondes, l’outil explore pour nous des dizaines de sites et en extrait les éléments qui pourraient nous intéresser. C’est (techniquement) absolument bluffant.
Pour réaliser toutes ces opérations, nous pouvons aujourd’hui imaginer
(bien que de manière extrêmement floue) la quantité d’énergie nécessaire à avoir la qualité de ces résultats de recherche.

Google détient ~90 % du marché mondial de la recherche en ligne. Cela représente 5 billions (5 000 000 000 000) de requêtes annuelles soit ~14 milliards de requêtes journalières.
Si Google décide de banaliser l’AI Mode et de l’intégrer directement dans son moteur de recherche, quelle quantité d’énergie sera nécessaire pour permettre ces 14 millions de requêtes ? Et même si grâce à cette nouvelle manière de rechercher celles-ci étaient réduites à (un chiffre totalement au pif) 5 millions de requêtes journalières, l’énergie requise semble rester totalement démesurée.

Aussi, nous en parlions dans une précédente FramIActu, mais le Web subit déjà aujourd’hui une pression monstre liée au « pillage » permanent de son contenu par les robots indexeurs des IA. Quels efforts les petits sites vont-ils encore devoir réaliser pour faire face à une augmentation drastique du trafic automatisé sur leur infrastructure ? Pourront-ils seulement y parvenir ?

Ici encore, nous observons un des mouvements récents de Google : le lancement d’une application mobile pour tester des modèles d’IA fonctionnant uniquement sur le téléphone de l’utilisateurice.

Si cela peut sembler anodin, il nous a semblé important de faire le lien avec la news citée plus haut.
Il paraît évident que Google a besoin de mettre en place des solutions pour réduire largement les coûts de l’inférence (en gros, le coût lié à l’utilisation de l’IA).

Un des moyens de réduire ces coûts est de déporter le travail de l’inférence vers la machine de l’utilisateurice, ici le smartphone.

Ainsi, en proposant une application permettant aux utilisateurices de tester les différents modèles d’IA, Google peut collecter de nombreuses données sur les capacités des smartphones actuels à faire tourner des modèles d’IA plus ou moins puissants.

Bien sûr, rien ne prouve que Google ira dans ce sens, cependant, il ne nous paraît pas totalement farfelu d’imaginer Google reproduire, dans un futur plus ou moins proche, une stratégie similaire à celle de Microsoft avec Windows 11 : forcer les utilisateurices à acheter du matériel neuf pour faire tourner l’IA dessus, accélérant de fait l’obsolescence des périphériques incompatibles.

Finalement, ces deux articles traitant des avancées de Google dans le domaine soulignent que Google tend à inverser le rapport de force avec OpenAI (l’entreprise derrière ChatGPT, la plus en vogue actuellement). Les futurs changements que Google apporteront seront sans doute déterminants dans l’évolution de nos usages.

Mème : un homme tagué « #LesGENS » regarde d'un œil intéressé une femme taguée « Google », pendant que sa compagne taguée « OpenAI » lui lance un regard noir.

Le rapport de force entre OpenAI et Google.
Généré avec https://framamemes.org – CC-0

OpenAI rachète l’entreprise de matériel de Jony Ivy

En mai dernier, nous apprenions que OpenAI a racheté l’entreprise io, spécialisée dans la conception de matériel informatique fondée par l’ancien designer en chef d’Apple, Jony Ive.
Ive ne rejoindra pas OpenAI et sa compagnie spécialisée dans le design, LoveFrom, restera indépendant, mais elle prendra désormais en charge l’ensemble de la conception des designs pour OpenAI, dont ses logiciels.

À travers l’article de The Verge, nous découvrons que le travail sur de nouveaux appareils, dédiés à l’IA, sont en phase de conception. Plusieurs pistes ont été considérées, comme des écouteurs ou des appareils disposant de caméras, mais ce ne sera pas des lunettes type Google Glass.
L’appareil rentrerait dans une poche, « tiendrait compte du contexte » et ne posséderait pas d’écran.

Nous nous questionnons particulièrement sur la notion de « tenir compte du contexte ». Qu’est-ce que cela signifiera concrètement ? Serait-ce encore un dispositif qui « écoutera » ou « observera » en permanence, sous prétexte de pouvoir nous répondre immédiatement quel temps il fera demain quand nous poserons la question à nos proches ?
Pour le moment, nous n’en savons trop rien.

Il est difficile de dire si le pari (à 6.5 milliards de dollars, tout de même) de OpenAI portera ses fruits, cependant, si OpenAI affirme que l’objectif n’est pas de remplacer le smartphone, il semble y avoir une réelle volonté à suivre la piste de celui-ci : construire un appareil ergonomique qui s’impose comme un nouveau besoin pour la société. Et dans le même temps, imposer toujours plus l’IA dans nos quotidiens.

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Accroché à son aile gauche, un ballon de baudruche.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

C’est tout pour cette FramIActu ! Nous espérons que vous l’avez appréciée !

Vous pouvez poursuivre votre lecture sur le sujet en consultant les articles de notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !

Si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !
Pour nous soutenir et si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié  !

Enfin, notez que le rythme de parution de la FramIActu risque de changer dans les prochains mois. Nous constatons en effet une diminution du rythme de parutions d’informations « intéressante pour le grand public » sur l’IA. Il y a certes des avancées techniques, et toujours énormément de recherches sur le sujet… mais nous percevons tout de même une forme de baisse de régime. Attendez-vous donc à d’éventuels changements autour de la FramIActu pour refléter tout ça !

À bientôt ! 👋

❌
❌