Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Argh, le Ministère de l’Éducation Nationale a encore choisi Microsoft !

C’est vrai, et plusieurs articles s’en sont fait l’écho dont un, récent, de Médiapart.

Dans un contexte géopolitique où l’autonomie stratégique (ou la souveraineté numérique) est maintenant un sujet, c’est évidemment regrettable. D’autant qu’en parallèle, on entend parler d’initiatives comme NIRD qui adressent avec efficacité les enjeux associés. Mais il faut choisir ses combats, et savoir prioriser ses choix.

Quels sont les enjeux principaux liés aux choix d’un ministère aussi important que celui de l’Éducation Nationale ?

  • ne pas se rendre dépendant d’acteurs privés et étrangers ;
  • assurer la confidentialité des échanges ;
  • protéger les données personnelles ;
  • dépenser au mieux l’argent du contribuable ;
  • ne pas inscrire dans l’esprit des élèves que PC = Microsoft et smartphone = Google.

La première chose à savoir c’est que, si le ministère s’équipe pour ses besoins propres, il n’équipe pas les établissement scolaires. Écoles primaires et maternelles sont équipées par les communes, les collèges sont équipés par les conseils départementaux et les lycées sont équipés par les conseils régionaux. Et cela concerne aussi bien les élèves que les enseignants.

À cet égard, il n’est peut-être pas inintéressant de se pencher sur les chiffres. De quoi parle-t-on quand on parle de « Ministère de l’Éducation Nationale » ? Combien de personnels concernés ?

Si on exclut les personnels enseignants, environ 350 000 personnes travaillent pour le ministère. Ce sont celles qui sont principalement concernés par l’utilisation des outils Microsoft.

Les enseignants sont autour de 850 000 (710 000 dans le public, et 140 000 dans le privé), et les élèves sont 12,6 millions.

En ne prenant pas en compte les établissements privés sous contrat, le nombre total de personnes qui sont concernées par l’équipement en informatique de l’éducation nationale est donc d’environ 13,7 millions (12,6 millions d’élèves + 710 000 enseignants + 350 000 autres personnels)

Parmi celles-ci, 13,3 millions de personnes sont utilisatrices de matériels et de solutions logicielles proposés par les collectivités, soit 97% de la population concernée par l’éducation nationale (élèves et enseignants). Le choix du ministère pour ses besoins propres ne concerne donc que 3% des personnes équipées.

Cela reste regrettable, d’autant que les échanges entre administration et structures d’enseignements sont nombreux. Cela pourrait compliquer le travail avec les établissements qui font le choix de s’équiper de solutions libres et gratuites (NIRD) ou qui sont équipés par des collectivités qui font aussi un choix de ce type. Mais, d’expérience, cesproblèmes de compatibilité sont finalement plutôt rares, et n’empêchent pas les établissements de fonctionner.

Et puis le signal donné par le ministère peut sembler contradictoire, certains se plaignant d’un « faites ce que je dis, pas ce que je fais », qu’il est bien difficile de ne pas entendre. Les choix réalisés par les décideurs ne sont pas sans influence sur les discours tenus dans certains établissements.

Mais on peut aussi imaginer que, si la grand majorité des établissements faisait le choix d’un numérique éthique et durable, cela influencerait sur les choix faits au niveau « central ». Nous sommes dans un système : d’un côté l’autorité, de l’autre le nombre.

En conclusion :

  • Quand on soutient une démarche telle que NIRD, on adresse 70% des personnels de l’éducation nationale et 97% de l’ensemble des personnes concernées par leur équipement informatique. On éduque également nos enfants à l’utilisation d’outils qui n’oblitèrent pas leurs libertés.

  • Quand on proteste contre un nouveau contrat signé (ou prolongé) avec Microsoft, on adresse les 3% restants (et 30% des personnels).

Au regard des enjeux à adresser, il me semblait important de rappeler ces chiffres.

Soutenons les initiatives des collectivités et établissements qui se posent les bonnes questions, et n’exagérons pas l’impact de décisions qui, finalement, ne concernent que quelques centaines de milliers d’agents et assez peu nos enfants, et donc assez peu l’avenir.

Merci à Stéphane Paillet et Thierry Joffredo qui, par nos échanges sur Mastodon, ont alimenté cette réflexion.


Image d’illustration : Photo de Vadim Bogulov sur Unsplash

Sources ouvertes et décentralisation : deux axes stratégiques pour l’Europe

Les sources ouvertes et la décentralisation constituent deux axes stratégiques complémentaires pour l’Europe afin de renforcer son autonomie technologique tout en favorisant une souveraineté numérique ouverte et collaborative. Les logiciels libres, le principe de fédération tel qu’illustré par ActivityPub et le Fediverse, ainsi que les approches décentralisées permettent d’atteindre cette autonomie sans céder au souverainisme isolationniste, en misant sur la transparence, l’interopérabilité et la coopération transfrontalière.

Une autonomie pragmatique par l’open source et la décentralisation

Les logiciels libres représentent une opportunité stratégique pour l’Europe en lui permettant d’échapper à la dépendance envers des fournisseurs étrangers pour ses infrastructures critiques. Leur code accessible autorise les États et organisations à développer, modifier et maintenir des versions souveraines, limitant les vulnérabilités liées à des décisions unilatérales ou à des interruptions de service. La transparence du code facilite les audits indépendants, garantissant une conformité aux normes européennes comme le RGPD et une détection proactive des failles de sécurité, tout en favorisant une cybersécurité mutualisée au niveau continental.

Cette approche collaborative stimule l’innovation décentralisée, permettant aux développeurs européens de réutiliser et d’améliorer des briques logicielles existantes sans barrières propriétaires. En hébergeant localement ces solutions, l’Europe assure le contrôle de ses données sensibles sous juridiction européenne, évitant les transferts vers des clouds extra-continentaux, en alignement avec les politiques nationales promouvant l’open source dans les administrations publiques.

Une autonomie sans autarcie grâce à l’ouverture collaborative

Les logiciels libres incarnent une autonomie pragmatique où l’accès libre au code confère un contrôle technique sans sombrer dans l’autarcie. Contrairement au souverainisme protectionniste, qui érige des barrières, l’open source repose sur des licences permissives autorisant la modification et la redistribution mondiale, évitant la dépendance à des fournisseurs propriétaires tout en maintenant une porosité constructive avec l’écosystème global. La transparence permet des adaptations locales et une résilience technique – par exemple, via la réutilisabilité de briques logicielles – tout en prévenant les risques de « kill switch » (cf. ce qui s’est produit à la Cour Pénale Internationale) imposés par des géants extra-européens, sans exclure les contributions externes.

L’open source excelle dans la coopération par sa nature collaborative : communautés de développeurs, administrations et entreprises partagent innovations via des dépôts publics comme GitLab. En Europe, cela se traduit par des initiatives mutualisées comme l’European Open-Source Digital Ecosystem, où les États membres co-investissent dans des infrastructures communes, stimulant l’innovation décentralisée sans cloisonnement national. Au niveau mondial, il intègre des contributions diverses dans une gouvernance communautaire décentralisée, permettant à l’Europe d’influencer les standards via le W3C ou la Linux Foundation, renforçant sa position par la force du réseau plutôt que par exclusion.

La fédération comme modèle décentralisé d’interopérabilité

Le principe de fédération, illustré par le protocole ActivityPub et le Fediverse, complète l’open source en décentralisant le contrôle des données et des services, favorisant l’interopérabilité et atténuant la dépendance à un fournisseur unique. Cette architecture distribuée répartit les services sur de multiples instances indépendantes, limitant les risques de défaillance ou de décision unilatérale d’un acteur centralisé et garantissant une continuité de service. Les acteurs locaux reprennent ainsi le contrôle des données et des règles de modération, tandis que les utilisateurs sélectionnent des instances conformes aux réglementations locales comme le RGPD.

ActivityPub standardise les échanges entre serveurs, autorisant la publication sur une plateforme tout en assurant sa visibilité sur d’autres, sans confinement propriétaire. Chaque instance applique ses propres règles de modération tout en restant connectée au réseau global, conférant aux communautés une responsabilité locale dans un cadre participatif élargi. La fédération confère une résilience accrue, les instances restantes relayant contenus et interactions en cas de disparition d’une entité, réduisant la dépendance à une structure unique.

L’efficacité d’un tel positionnement stratégique doit prendre appui sur un financement public durable, une coordination transfrontalière des projets ambitieux et une priorisation dans les marchés publics et privés sous peine, pour l’open source et la fédération, de demeurer marginaux face aux géants propriétaires. Cette résolution passe par une gouvernance européenne renforcée, intégrant l’open source dans des programmes comme les feuilles de route thématiques sur le cloud ouvert, pour structurer un écosystème résilient contre la domination américaine et chinoise.

L’infrastructure, socle indispensable d’une autonomie effective

Les infrastructures réseau souveraines émergent comme un pilier indispensable pour concrétiser l’autonomie technologique européenne. Des réseaux physiques et virtuels contrôlés par des opérateurs européens, tels que des câbles sous-marins transcontinentaux ou des backbones IP résilients, devraient garantir une connectivité indépendante des géants américains comme Google ou Amazon. Cette maîtrise des flux de données éviterait les points de strangulation géopolitiques et permettraient une latence optimisée pour les services critiques. Sans ces fondations matérielles, les logiciels libres et les architectures fédérées restent tributaires d’infrastructures étrangères, compromettant la résilience globale.

L’hébergement souverain constitue l’autre condition sine qua non, en assurant que les données européennes soient stockées et traitées sous juridiction continentale. Des data centers labellisés « cloud de confiance » (SecNumCloud, en France) offrent une alternative aux hyperscalers extra-européens, respectant scrupuleusement le RGPD et les exigences de souveraineté sectorielle (santé, défense). Cette localisation physique renforce la protection contre les réquisitions légales étrangères et facilite les audits de conformité, tout en stimulant l’économie locale via des acteurs comme OVHcloud ou Scaleway. L’interconnexion de ces hébergements avec des réseaux fédérés amplifierait l’effet multiplicateur et permettrait de tendre vers un objectif devenu nécessaire : rendre l’Europe autonome sans isolationnisme.


Image d’illustration : photo de Brian Wangenheim sur Unsplash

On fait le bilan…

Le passage au libre permet de disposer d’une informatique efficace, stable, rapide, sûre et économique. Et ce n’est pas une vue de l’esprit : à Échirolles, nous l’avons fait en un mandat (6 ans, donc).

Quelques réalisations :

✅ Côté réseau : nos propres adresses IP, nos routeurs BGP, un cœur de réseau refait à neuf.

✅ Côté infrastructure : du Single Sign-On (LemonLDAP-ng), un passage de VMWare à Proxmox pour la virtualisation des serveurs (et une infrastructure doublée), une VOIP et des interphones libérés.

✅ Côté environnement : une réduction drastique de la consommation électrique et des achats de matériel.

✅ Côté sécurité : un PFSense, des Vlans revus, des DMZ différenciées par usage, des données protégées, hébergées sur nos serveurs.

✅ Côté bureautique : des outils libres, robustes et auto-hébergés. Un passage à Linux qui nous a protégé du scandale écologique Windows 11.

✅ Côté formation : 39 sessions de formation aux outils numériques.

✅ Côté partenaires : la création d’un événement (AlpOSS) et de deux réseaux (Alpes Numérique Libre et France Numérique Libre).

✅ Côté inclusion : des médiateurs numériques qui interviennent partout sur le territoire (maisons des habitants, maison des associations, etc.)

✅ Côté communication : un serveur Peertube, la diffusion en direct du conseil municipal avec 100% de logiciels libres, des écrans d’affichages municipaux libres, des kiosques en libre accès, l’équipement en visioconférence de salles de réunions.

✅ Côté équipe : un niveau technique impressionnant, une équipe féminisée et inclusive.

…et j’en oublie forcément.

→ Le résultat, 5 après le lancement du schéma directeur « Échirolles Numérique Libre » ?

👉 Moyennant une seule authentification, depuis la maison et sans VPN j’accède, via notre Intranet (un WordPress créé en interne et synchronisé avec notre serveur de fichiers), aux outils qui me permettent de travailler en transversalité… et ça prend 5 secondes.

👉 Des coûts maîtrisés (2,5 millions d’économies en coûts de fonctionnement !).

👉 Un seul incident de sécurité, réglé en une heure.

👉 Plus aucune panne.

Ce mandat s’achève, et quand je regarde en arrière, je mesure l’extraordinaire travail réalisé par la Direction de la Stratégie et de la Culture Numérique de la ville d’Échirolles. Il reste du boulot, évidemment, mais bravo à toutes et tous : ce que vous avez accompli est impressionnant.

Et puis un grand merci à notre élu, Aurélien Farge, qui a initié cette révolution numérique et qui aura vaillamment porté ces projets tout au long du mandat. Un travail immense, là aussi ! 👍

Joyeuses fêtes ! ❤

Quelques ressources :


Image d’illustration : Photo de Annie Spratt sur Unsplash

Service public et logiciels libres : le verre à moitié plein

On a tendance à beaucoup commenter les décisions de ministères qui font le choix de suites bureautiques propriétaires et se préoccupent peu de souveraineté pour leurs propres services. Pourtant, et même s’ils sont peu diserts sur le sujet, plusieurs services de l’État français ont fait le choix d’une mise en œuvre de logiciels libres, et certains depuis bien longtemps.

La Gendarmerie Nationale a fait le choix de la suite bureautique OpenOffice (la référence à l’époque) dès 2005, et entamé sa migration vers Ubuntu à partir de 2008. Même si les prises de paroles sur le sujet n’ont pas été nombreuses (en regard de l’importance du projet), cet exemple est probablement l’un des plus connus dans la communauté, pour le nombre impressionnant de postes clients migrés sous Linux (plus de 70 000).

Au Ministère de l’Intérieur, dans un contexte de rapprochement entre la Police Nationale et la Gendarmerie, on s’interroge. Dès 2012, une étude notable, réalisée par ITEMS International avait pour objectif d’identifier précisément les secteurs logiciels du ministère où l’usage des licences libres permettrait de réaliser des économies, ainsi que les conditions juridiques nécessaires pour y parvenir. Cette étude avait examiné les économies sur le coût global de possession (et pas seulement sur le coût des licences).

Depuis longtemps, la DGFiP (Direction générale des Finances publiques) a fait le choix d’une suite bureautique open source, avec l’adoption progressive de solutions comme OpenOffice puis LibreOffice sur les postes de travail de ses agents. Le groupe de travail MIMO (« Mutualisation Interministérielle pour une suite bureautique Office »), constitué en 2005, a piloté l’intégration d’OpenOffice puis de LibreOffice. Linux est utilisé sur la grande majorité des serveurs. Nextcloud (pour la partie cloud) et Collabora (pour l’édition collaborative) permettent le travail en transversalité. Jitsi et BigBlueButton (visioconférence) ou OpenProject (gestion de projet) sont également disponibles.

Dépendante du même ministère, La DGDDI (Direction générale des Douanes et Droits indirects) a adopté une suite bureautique libre depuis 2006. Elle participe activement au socle interministériel de logiciels libres (SILL), qui préconise une grande diversité de logiciels ouverts pour différents usages administratifs.

À l’Éducation Nationale, on note une orientation de plus en plus nette dans la mise en œuvre de logiciels libres dans les établissements scolaires même si des contrats récents, signés avec Microsoft, on beaucoup fait parler d’eux. Les déclaration de la Direction du Numérique pour l’Éducation (DNE) sur le sujet ont été nombreuses, et montrent une prise en compte progressive des enjeux de souveraineté numérique. Une forge logicielle existe depuis plusieurs années, qui favorise l’émergence de solutions open source, pour et par les enseignants. Enfin un portail d’applications, disponible ici, permet à l’ensemble des personnels de bénéficier de solutions libres.

Le Ministère de l’Agriculture, de l’Agroalimentaire et de la Forêt (MAAF) mène depuis plus de 10 ans une stratégie technique intégrant un large usage des logiciels libres. Dès 2008, il a adopté la suite bureautique OpenOffice (puis LibreOffice) pour ses postes de travail et généralisé l’usage du format ouvert ODF (OpenDocument). Le ministère utilise également des logiciels libres pour ses systèmes d’infrastructure, tels que Red Hat pour les systèmes d’exploitation serveurs, ainsi que des outils de gestion électronique de documents (Nuxeo), de workflow (BonitaSoft) et de supervision (Nagios). Par ailleurs, le ministère met à disposition sous licence libre CeCill des composants logiciels dans le domaine de l’information géographique.

Plusieurs préfectures ont aussi fait le choix de solutions libres. On peut citer la préfecture des Landes, assistée par l’ALPI (Agence Landaise pour l’Informatique), celle de l’Isère (qui utilise LibreOffice depuis plus de 10 ans), de l’Aube (suite bureautique et gestion électorale), etc.

Dans les collectivités territoriales, la dynamique autour de solutions libres, ouvertes et souveraines, s’organise. Le collectif France Numérique Libre réunit plus de 300 acteurs de cette transition partout en France (et pas seulement sur le territoire métropolitain), et permet l’émergence d’un véritable réseau autour de ces problématiques.

Au niveau européen, la position du service public dans la mise en œuvre des logiciels libres est reconnue. Un pôle d’expertise dédié aux logiciels libres a été créé à l’intérieur de la DINUM (Direction Interministérielle du Numérique) pour animer et structurer cet écosystème dans le secteur public, y compris avec les collectivités territoriales. Le gouvernement français encourage l’ouverture des codes sources et développe des outils libres pour renforcer la transformation numérique du service public, tout en mettant l’accent sur la mutualisation des compétences et la durabilité des solutions libres.

la France fait figure d’exemple dans l’usage du logiciel libre et l’ouverture des codes. La majorité des États membres de l’Union Européenne ont des politiques formelles sur l’open source, notamment dans le cadre des marchés publics, mais ces politiques sont souvent hétérogènes et parfois infructueuses faute d’ancrage culturel solide dans les administrations et de directives précises. La France, en revanche, bénéficie d’une tradition forte de promotion des logiciels libres dans le secteur public, soutenue par des mesures légales et stratégiques datant des années 2000 et renforcées progressivement (circulaire de 2012, Loi pour une République Numérique de 2016).

L’évolution de la situation géopolitique internationale est à l’origine d’une prise de conscience (récente, mais réelle) des problématiques de souveraineté numérique. Plusieurs responsable politiques se sont exprimés sur ces sujets ces derniers mois dans le cadre, par exemple, de l’enquête sénatoriale sur la commande publique. Les choses pourraient changer plus vite et de façon plus massive mais, dans ce contexte particulier, il me semblait intéressant, pour une fois, de mettre en avant les progrès réalisés dans le domaine.


Image d’illustration : Manu Schwendener sur Unsplash

Indépendance des organisations politiques et syndicales en France

Jusqu’à quel point les structures politiques et syndicales français sont-elles dépendantes de pays étrangers pour leur communication ?

En analysant leurs sites web, j’ai tenté d’identifier les dépendances de chaque organisation selon trois thèmes : l’hébergement du site web officiel, le relais de messagerie pour le nom de domaine correspondant, et les réseaux sociaux mis en avant sur la page principale.

Le niveau de dépendance des partis politiques est généralement élevé. Les syndicats semblent plus sensibles à la problématique de l’autonomie numérique : la plupart des sites et des messageries sont soit auto-hébergés, soit hébergés en France.

Pour les réseaux sociaux, en revanche, les choses sont plus compliquées. Quelques syndicats indiquent des comptes officiels sur des instances Mastodon en France, mais aucun parti politique. Pour le reste, les réseaux américains sont évidemment très présents.


Sites Web des principaux partis politiques en France

Horizons (https://horizonsleparti.fr)
🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇦🇪

  • Hébergement : Clever Cloud (🇫🇷)
  • E-mails : Google (🇺🇸)
  • Réseaux sociaux : X (🇺🇸), Instagram (🇺🇸), Facebook (🇺🇸), LinkedIn (🇺🇸), Youtube (🇺🇸), Telegram (🇦🇪)

La France Insoumise (https://lafranceinsoumise.fr)
🇫🇷🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇦🇪

  • Hébergement : Scaleway (🇫🇷)
  • E-mails : Gandi (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), X (🇺🇸), Instagram (🇺🇸), Youtube (🇺🇸), Telegram (🇦🇪), Twitch (🇺🇸)

Les Écologistes (https://lesecologistes.fr)
🇫🇷🇫🇷🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸

  • Hébergement : OpenAction (🇫🇷)
  • E-mails : OVH (🇫🇷), Google (🇺🇸)
  • Réseaux sociaux : Facebook (🇺🇸), X (🇺🇸), Instagram (🇺🇸), Youtube (🇺🇸), Bluesky (🇺🇸), Mastodon (🇫🇷)

Les Républicains (https://republicains.fr)
🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸

  • Hébergement : Automattic (🇺🇸)
  • E-mails : Scaleway (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), X (🇺🇸), Youtube (🇺🇸), Instagram (🇺🇸), LinkedIn (🇺🇸), Snapchat (🇺🇸)

Parti Communiste Français (https://www.pcf.fr)
🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇨🇳

  • Hébergement : Nation Builder (🇺🇸)
  • E-mails : Octopuce (🇫🇷)
  • Réseaux sociaux : Tiktok (🇨🇳), Youtube (🇺🇸), Facebook (🇺🇸), X (🇺🇸), Instagram (🇺🇸)

Parti Socialiste (https://www.parti-socialiste.fr)
🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸

  • Hébergement : Nation Builder (🇺🇸)
  • E-mails : Google (🇺🇸)
  • Réseaux sociaux : Whatsapp (🇺🇸), Facebook (🇺🇸), X (🇺🇸)

Rassemblement National (https://rassemblementnational.fr)
🇫🇷🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇨🇳🇦🇪

  • Hébergement : OVH (🇫🇷)
  • E-mails : OVH (🇫🇷)
  • Réseaux sociaux : X (🇺🇸), Facebook (🇺🇸), Youtube (🇺🇸), Instagram (🇺🇸), Telegram (🇦🇪), Tiktok (🇨🇳)

Renaissance (https://parti-renaissance.fr)
🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇨🇳🇦🇪

  • Hébergement : Google Cloud (🇺🇸)
  • E-mails : Microsoft (🇺🇸)
  • Réseaux sociaux : Telegram (🇦🇪), X (🇺🇸), Instagram (🇺🇸), Facebook (🇺🇸), Tiktok (🇨🇳), Youtube (🇺🇸), LinkedIn (🇺🇸)

UDR (https://www.udr.fr)
🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇨🇳

  • Hébergement : Nation Builder (🇺🇸)
  • E-mails : OVH (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), X (🇺🇸), Youtube (🇺🇸), Tiktok (🇨🇳), Instagram (🇺🇸)

Sites Web des principaux syndicats en France

CAT (https://www.c-a-t.fr)
🇫🇷🇫🇷🇺🇸🇺🇸🇺🇸

  • Hébergeur : OVH (🇫🇷)
  • E-mails : OVH (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), Instagram (🇺🇸), LinkedIn (🇺🇸)

CFDT (https://www.cfdt.fr)
🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇨🇳

  • Hébergeur : Amazon (🇺🇸)
  • E-mails : BI (🇫🇷)
  • Réseaux sociaux : LinkedIn (🇺🇸), Bluesky (🇺🇸), Facebook (🇺🇸), Youtube (🇺🇸), Threads (🇺🇸), Tiktok (🇨🇳), Instagram (🇺🇸)

CFE-CGC (https://www.cfecgc.org)
🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸

  • Hébergeur : Izencia (🇫🇷)
  • E-mails : Microsoft (🇺🇸)
  • Réseaux sociaux : Facebook (🇺🇸), X (🇺🇸), Instagram (🇺🇸), Youtube (🇺🇸), LinkedIn (🇺🇸), Bluesky (🇺🇸), Threads (🇺🇸)

CFTC (https://www.cftc.fr)
🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸

  • Hébergeur : CFTC (🇫🇷)
  • E-mails : Google (🇺🇸)
  • Réseaux sociaux : LinkedIn (🇺🇸), Facebook (🇺🇸), X (🇺🇸), Instagram (🇺🇸), Youtube (🇺🇸)

CGT (https://www.cgt.fr)
🇫🇷🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇦🇪

  • Hébergeur : Evolix (🇫🇷)
  • E-mails : Scaleway (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), X (🇺🇸), Youtube (🇺🇸), Instagram (🇺🇸), Twitch (🇺🇸), Telegram (🇦🇪), LinkedIn (🇺🇸)

CNT (https://www.cnt-f.org) (site en maintenance)
🇫🇷🇫🇷🇫🇷🇺🇸

  • Hébergeur : Globenet (🇫🇷)
  • E-mails : Globenet (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), Mastodon (🇫🇷), ? (site en maintenance)

FO (https://www.force-ouvriere.fr)
🇫🇷🇫🇷🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸

  • Hébergeur : Nursit (🇫🇷)
  • E-mails : Alinto (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), X (🇺🇸), Mastodon (🇫🇷), Youtube (🇺🇸), Flickr (🇺🇸)

SNJ (https://www.snj.fr)
🇫🇷🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸

  • Hébergeur : HaiSoft (🇫🇷)
  • E-mails : HaiSoft (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), X (🇺🇸), LinkedIn (🇺🇸), Instagram (🇺🇸)

Solidaires (https://solidaires.org)
🇫🇷🇫🇷🇫🇷🇺🇸🇺🇸🇺🇸🇨🇳🇦🇪

  • Hébergeur : Globenet (🇫🇷)
  • E-mails : Globenet (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), X (🇺🇸), Instagram (🇺🇸), Telegram (🇦🇪), Tiktok (🇨🇳), Mastodon (🇫🇷)

UNSA (https://www.unsa.org)
🇫🇷🇫🇷🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸🇺🇸

  • Hébergeur : UNSA (🇫🇷)
  • E-mails : Serinya Telecom/Gandi (🇫🇷)
  • Réseaux sociaux : Facebook (🇺🇸), Bluesky (🇺🇸), X (🇺🇸), Instagram (🇺🇸), LinkedIn (🇺🇸), Youtube (🇺🇸)

Image d’illustration : Aaron Burson sur Unsplash

L’université d’Utrecht aux Pays-Bas, appelle à une transition vers l’autonomie numérique

Cet article est une traduction en français d’une lettre ouverte publiée le 25 mars 2025 sur le site de l’université d’Utrecht, aux Pays-Bas.


Nous, soussignés, exprimons notre inquiétude quant à la dépendance croissante de l’université d’Utrecht à l’égard des services des grandes entreprises technologiques (en particulier Microsoft, Google et Amazon) pour nos activités de recherche, d’enseignement et d’administration. Il y a plusieurs années, les recteurs des universités néerlandaises ont collectivement et sagement mis en garde contre ce phénomène. Depuis lors, il ne s’est pas passé grand-chose ; pire, presque toutes les universités néerlandaises ont migré vers les services en nuage des Big Tech, au détriment de nos centres informatiques gérés en interne.

L’Université d’Utrecht est actuellement largement dépendante de Microsoft Office 365 pour l’ensemble de notre travail de bureau : envoi de courriels, rédaction de documents, création de présentations, appels vidéo, partage de documents et stockage de nos données. D’autres dépendances importantes existent pour plusieurs systèmes clés de notre université. Cela crée de multiples vulnérabilités, en particulier à la lumière d’une situation géopolitique qui évolue rapidement.

Tout d’abord, il existe des risques importants en matière de sécurité et de respect de la vie privée. L’accès aux services adoptés repose sur des services d’authentification qui dépendent de connexions transatlantiques, lesquelles peuvent être coupées au gré des caprices du gouvernement américain. Dans une telle situation, toute la recherche et l’enseignement seraient immédiatement interrompus. Nous perdons également le contrôle de nos données. Microsoft et d’autres entreprises dont nous utilisons les services peuvent être obligées par la loi de partager nos communications, nos documents et nos données sensibles (personnelles) avec les agences américaines. Le fait que les données soient stockées sur des serveurs européens n’offre aucune protection (juridique) (en raison du CLOUD Act américain) et toute protection qui serait offerte peut être contournée par les autorités américaines sans transparence.

Outre ces préoccupations immédiates en matière de sécurité et de protection de la vie privée, notre dépendance à l’égard des Big Tech est fondamentalement en contradiction avec des valeurs publiques telles que la liberté, l’indépendance, l’autonomie et l’égalité – comme l’ont déjà souligné les recteurs en 2019. Les services numériques que nous utilisons pour notre recherche et notre enseignement façonnent profondément nos pratiques professionnelles ; l’intégration des outils d’IA les plus récents (par exemple, Co-Pilot) dans les logiciels de base (par exemple, MS Office 365) façonne considérablement notre enseignement et notre recherche et, par conséquent, a un impact sur notre autonomie professionnelle.

Le remplacement de l’infrastructure TIC universitaire par des services logiciels de grandes entreprises a également modifié ce que les universités peuvent offrir à leur communauté et à la société en général. En effet, les universités privilégient de plus en plus les TIC et les environnements de gestion des entreprises au détriment des solutions internes ou à source ouverte développées pour les universités. Ce faisant, elles perdent la capacité et la flexibilité nécessaires pour gérer des services qui vont au-delà de ce qui est offert par les entreprises dominantes. Cela crée involontairement un environnement préférentiel pour les plus grands acteurs.

Ces questions combinées font passer les universités du statut de source d’innovation technique et de distribution des connaissances à celui de consommateurs de services. Pire encore, en déplaçant davantage de pratiques de recherche et d’innovations associées dans les nuages, ces entreprises finissent par déterminer les conditions de la recherche, en orientant les agendas et les résultats de la recherche vers des mises en œuvre dans leurs environnements. Cela signifie que la recherche financée par des fonds publics peut parfois en venir à consacrer la domination de ces quelques entreprises pour l’avenir.

Par cette lettre ouverte, nous vous demandons de changer de cap, afin de libérer notre université de cette forte dépendance aux services de ces entreprises et de contribuer à une plus grande autodétermination technologique, à la résilience et à l’innovation publique pour et avec les universités à travers l’Europe.

Nous comprenons que ces développements se sont faits lentement au fil des ans et que notre université ne peut pas passer à sa propre infrastructure informatique ou reconstruire ses départements TIC immédiatement. Nous vous demandons donc de définir un point à l’horizon et de définir une stratégie en collaboration. Nous vous demandons de faire de notre université l’objectif politique explicite de faire en sorte que les universités ne soient plus des consommateurs de services Big Tech d’ici trois ans. Les universités, en collaboration les unes avec les autres et avec SURF, doivent travailler à la mise en place d’infrastructures et de pratiques techniques qui restaurent notre rôle dans la construction d’un avenir numérique démocratique et équitable.  

Des alternatives aux offres des Big Tech – basées sur des objectifs non lucratifs, des valeurs publiques et la transparence – existent et sont essentielles pour que les universités se transforment numériquement. Il est important de noter que moins nous utilisons ces alternatives, plus notre dépendance à l’égard des Big Tech devient une prophétie qui se réalise d’elle-même. Nous énumérons ci-dessous plusieurs mesures qui peuvent être prises immédiatement.

  • Localement : inverser la transition en cours vers les Big Tech et investir dans l’expertise et le déploiement locaux, par exemple en gérant notre propre serveur de messagerie, en lançant des initiatives Nextcloud, etc.
  • Au niveau national : utilisez votre influence au sein de SURF pour faire du point à l’horizon un objectif national pour le secteur de l’éducation (supérieure). Contribuez à faire des universités un moteur d’innovation pour un avenir numérique transformateur et équitable.
  • Au niveau international : collaborer avec d’autres universités européennes (notamment en Allemagne et en France) pour mettre en place une infrastructure informatique universitaire autonome qui pourrait être une source d’innovation et de résilience à l’échelle mondiale.

Nous avons déjà entamé un dialogue avec notre conseil d’administration de l’UU-Université pour commencer à progresser vers la résilience numérique et l’autodétermination dans les institutions académiques à travers l’Europe et au-delà. Si vous soutenez cette stratégie, merci de signer cette pétition pour faire part de vos préoccupations et les porter à l’attention de notre université, de préférence avant le 16 avril 2025. Nous espérons que notre initiative sera reprise par des collègues d’autres universités des Pays-Bas afin de montrer la large base académique de nos préoccupations.


Pour des informations sur les suites données à cette pétition, voir cet article sur le site « Me in Amsterdam » d’Alix Guillard.


Image d’illustration : Markus Winkler sur Unsplash

Les détracteurs de l’IA construisent des pièges pour attraper et tromper les robots d’IA qui ignorent les robots.txt

Ce texte est une traduction d’un article de Ashley Belanger intitulé « AI haters build tarpits to trap and trick AI scrapers that ignore robots.txt » et publié sur le site web « Ars Technica » le 28 janvier 2025.

***

Des attaquants expliquent comment une mesure de lutte contre les spam est devenue une arme contre l’intelligence artificielle.

L’été dernier, Anthropic a suscité le mécontentement lorsque son robot ClaudeBot AI a été accusé de harceler des sites web un million de fois ou plus par jour.

Et ce n’est pas la seule entreprise d’intelligence artificielle qui a fait les gros titres pour avoir prétendument ignoré les instructions contenues dans les fichiers robots.txt afin d’éviter la récupération de contenu web sur certains sites. À peu près au même moment, le PDG de Reddit a dénoncé toutes les entreprises d’intelligence artificielle dont les robots d’exploration étaient, selon lui, « difficiles à bloquer », bien que l’industrie technologique se soit par ailleurs engagée à respecter les instructions « no scraping » (pas de récupération) des fichiers robots.txt.

Un développeur de logiciels (que nous appellerons Aaron), à qui Ars a accordé l’anonymat pour discuter de son développement de logiciels malveillants, a suivi le déroulement de la controverse. Peu après avoir remarqué que le crawler de Facebook dépassait les 30 millions de visites sur son site, Aaron a commencé à élaborer un nouveau type d’attaque contre les crawlers qui « malmènent » les sites web, en espérant, a-t-il dit à Ars, donner « du mordant » à son fichier robots.txt.

S’inspirant d’une tactique de cybersécurité anti-spam connue sous le nom de tarpitting (répulsion), il a créé Nepenthes, un logiciel malveillant nommé d’après une plante carnivore qui « dévore à peu près tout ce qui s’aventure en son sein ».

Aaron avertit clairement les utilisateurs que Nepenthes est un logiciel malveillant agressif. Il ne doit pas être déployé par les propriétaires de sites qui ne sont pas à l’aise avec le fait de piéger des robots d’indexation et de les envoyer dans un « labyrinthe infini » de fichiers statiques sans liens de sortie, où ils « restent coincés » et « tournent en rond » pendant des mois, explique-t-il aux utilisateurs. Une fois piégés, les robots peuvent être alimentés en données bidon, appelées « Markov babble », qui sont conçues pour empoisonner les modèles d’IA. Il s’agit probablement d’une fonction bonus attrayante pour les propriétaires de sites qui, comme Aaron, en ont assez de payer pour le scraping de l’IA et aimeraient simplement voir l’IA brûler.

Les tarpits étaient à l’origine conçus pour faire perdre du temps et des ressources aux spammeurs, mais des créateurs comme Aaron ont transformé cette tactique en une arme anti-AI. À l’heure où nous écrivons ces lignes, Aaron a confirmé que Nepenthes peut piéger efficacement tous les principaux robots d’exploration du web. Jusqu’à présent, seul le crawler d’OpenAI a réussi à y échapper.

On ne sait pas exactement quels dommages les tarpits ou d’autres attaques de l’IA peuvent causer en fin de compte. En mai dernier, Laxmi Korada, directeur de la technologie des partenaires de Microsoft, a publié un rapport détaillant la manière dont les principales entreprises d’IA faisaient face à l’empoisonnement, l’une des premières tactiques de défense de l’IA déployées. Il a noté que toutes les entreprises ont développé des contre-mesures d’empoisonnement, OpenAI « ayant été très vigilant » et excellant dans la détection des « premiers signes de tentatives d’empoisonnement des données ».

Malgré ces efforts, il a conclu que l’empoisonnement des données constituait « une menace sérieuse pour les modèles d’apprentissage automatique ». Et en 2025, le tarpitting représente une nouvelle menace, augmentant potentiellement les coûts des données récentes à un moment où les entreprises d’IA investissent massivement et se font concurrence pour innover rapidement tout en réalisant rarement des bénéfices importants.

« Un lien vers Nepenthes depuis votre site l’inondera d’URL valides liées à votre nom de domaine, ce qui rendra peu probable l’accès du robot au contenu réel », explique la documentation de Nepenthes.

La seule entreprise spécialisée dans l’IA qui a répondu à la demande de commentaire d’Ars est OpenAI, dont le porte-parole a confirmé qu’elle travaillait déjà sur un moyen de lutter contre le tarpitting.

« Nous sommes conscients des efforts déployés pour perturber les robots d’indexation de l’IA », a déclaré le porte-parole d’OpenAI. « Nous concevons nos systèmes de manière à ce qu’ils soient résistants tout en respectant le fichier robots.txt et les bonnes pratiques du web ».

Mais pour Aaron, il ne s’agit pas de vaincre. Il s’agit plutôt d’empêcher l’industrie de l’IA de continuer à détériorer Internet avec des technologies que personne n’a demandées, comme les chatbots qui remplacent les agents du service clientèle ou l’augmentation des résumés de recherche inexacts de l’IA. En publiant Nepenthes, il espère faire autant de dégâts que possible, en augmentant éventuellement les coûts d’apprentissage des IA des entreprises, en ralentissant ces efforts d’apprentissage ou même en accélérant l’effondrement du modèle, les tarpits aidant à retarder la prochaine vague d’enshittification.

« En fin de compte, c’est comme si l’Internet sur lequel j’ai grandi et que j’aimais avait disparu depuis longtemps », a déclaré Aaron à Ars. « J’en ai tout simplement marre, et vous savez quoi ? Luttons, même si nous n’y parvenons pas. Soyez indigestes. Faites pousser des épines ».

Nepenthes inspire instantanément un autre tarpit

Nepenthes est sorti à la mi-janvier mais a connu un succès qui allait au-delà des attentes d’Aaron après que le journaliste technique Cory Doctorow ait boosté un commentateur technique, Jürgen Geuter, faisant l‘éloge de la nouvelle méthode d’attaque de l’IA sur Mastodon. Très rapidement, Aaron a été surpris de voir l’engagement pour Nepenthes monter en flèche.

« C’est à ce moment-là que j’ai réalisé que cela allait devenir quelque chose », a déclaré Aaron à Ars. « Je suis un peu ébahi par l’ampleur qu’a pris le projet ».

Il est difficile de savoir jusqu’à quel point Nepenthes a été déployé. Les propriétaires de sites sont invités à ne pas signaler le déploiement du logiciel malveillant, ce qui oblige les robots à faire face à des « conséquences » inconnues s’ils ignorent les instructions du fichier robots.txt.

Aaron a déclaré à Ars que, bien qu’une « poignée » de propriétaires de sites aient pris contact avec lui et que « la plupart des gens restent discrets à ce sujet », les journaux de son serveur web indiquent que des personnes déploient déjà l’outil. Il est probable que les propriétaires de sites souhaitent protéger leur contenu, empêcher le scraping ou se frotter aux sociétés d’intelligence artificielle.

Lorsque Gergely Nagy, développeur et hacker, qui se fait appeler « algernon » en ligne, a découvert Nepenthes, il était ravi. À l’époque, Nagy avait expliqué à Ars que la quasi-totalité de la bande passante de son serveur était « dévorée » par des robots d’indexation.

Bloquant déjà le scraping et tentant d’empoisonner les modèles d’IA par une méthode plus simple, Nagy a poussé sa méthode de défense plus loin et a créé son propre tarpit, Iocaine. Il a expliqué à Ars que le tarpit avait immédiatement éliminé environ 94 % du trafic de robots sur son site, qui provenait principalement de robots d’indexation d’IA. Rapidement, les discussions sur les médias sociaux ont poussé les utilisateurs à s’informer sur le déploiement d’Iocaine, non seulement des particuliers mais aussi des organisations désireuses de prendre des mesures plus strictes pour bloquer le scraping.

Iocaine reprend des idées (pas le code) de Nepenthes, mais il a davantage l’intention d’utiliser le tarpit pour empoisonner les modèles d’IA. Nagy a utilisé un « reverse proxy » pour piéger les robots dans un « labyrinthe infini de contenu pourri » afin d’empoisonner lentement leur collecte de données pour avoir osé ignorer le fichier robots.txt.

Tirant son nom de « l’un des poisons les plus mortels connus de l’homme » dans The Princess Bride, l’iocaïne est décrite avec humour comme le « poison connu le plus mortel pour l’IA ». Bien qu’il n’y ait aucun moyen de vérifier cette affirmation, la devise de Nagy est que plus il y a d’attaques par empoisonnement, « plus on rit ». Il a expliqué à Ars que les principales raisons qui l’ont poussé à créer Iocaine étaient d’aider les détenteurs de droits à cloisonner les contenus de valeur et à empêcher les robots d’indexation de l’IA de les explorer sans relâche.

Les tarpits ne sont pas des armes parfaites contre l’IA

L’exécution de logiciels malveillants tels que Nepenthes peut également peser sur les serveurs. Aaron a comparé le coût de fonctionnement de Nepenthes à celui d’une machine virtuelle bon marché sur un Raspberry Pi, et Nagy a déclaré qu’empoisonner les robots avec Iocaine lui coûtait à peu près autant que son site web.

Mais Aaron a déclaré à Ars que la consommation de ressources de Nepenthes est la principale objection qu’il s’est vue opposer à son déploiement. Les détracteurs craignent que le déploiement à grande échelle de Nepenthes n’alourdisse pas seulement leurs serveurs, mais augmente également les coûts énergétiques de toute cette IA qui travaille pour rien.

« C’est ce qui semble les inquiéter le plus », a déclaré Aaron à Ars. « La quantité d’énergie requise par les modèles d’IA est déjà astronomique, et je ne fais qu’empirer les choses. Mon point de vue est le suivant : si je ne fais rien, les modèles d’IA font bouillir la planète. Si je lance ça, ils font bouillir la planète. En quoi est-ce ma faute ? »

Aaron se défend également contre cette critique en suggérant qu’un impact plus large pourrait ralentir suffisamment les investissements dans l’IA pour finalement freiner une partie de cette consommation d’énergie. Peut-être qu’en raison de cette résistance, les entreprises d’IA seront poussées à demander d’abord l’autorisation de récupérer des données ou à accepter de payer davantage de créateurs de contenu pour s’entraîner sur leurs données.

« Chaque fois qu’un de ces robots se sort de mon tarpit, il a consommé des ressources qui lui coûteront en espèces sonnantes et trébuchantes, mais comme il s’agit de données merdiques, l’argent qu’il a dépensé pour les obtenir ne sera pas remboursé par les revenus », a posté Aaron, expliquant sa tactique en ligne. « Cela augmente effectivement leurs coûts. Et comme aucun d’entre eux n’a encore fait de bénéfices, c’est un gros problème pour eux. L’argent des investisseurs ne se déversera pas éternellement sans qu’ils soient payés. »

Nagy reconnaît que plus il y a d’attaques anti-AI, plus elles ont de chances d’avoir un impact. En publiant Iocaine, Nagy a montré que les discussions sur les médias sociaux à propos de nouvelles attaques peuvent inspirer de nouveaux outils en l’espace de quelques jours. Marcus Butler, un développeur de logiciels indépendant, a lui aussi conçu en quelques jours son attaque par empoisonnement baptisée Quixotic, a-t-il expliqué à Ars. Peu après, il a reçu des messages d’autres personnes qui ont créé leur propre version de son outil.

Butler n’est pas dans le camp de ceux qui veulent détruire l’IA. Il a déclaré à Ars qu’il ne pensait pas que « des outils comme Quixotic (ou Nepenthes) allaient « réduire l’IA en cendres » ». Il adopte plutôt une position plus mesurée, suggérant que « ces outils offrent une petite protection (une très petite protection) contre les robots qui s’emparent du contenu et, disons, le rediffusent ou l’utilisent à des fins d’apprentissage ».

Mais pour une certaine frange d’internautes, chaque petite protection compte. M. Geuter a renvoyé Ars à une liste d’outils destinés à saboter les IA. En fin de compte, il s’attend à ce que des outils comme Nepenthes ne soient « probablement pas utiles à long terme » parce que les entreprises d’IA peuvent probablement détecter et éliminer les données empoisonnées de l’entraînement. Mais Nepenthes représente un changement radical, a déclaré M. Geuter à Ars, en fournissant un outil utile aux personnes qui « se sentent impuissantes » face à une aspiration sans fin des données et en montrant que « le récit selon lequel il n’y a pas d’alternative ou de choix est faux ».

Critique des tarpits en tant qu’armes anti-IA

Les critiques qui ont débattu de l’utilité de Nepenthes sur Hacker News ont suggéré que la plupart des crawlers d’IA pouvaient facilement éviter les tarpits comme Nepenthes, un commentateur décrivant l’attaque comme étant « très crawler 101 ». Aaron indique que c’est son « commentaire préféré » parce que si les tarpits sont considérés comme des attaques d’un niveau élémentaire, il a « 2 millions de lignes de journal d’accès qui montrent que Google n’a pas été diplômé ».

Mais les efforts visant à empoisonner l’IA ou à gaspiller ses ressources ne concernent pas uniquement l’industrie technologique. Les gouvernements du monde entier cherchent à tirer parti de l’IA pour résoudre des problèmes sociétaux, et les attaques contre la résilience de l’IA semblent menacer ces progrès.

Nathan VanHoudnos est chercheur principal en sécurité de l’IA au sein de la division CERT de l’institut de génie logiciel de l’université Carnegie Mellon, qui travaille en partenariat avec les universités, l’industrie, les forces de l’ordre et le gouvernement pour « améliorer la sécurité et la résilience des systèmes et des réseaux informatiques ». Il a expliqué à Ars que les nouvelles menaces telles que les tarpits semblent reproduire un problème dont les entreprises d’IA sont déjà bien conscientes , à savoir que « certaines des choses que vous allez télécharger sur Internet pourraient être néfastes pour vous ».

« Il semble que ces créateurs de tarpits veuillent surtout mettre un peu le bazar », a déclaré M. VanHoudnos. « Ils veulent rendre un peu plus difficile pour ces personnes l’obtention des données meilleures ou différentes » qu’elles recherchent.

En août dernier, M. VanHoudnos a cosigné un article sur l’anti-IA, soulignant que les attaquants comme Aaron et Nagy sont limités dans leur capacité à manipuler les modèles d’IA. Ils peuvent avoir « une influence sur les données d’entraînement collectées, mais ne peuvent pas contrôler la manière dont les données sont étiquetées, avoir accès au modèle entraîné ou au système d’IA », indique l’article.

En outre, les sociétés d’IA se tournent de plus en plus vers le « deep web » pour trouver des données uniques, de sorte que cet effort visant à cloisonner les contenus utiles à l’aide de tarpits pourrait survenir pile au moment où l’exploration du web de surface commence à ralentir, a suggéré M. VanHoudnos.

Mais selon M. VanHoudnos, les robots d’IA sont également « relativement bon marché », et les entreprises risquent de ne pas accorder la priorité à la lutte contre les nouvelles attaques contre leurs robots si « des actifs plus prioritaires » font l’objet d’attaques. Et le tarpitting « doit être pris au sérieux parce qu’il s’agit d’un outil dans une boîte à outils tout au long du cycle de vie de ces systèmes . Il n’y a pas de solution miracle, mais c’est un outil intéressant dans une boîte à outils », a-t-il déclaré.

Offrir la possibilité de ne pas participer à l’apprentissage des IA

Aaron a déclaré à Ars qu’il n’avait jamais eu l’intention de faire de Nepenthes un projet majeur, mais qu’il travaillait occasionnellement à la correction de bugs ou à l’ajout de nouvelles fonctionnalités. Il envisagerait de travailler sur des intégrations pour des réactions en temps réel face aux robots s’il y avait une demande suffisante.

Aaron pressent que Nepenthes pourrait surtout être attrayant pour les détenteurs de droits qui veulent que les entreprises d’IA paient pour la récupération de leurs données. De nombreuses personnes semblent enthousiastes à l’idée de l’utiliser pour renforcer leur fichier robots.txt. Mais « certaines des personnes les plus intéressantes sont de celles qui pratiquent « la politique de la terre brûlée », a déclaré M. Aaron. Ces personnes sont attirées par des outils tels que Nepenthes comme un acte de rébellion contre l’IA qui rend l’Internet moins utile et moins agréable pour les utilisateurs.

M. Geuter a déclaré à Ars qu’il considérait Nepenthes « plus comme une déclaration sociopolitique que comme une solution technologique (parce que le problème qu’il tente de résoudre n’est pas purement technique, il est social, politique, juridique, et nécessite des leviers bien plus importants) ».

Pour M. Geuter, informaticien qui écrit depuis vingt ans sur l’impact social, politique et structurel de la technologie, l’IA est l’exemple « le plus agressif » de « technologies qui ne sont pas faites « pour nous » mais « malgré nous » ».

« C’est un peu comme si le contrat social entre la société et le secteur technologique/ingénierie (vous construisez des choses utiles, et nous sommes d’accord pour que vous en tiriez bénéfice) avait été dénoncé par une des parties », a déclaré M. Geuter. « Et cette partie veut maintenant que son jouet mange le monde. Les gens se sentent menacés et veulent que les menaces cessent ».

Une étude réalisée en 2021 a montré que des attaques par empoisonnement de données de plus en plus puissantes, par exemple, étaient capables de briser les défenses d’assainissement des données. Que ces attaques puissent ou non causer des destructions significatives, M. Geuter considère les tarpits comme un « symbole puissant » de la résistance à laquelle Aaron et Nagy ont volontiers adhéré.

« Il est très encourageant de voir que les gens remettent en question l’idée que nous devons tous nous mettre à l’IA », a déclaré M. Geuter. « Car ce n’est pas le cas. C’est un choix. Un choix qui profite principalement aux monopoles ».

Les créateurs de tarpits comme Nagy vont probablement être attentifs à l’évolution technique des attaques par empoisonnement. Sur le site Iocaïne – qui, oui, est protégé du scraping par Iocaïne – il a publié cet appel à l’action : « Faisons en sorte que l’empoisonnement des IA devienne la norme. Si nous le faisons tous, ils n’auront plus rien à aspirer ».


France Numérique Libre


Très impliquée dans la mise en œuvre des logiciels libres la ville d’Échirolles est souvent contactée par des collectivités qui sont à la recherche de solutions, de méthodologies ou de prestataires sur ces sujets. Certains d’entre elles ont le sentiment d’être un peu isolées dans leur volonté de travailler concrètement sur un numérique plus libre et plus durable.

Dans l’Isère, un collectif de DSI des collectivités locales existe depuis septembre 2022 : Alpes Numérique Libre. Il permet d’échanger entre pairs et fonctionne sur le principe de réunions plusieurs fois dans l’année, dans les locaux de l’une ou l’autre des collectivités participantes (ou en visio). 27 collectivités (communes, communautés de commune, syndicat, etc.) l’animent et participent aux discussions

Un collectif animé par ses acteurs

Travailler avec des logiciels libres permet de disposer d’outils performants pour travailler en collaboration, et l’idée a donc germé de créer, sur le modèle de l’ANL, un collectif au niveau national.

Réservé aux collectivités territoriales, il repose sur :

  • Un site web dédié : https://france-numerique-libre.org ;
  • des échanges trimestriels en visioconférence ;
  • une liste de discussion par e-mail pour échanger entre deux réunions ;
  • un serveur Nextcloud pour l’échange de documents ;
  • une instance Matrix pour les échanges en temps réel.

Animé par ses acteurs, France Numérique Libre se donne pour objectif de partager sur :

  • Les solutions existantes en fonction des besoins exprimés par les collectivités ;
  • les prestataires disponibles pour aider à la mise en œuvre de ces solutions ;
  • les bonnes pratiques, stratégies et méthodologies (déploiements, contributions, organisationnel, etc.) ;
  • la documentation des solutions ;
  • les marchés publics et consultations sur ces sujets.

Un collectif ouvert sur le service public

Nous sommes convaincus que la création d’un réseau d’acteurs du service public, convivial et ancré dans le concret, peut participer de la dynamique en cours autour des logiciels libres. France Numérique Libre prévoit donc d’enrichir ses échanges avec la collaboration d’autres acteurs publics du domaine :

L’ADULLACT (association des développeurs et utilisateurs de logiciels libres pour les administrations et les collectivités territoriales), qui gère notamment le label Territoire Numérique Libre, met à disposition son infrastructure et héberge les outils utilisés par le collectif France Numérique Libre. Elle maintient également une ressource précieuse : le comptoir du libre, qui permet d’identifier logiciels et prestataires et auquel le collectif participe activement.

La DINUM (direction interministérielle du numérique) met à disposition un certain nombre de solutions à destinations des services publics, via son initiative La Suite. Sa participation au collectif permettra aux collectivités d’être informées des derniers développements, et de faire des retours sur l’utilisation de ceux-ci au quotidien.

L’ANCT (agence nationale de la cohésion des territoires), propose également une initiative importante tournée vers les collectivités territoriales : La Suite Territoriale. Habituée à travailler avec les collectivités dans le cadre de leurs projets de territoire, elle est l’interlocutrice privilégiée de nombre de collectivités.

Le Ministère de l’Éducation Nationale dispose d’une forge des communs numériques (qui héberge différentes solutions mises à disposition par les enseignants) et propose plusieurs solutions à leur intention via sa plateforme https://portail.apps.education.fr. Les établissement scolaires étant équipés en ressources numériques par les collectivités (communes pour les écoles maternelles et élémentaires, conseils départementaux pour les collèges et régions pour les lycées), la participation du ministère nous a semblé indispensable.

Une démarche vertueuse

France Numérique Libre est aussi un démonstrateur : en s’appuyant sur des ressources libres existantes, les collectivités françaises peuvent s’auto-organiser et créer, sans budget associé et sans effort important, un réseau d’acteurs au service des administrés et des agents qui les servent.

En s’appuyant sur les ressources de l’Adullact, le collectif assure sa pérennité, les outils utilisés étant indépendants des collectivités qui le composent et qui l’animent. Ainsi, une structure peut choisir de rejoindre France Numérique Libre ou de s’en éloigner sans mettre en danger le fonctionnement de l’édifice.

Enfin, en se positionnement comme un nouvel acteur intégré, dès sa création, dans un écosystème déjà riche, France Numérique Libre nourrit l’espoir de déboucher sur de nouvelles initiatives, d’éventuelles opportunités de mutualisation… et des collaborations fructueuses entre collectivités.

Objectif : avril 2025

Les outils permettant à France Numérique Libre de devenir une réalité sont en cours de conception grâce à l’ADULLACT, qui a bien voulu les mettre à disposition du collectif. Le site https://france-numerique-libre.org est d’ores et déjà en ligne. Il permettra aux responsables informatiques des collectivités territoriales qui le souhaitent de nous rejoindre et de rendre compte des activités du groupe.

France Numérique Libre dispose également d’un compte sur Mastodon (@fnl@colter.social), sur BlueSky et sur LinkedIn.

Un premier échange en visioconférence, prévu pour avril 2025, marquera la naissance officielle de France Numérique Libre. Il permettra, entre autres choses, de définir précisément le périmètre du collectif et de choisir ensemble un mode d’organisation.


Pour toute question pouvez me contacter sur Mastodon (@nicolasvivant@colter.social), sur LinkedIn (https://www.linkedin.com/in/vivant/) ou sur Bluesky (@grenoble.ninja).

À très bientôt 🙂

Des interphones libres !

Attention : cet article concerne un projet en cours à la mairie d’Échirolles. Des options différentes peuvent finalement être choisies… il est même possible qu’il ne voit pas le jour si, dans le cadre de la préparation budgétaire en cours (et en fonction des annonces gouvernementales), le déploiement des interphones n’est pas validé par la collectivité.

Ce travail a fait l’objet d’une présentation dans le cadre du salon « Opensource Experience » 2024. La vidéo est disponible ici.

Le travail d’Échirolles sur les logiciels libres concerne l’ensemble des applications numériques de la ville. La réflexion sur la mise en œuvre d’une nouvelle solution commence toujours par le même questionnement :

  1. Un logiciel déjà présent dans la collectivité nous permet-il de répondre au besoin exprimé ?
  2. Si non, existe-t-il un logiciel libre (ou open source) permettant de l’adresser ?
  3. Si non, existe-t-il un logiciel propriétaire pour ce faire ?
  4. Si non, développons le logiciel ou la fonctionnalité qui manque.

Si le passage au libre de suites bureautiques, de systèmes d’exploitation ou de logiciels métiers est bien documenté, notre méthode est parfois appliquée à des domaines un plus surprenants. C’est ainsi que nous nous sommes penchés sur notre interphonie.

L’interphone est un élément de sécurité qu’on trouve dans toutes sortes de structures (collectivités de toutes tailles, entreprises, copropriétés…) et de nombreux constructeurs sont positionnés sur le marché. De nos jours, tous les interphones et visiophones sont « connectés ». Le hic : des solutions logicielles propriétaires, opaques et sur lesquelles il n’est pas possible d’avoir la main. Vous êtes dépendant de votre fournisseur, autant dans votre capacité à réagir en cas de problème que pour ce qui concerne la sécurité de votre installation.

Forte de ses 21 écoles, de plusieurs crèches et autres accueils à destination de la petite enfance, Échirolles se pose la question du déploiement de visiophones dans une infrastructure sécurisée, souveraine, cohérente et correctement gérée.

Des interphones existent déjà, évidemment, mais ils ont été installées au fil de l’eau, reposent parfois sur des solutions analogiques, des matériels variés, et sont associés à des contrats de maintenance divers… bref : il est peut-être temps de moderniser et de rationaliser la gestion de ces équipements. C’est ce à quoi les services techniques de la ville aimeraient pouvoir s’atteler prochainement.

Mais que se passe-t-il exactement quand on se présente devant un interphone connecté/visiophone et qu’on pousse le bouton permettant d’appeler son interlocuteur ?

Est-il possible d’avoir une maîtrise complète de sa solution d’interphonie, déployée sur des sites très différents dans la ville, en s’appuyant sur des logiciels libres existants et sur une infrastructure robuste et sécurisée ? Et si possible avec une variété de matériels et de constructeurs ?

La réponse est oui.



Déployé au sein d’une infrastructure qui vous appartient, votre parc d’interphones connectés/visiophones permet d’adresser cinq enjeux importants :

  1. Cybersécurité
    Que savez-vous du niveau de sécurité associé à votre visiophone ? Le portier repose généralement sur un Linux embarqué, il est connecté à votre réseau, et il se trouve dans la rue où il capte en permanence des images et du son.

    Installeriez-vous un PC sous Linux muni d’une webcam, connecté à votre réseau d’entreprise ou de collectivité et accessible depuis la rue 24×7, sans vous soucier un minimum de la sécurisation de votre solution ?
  2. Respect des données personnelles
    En tant qu’agent d’un service public, vous êtes responsable du bon usage des données de vos administrés. Plusieurs affaires récentes (chez Tesla, par exemple) ont permis de le vérifier : quand il existe, entre le matériel et l’utilisateur, un serveur qui vous ne maîtrisez pas, vous ne pouvez jamais être assuré que vos données ne seront pas consultées par des personnes indélicates.
  3. Indépendance technique et réactivité
    Rien n’est plus frustrant que de reposer sur un prestataire pour une solution aussi critique que le contrôle d’accès. En cas de problème, une fois écartée votre propre responsabilité technique, vous êtes dans l’impossibilité de faire autre chose que de patienter. Votre capacité à rétablir le service dépend de la vitesse de réaction du prestataire et, d’expérience, vous êtes rarement informé des délais de résolution (et des causes réelles de l’incident).
  4. Maîtrise des coûts et indépendance économique
    Dans une optique de bonne gestion de l’argent public (et aussi parce que l’État grignote régulièrement les dotations) toutes les collectivités cherchent à minimiser leurs coûts de fonctionnement. Une solution auto-hébergée, parce qu’elle ne nécessite pas de contrat de support (sous réserve que vous ayez quelques compétences en interne), vous permet de ne pas être à la merci d’éventuelles augmentations de tarifs (pensez VMWare et Microsoft).
  5. Interopérabilité
    La plupart des portiers reposent sur le même protocole, et c’est un protocole standard : SIP. En mettant en place votre propre infrastructure open source, vous pouvez vous permettre de déployer différents modèles d’interphones sans complexifier les usages. Votre solution logicielle reste la même (y compris sur le poste client ou sur le smartphone).


Comme l’indique l’image au-dessus, un interphone est généralement connecté sur un commutateur (switch) de votre réseau. Moyennant une petite configuration sur votre pare-feu, il établit une connexion SIP sur un serveur relais (ou proxy) qui appartient au constructeur (dans « un cloud » vous dit-on souvent).

Ce proxy SIP relaie l’appel à une application propriétaire du constructeur, installé sur un smartphone sous Android ou iOS. Il est également interconnecté avec votre solution de voix-sur-IP interne (Xivo, Alcatel, etc.) pour appeler éventuellement un ou plusieurs postes fixes, et sur votre réseau pour contacter une tablette ou un PC via une solution logicielle pour poste client.

L’idée, évidemment, est d’adresser le rectangle en haut à droite sur l’image ci-dessus, pour que votre solution repose sur une infrastructure que vous contrôlez complètement. Deux logiciels existent, qui vont vous permettre de le réaliser, et ils sont open source !



Une société grenobloise est à l’origine (et maintient) les deux logiciels qui vont nous permettre de mener à bien notre projet : Belledonne communications. Plus connue pour Linphone, son logiciel open source de messagerie unifiée basé (justement) sur SIP, elle est met également à disposition deux logiciels dédiés à l’interphonie.

  • Flexisip
    C’est le proxy SIP qui, installé quelque part sur votre réseau, se chargera de relayer les appels des portiers vers les différents terminaux.
    → Toutes les informations sur ce logiciel se trouvent ici.
    → Le code source est accessible sur le Gitlab de Belledonne Communications.

  • Linhome (une adaptation de Linphone dédiée à l’interphonie)
    C’est l’application open source, disponible sous Android et iOS (il existe peut-être même une version pour Windows Phone, mais bon…) qui s’ouvrira quand le bouton du portier sera activé et qui permettra de voir l’image de votre interlocuteur, de lui parler, et de déclencher l’ouverture de la porte. Contrairement à Linphone, je ne l’ai pas trouvée sur F-Droid (et donc, sous Android, utilisez Aurora Store)
    → La page de l’application se trouve ici.
    → Le code source peut-être consulté/récupéré sur cette page.

À Échirolles, l’architecture finale devrait ressembler à ça :



Trois précisions importantes sur le projet de la ville d’Échirolles :

  • Sur l’état du projet (à la date de rédaction de cet article) :
    Deux interphones connectés de deux marques différentes (Castel et 2N) sont actuellement en cours d’expérimentation dans deux écoles de la ville, et fonctionnent parfaitement bien sur cette architecture comprenant un serveur FlexiSIP et l’application Linhome.

  • Sur l’avenir du projet :
    Ce projet est porté par notre direction des services techniques, et la direction de la stratégie numérique n’intervient que dans le choix/le déploiement/la maintenancce de l’infrastructure. Il devrait concerner plusieurs dizaines d’interphones dans nos écoles et dans nos crèches. Le déploiement est prévu pour 2025 sous réserve, la situation politique nationale étant ce qu’elle est, qu’il soit validé lors de la préparation budgétaire en cours.

  • Sur les notifications push :
    Il s’agit du mécanisme qui permet de réveiller l’application Linhome, même si elle n’est pas ouverte, quand un appel entrant se produit. Pour des raisons de sécurité, un serveur intermédiaire et des clés spécifiques, fournies par Google ou Apple, sont nécessaires.

    Plusieurs options sont envisageables :

    → Belledonne communication prévoit de fournir sous peu, moyennant un abonnement (il faut bien payer les développeurs), un serveur de notifications push en mode SaaS.

    → Il est possible de compiler (et d’adapter, au passage), sa propre version de Linhome, de faire le travail d’enregistrement auprès de Google et Apple, et de mettre en place ses propres notifications push.

    → D’autres systèmes de notification existent et sur lesquels il peut être intéressant de se pencher. C’est le cas de NTFY, par exemple.

    Sur ce point, le choix d’Échirolles n’est pas encore fait.

AlpOSS : jeudi 20 février 2025 à Échirolles

Le 20 février 2025, la ville d’Échirolles coorganise, avec Belledonne Communications (éditeur de Linphone) et OW2 (communauté open source à destination des professionnels) l’événement AlpOSS.

Un événement de plus ?

En France, les événements consacrés aux logiciels libres ne manquent pas : JdLL (Lyon), RPLL (Lyon), Capitole du Libre (Toulouse), Open Source Experience (Paris). Pourquoi créer un nouvel événement ?

Les collectivités territoriales sont de plus en plus nombreuses à privilégier, quand c’est possible, les logiciels libres. Mais comment identifier les logiciels qui correspondent effectivement aux besoins de nos services ? Qui sont les prestataires qui peuvent nous aider ? En l’absence de marketing et sans nous déplacer dans des événements (parfois lointains), il n’est pas simple de rencontrer les professionnels susceptibles de nous aider dans nos choix. Des associations (l’Adullact, par exemple) permettent aux collectivités d’échanger entre elles. D’autres (OW2, le CNLL, etc.) favorisent les échanges entre professionnels. Certaines sont dédiées aux développeurs, aux universitaires, aux chercheurs…

Ateliers, stands, présentations et moments informels : nous avons souhaité réunir ces deux mondes dans un même événement afin d’échanger, dans différentes configurations, sur les sujets qui nous sont communs.

À Échirolles ?

Le bassin de vie grenoblois est riche en collectivités qui s’appuient au quotidien sur des logiciels libres, en entreprises qui proposent des produits ou des services et en associations qui en encouragent l’utilisation. La ville d’Échirolles est particulièrement active dans ce domaine. Dans le cadre de nos fonctions, il nous est arrivé à maintes reprises de découvrir des entreprises ou des associations locales… en nous déplaçant dans des événements à Paris, à Lyon, à Montpellier ou à Toulouse. À chaque fois, la surprise a été grande. Nous ignorions, par exemple, que Linphone était développé par une entreprise de Grenoble. Notre première rencontre avec Combodo, une entreprise pourtant échirolloise, s’est produite à Paris, lors d’une édition d’Open Source Expérience.

Il nous a semblé nécessaire, parce que notre territoire est particulièrement bien doté en entreprises, en associations et en collectivités diverses d’organiser un événement local.

Pour parler de quoi ?

Les collectivités n’ont pas toutes les mêmes besoins. Certaines, de taille importante, disposent de leur propre service informatique et de compétences internes. Elle peuvent donc déployer et maintenir des solutions en autonomie. D’autres, en revanche, ont besoin (ou font le choix) de s’appuyer sur des prestataires pour fournir à leurs administré·e·s les services les mieux adaptés. Les modèles d’affaire choisis par les entreprises peuvent être déterminants dans les choix des collectivités et faciliter, ou au contraire freiner, l’adoption d’une solution. Les acteurs économiques sont-ils au fait des contraintes des collectivités ? Des obligations liées au code de la commande publique ? Les collectivités comprennent-elles les contraintes des prestataires auxquels elles font appel ? La difficulté que peut représenter, pour une petite structure, la réponse à un appel d’offre ?

Nombreux sont les sujets sur lesquels il nous semble intéressant d’échanger et de confronter nos points de vue.

Pour qui ?

Si la priorité est donnée aux entreprises et collectivités du bassin de vie grenoblois, notre événement est ouvert à toutes et tous, et des acteurs régionaux et nationaux ont prévu de participer. Les thèmes que nous proposons d’aborder sont divers, et sont susceptibles d’intéresser un public varié.

Alpes Numérique Libre, le collectif des DSI concernés par les logiciels libres, est partenaire d’AlpOSS 2025. Nous espérons une participation importante des collectivités locales.

Pour celles et ceux qui ne peuvent pas (ou ne souhaitent pas) se déplacer, nous avons prévu de diffuser l’ensemble des présentations en direct sur le serveur Peertube de la ville d’Échirolles : https://video.echirolles.fr. Elles seront ensuite disponibles en vidéo à la demande sur ce même serveur.

Des entreprises autour de Grenoble ?

Nous avons identifié (et espérons échanger avec) plus d’une vingtaine d’acteurs économiques locaux qui s’investissent dans les données ouvertes et les logiciels libres :

  • Algoo (développement, infogérance, migration, hébergement…)
  • Alpilink (services cloud, hébergement…)
  • Apitux (logiciels libres et OpenStreetMap)
  • Belledonne Communications (éditeur de Linphone)
  • Bonitasoft (plateforme BPM)
  • Combodo (éditeur d’iTop)
  • Digital-Liance (communications unifiées et infrastructures réseaux)
  • Association Flossita (promotion et défense des logiciels, ressources libres et standards ouverts)
  • ILL (Institut Laue-Langevin, science et technologies neutroniques)
  • INRIA (Institut national de recherche en sciences et technologies du numérique)
  • OpenGo (accompagnement, formation)
  • Probesys (éditeur d’AgentJ, prestataire de services informatiques)
  • Sleede (conception de sites web)
  • Smile (intégration et infogérance)
  • TeemIP (éditeur d’une solution de gestion des adresses IP)
  • TelNowEdge (solutions managées de VOIP, réseaux, gestion de parc informatique, téléphonie et outils collaboratifs)
  • Tetras Libre (conseil, recherche et développement en informatique)
  • Enalean (éditeur de Tuleap : gestion de produits, planning Agile, suivi de projets, gestion des tests et développement)
  • Vates (virtualisation)
  • Webu (développement web, hébergement…)

Pour en savoir plus…

 → Consultez notre site Web : https://alposs.fr
 → Suivez-nous sur Mastodon : @alposs@colter.social
 → Consultez notre événement sur LinkedIn

Pourquoi et comment Échirolles a choisi Zorin OS

Choisir une distribution Linux n’est pas forcément simple, et dire qu’une distribution est meilleure qu’une autre n’a pas vraiment de sens. Tout dépend du contexte.

Dans la commune ou je travaillais précédemment, nous avions fait le choix de migrer d’abord tous les logiciels d’infrastructure vers des solutions libres (DNS, DHCP, serveur de fichiers, contrôleur de domaine, etc.) avant d’entamer un passage à Linux des postes clients. À Échirolles, nous avons commencé dans un contexte où Microsoft était omniprésent (mais avec une volonté farouche de libérer aussi ces logiciels d’infrastructure).

Le contexte de l’époque (2021)

Nous sommes une collectivité locale. L’immense majorité des nos agents et agentes n’ont pas bénéficié de formation en informatique. Leurs compétences, parfois durement acquises, sont donc limitées. Beaucoup savent exécuter les tâches indispensables à leurs fonctions sans comprendre, et pour cause, les principes sous-jacents.

Dans le service informatique, les gens sont formés à Windows. Certains disposent de certifications et toute l’organisation est basée sur des outils que nous envisageons de remplacer.

Les postes clients tournent tous, à quelques rares exceptions près, avec un système d’exploitation de Microsoft. Au moment où nous commençons à nous interroger, on trouve du Windows 7 (sur les postes les plus anciens), du Windows 10, et quelques Windows 11.

Notre serveur de fichiers, notre DNS, notre DHCP, tournent sur des serveurs Windows. Des stratégies de groupe sont déployées sur les postes clients à partir des habituelles GPO.

L’authentification des postes est assurée par un serveur Active Directory.

Notre messagerie, en revanche, tourne déjà sur un logiciel opensource (BlueMind, à l’époque, SOGo maintenant).

Réflexion préalable

Avant de choisir une distribution, nous nous sommes posés un certain nombre de questions :

  • Pourquoi certaines communes, qui avaient fait le choix d’un passage à Linux, ont connu des retours en arrière lors de changements de majorité ?
  • Dans certaines communes qui évoluent dans un contexte comparables au nôtre, le service informatique affirme qu’un passage au logiciel libre n’est pas possible. Sur quels critères ? Quels sont les points bloquants selon eux ?
  • Existe-t-il une méthodologie de déploiement qui permettrait d’éviter ces écueils ?
  • Des collectivités ou des services publics ont, au contraire, réussi leur passage au libre. Quelles méthodes ont été utilisées ?

Vous trouverez des éléments de réponse dans deux articles sur ce blog :

Choix de la distribution

L’un des enjeux de la migration est la montée en compétence d’une équipe qui n’est pas formée à Linux. C’est une difficulté, bien sûr, mais c’est aussi une opportunité : parce qu’elle connaît parfaitement l’environnement technique et les habitudes prises par les utilisateurs⋅trices, elle est à même d’identifier les obstacles qui risquent de se présenter. Il est donc indispensable de l’inclure pleinement dans le choix du futur système d’exploitation.

Pendant plusieurs mois, toute l’équipe a été encouragée à installer et tester des distributions variées sur des PC de la collectivité, en ayant à l’esprit que l’ergonomie et l’intégration dans notre système d’information étaient des critères essentiels.

Dans un deuxième temps, chacun s’est penché sur les choix des autres. De mémoire Linux Mint, Elementary OS, Pop OS, Manjaro, Debian, Ubuntu et Zorin OS ont été présentés. Et c’est Zorin OS qui a fait l’unanimité.

Les critères mis en avant par l’équipe :

  • la ressemblance avec Windows, avec les mêmes raccourcis-clavier ;
  • la possibilité de lui donner en un clic l’apparence d’une version de Windows ou d’une autre (Zorin Appearance) ;
  • son intégration dans Active Directory dès l’installation ;
  • son design soigné ;
  • le fait que la distribution soit basée sur Ubuntu et Gnome et donc l’assurance qu’une documentation fournie et à jour serait disponible en ligne ;
  • la distribution évoluant en même temps que les versions Ubuntu, la possibilité de bénéficier de noyaux et de pilotes récents ;
  • l’existence de pilotes en français permettant de gérer l’utilisation avancée de nos copieurs et imprimantes (kyodialog, pour les machines Kyocera) ;
  • le magasin d’applications, qui était le plus riche parmi les distributions proposées et qui intégrait parfaitement toutes les méthodes d’installation (Flat, Snap et Ubuntu) ;
  • l’existence d’une version « lite » (basée sur XFCE, pour les PC les plus anciens) et d’une version « éducation ».

On mesure à quel point le choix s’est porté sur l’intégration dans notre environnement plutôt que sur les mérites techniques relatifs de l’une ou l’autre des distributions envisagées.

Déploiement

Avant d’initier l’installation de notre distribution dans un environnement forcément hybride, un gros travail (quasiment terminé aujourd’hui) a été nécessaire : inventaire (GLPI), prise de main à distance (MeshCentral), déploiement d’images (FOG project)… de nombreuses solutions ont dû être installées, paramétrées, testées, etc.

Pendant ce temps, un bêta-test incluant des personnels choisis (et notamment des décideurs), a permis d’identifier et de résoudre un certain nombre de problèmes et de valider concrètement le choix de notre solution.

En septembre 2024, le déploiement a commencé par un appel à volontariat. Les détails de la stratégie de migration sont disponibles à la fin de cet article.

À la date d’écriture de cet article, l’installation dans les écoles de la ville n’a pas commencé. Pour en comprendre les raisons, vous pouvez vous référer à cet article.


Image d’illustration : Zorin OS 17, de Artyom Zorin, sur Wikimedia Commons.
Licence : GPL.

Des interphones libres ?

Ajout du 6 décembre 2024 : suite à la présentation annoncée ci-dessous, un article plus complet a été publié. Il se trouve ici.

Le travail d’Échirolles sur les logiciels libres concerne l’ensemble des applications numériques de la ville. La réflexion sur la mise en œuvre d’une nouvelle solution commence toujours par le même questionnement :

  1. Un logiciel déjà présent dans la collectivité nous permet-il de répondre au besoin exprimé ?
  2. Si non, existe-t-il un logiciel libre (ou open source) permettant de l’adresser ?
  3. Si non, existe-t-il un logiciel propriétaire pour ce faire ?
  4. Si non, développons le logiciel ou la fonctionnalité qui manque.

Si le passage au libre de suites bureautiques, de systèmes d’exploitation ou de logiciels métiers est bien documenté, notre méthode est parfois appliquée à des domaines un plus surprenants. C’est ainsi que nous nous sommes penchés sur notre interphonie.

L’interphone est un élément de sécurité qu’on trouve dans toutes sortes de structures (collectivités de toutes tailles, entreprises, copropriétés…) et de nombreux constructeurs sont positionnés sur le marché. De nos jours, tous les interphones et visiophones sont « connectés ». Le hic : des solutions logicielles propriétaires, opaques et sur lesquelles il n’est pas possible d’avoir la main. Vous êtes dépendant de votre fournisseur, autant dans votre capacité à réagir en cas de problème que pour ce qui concerne la sécurité de votre installation.

Forte de ses 21 écoles, de plusieurs crèches et autres accueils à destination de la petite enfance, Échirolles se pose la question du déploiement de visiophones dans une infrastructure sécurisée, souveraine, cohérente et correctement gérée.

Des interphones existent déjà, évidemment, mais ils ont été installées au fil de l’eau, reposent parfois sur des solutions analogiques, des matériels variés, et sont associés à des contrats de maintenance divers… bref : il est peut-être temps de moderniser et de rationaliser la gestion de ces équipements. C’est ce à quoi les services techniques de la ville aimeraient pouvoir s’atteler prochainement.

Est-il possible d’avoir une maîtrise complète de sa solution d’interphonie, déployée sur des sites très différents dans la ville, en s’appuyant sur des logiciels libres existants et sur une infrastructure robuste et sécurisée ? Et si possible avec une variété de matériels et de constructeurs ?

Joie ! La réponse semble bien être positive, et c’est ce que je me propose de vous présenter lors de l’événement Open Source Experience, au Palais des Congrès (porte Maillot) à Paris, le 4 décembre 2024 à 14h salle Alan Cox.


Image d’illustration : Bernard Hermant sur Unsplash

Le NIST recommande de nouvelles règles pour la sécurité des mots de passe

[NDT] Des années. Des années que j’explique que la complexité des mots de passe n’est pas déterminante et que demander de les changer à intervalles réguliers est une mauvaise idée. Enfin, un organisme officiel qui publie des recommandations conformes aux enjeux du moment (et qui ne datent pas d’hier).

Ce contenu est une traduction d’un article de Guru Baran paru le 27 septembre 2024 sur le site cybersecuritynews.com.

***

Le National Institute of Standards and Technology (NIST) a publié des lignes directrices actualisées pour la sécurité des mots de passe, marquant un changement important par rapport aux pratiques traditionnelles en matière de mots de passe.

Ces nouvelles recommandations, décrites dans la « publication spéciale 800-63B » du NIST, visent à renforcer la cybersécurité tout en améliorant l’expérience des utilisateurs.

L’un des changements les plus notables concerne la position du NIST sur la complexité des mots de passe. Contrairement aux pratiques de longue date, le NIST ne recommande plus l’application d’exigences arbitraires en matière de complexité des mots de passe, telles que le mélange de lettres majuscules et minuscules, de chiffres et de caractères spéciaux. L’accent est désormais mis sur la longueur du mot de passe, qui constitue le principal facteur de solidité du mot de passe.

« Les mots de passe plus longs sont généralement plus sûrs et plus faciles à retenir pour les utilisateurs », a déclaré Paul Turner, expert en cybersécurité au NIST. « Nous nous éloignons des règles complexes qui conduisent souvent à des schémas prévisibles et nous encourageons l’utilisation de phrases de passe longues et uniques ».

Le NIST recommande désormais une longueur de mot de passe minimale de 8 caractères, avec une forte préférence pour les mots de passe encore plus longs. Il est conseillé aux organisations d’autoriser des mots de passe d’au moins 64 caractères pour tenir compte des phrases de passe.

Un autre changement important est l’élimination des changements périodiques obligatoires de mots de passe. Le NIST affirme que les réinitialisations fréquentes de mots de passe conduisent souvent à des mots de passe plus faibles et encouragent les utilisateurs à effectuer des changements mineurs et prévisibles. Au lieu de cela, les mots de passe ne devraient être changés que lorsqu’il y a des preuves de compromission.

« Forcer les utilisateurs à changer régulièrement de mot de passe n’améliore pas la sécurité et peut même s’avérer contre-productif », explique M. Turner. « Il est plus efficace de surveiller les informations d’identification compromises et de n’exiger des changements qu’en cas de nécessité ».

Les nouvelles lignes directrices soulignent également l’importance de vérifier les mots de passe par rapport à des listes de mots de passe couramment utilisés ou compromis. Le NIST recommande aux organisations de tenir à jour une liste de mots de passe faibles et d’empêcher les utilisateurs de choisir le moindre mot de passe figurant sur cette liste.

En outre, le NIST déconseille l’utilisation d’indices de mots de passe ou de questions d’authentification basées sur la connaissance, car ils peuvent souvent être facilement devinés ou découverts par l’ingénierie sociale.

Pour le stockage des mots de passe, le NIST recommande d’utiliser le hachage salé avec un facteur d’inviolabilité qui rend les attaques hors ligne coûteuses en termes de calcul. Cette approche permet de protéger les mots de passe stockés même si une base de données est compromise.

Autres exigences à respecter :

  1. Les responsables et fournisseurs de services DOIVENT exiger que les mots de passe comportent au moins huit caractères et DEVRAIENT exiger que les mots de passe comportent au moins 15 caractères.
  2. Les responsables et fournisseurs de services DEVRAIENT autoriser une longueur maximale de mot de passe d’au moins 64 caractères.
  3. Les responsables et fournisseurs de services DEVRAIENT accepter tous les caractères d’imprimerie ASCII [RFC20] et le caractère espace dans les mots de passe.
  4. Les responsables et fournisseurs de services DEVRAIENT accepter les caractères Unicode [ISO/ISC 10646] dans les mots de passe. Chaque point de code Unicode DOIT être considéré comme un seul caractère lors de l’évaluation de la longueur du mot de passe.
  5. Les responsables et fournisseurs de services NE DOIVENT PAS imposer d’autres règles de composition (par exemple, exiger des mélanges de différents types de caractères) pour les mots de passe.
  6. Les responsables et fournisseurs de services NE DOIVENT PAS exiger des utilisateurs qu’ils changent périodiquement de mot de passe. Toutefois, les vérificateurs DOIVENT imposer un changement s’il existe des preuves de la compromission du service.
  7. Les responsables et fournisseurs de services NE DOIVENT PAS permettre à l’abonné de stocker un indice accessible à un demandeur non authentifié.
  8. Les responsables et fournisseurs de services NE DOIVENT PAS inviter les abonnés à utiliser l’authentification basée sur les connaissances (KBA) (par exemple, « Quel était le nom de votre premier animal de compagnie ? ») ou des questions de sécurité lors du choix des mots de passe.
  9. Les fournisseurs de services DOIVENT vérifier l’intégralité du mot de passe soumis (c’est-à-dire ne pas le tronquer).

Les lignes directrices soulignent également l’importance de l’authentification multifactorielle (AMF) en tant que couche de sécurité supplémentaire. Bien qu’il ne s’agisse pas d’une exigence directe en matière de mot de passe, le NIST encourage vivement l’utilisation de l’AMF dans la mesure du possible.

Ces nouvelles recommandations ont été bien accueillies par de nombreux acteurs de la communauté de la cybersécurité. « Les directives actualisées du NIST sont conformes à ce que les chercheurs en sécurité préconisent depuis des années », a déclaré Sarah Chen, directrice technique de SecurePass, une société spécialisée dans la gestion des mots de passe. « Elles établissent un bon équilibre entre la sécurité et la facilité d’utilisation.

Au fur et à mesure que les organisations mettent en œuvre ces nouvelles lignes directrices, les utilisateurs peuvent s’attendre à voir des changements dans les politiques de mots de passe sur diverses plateformes et services. Bien qu’il faille un certain temps pour que tous les systèmes s’adaptent, les experts pensent que ces changements conduiront à une sécurité des mots de passe plus efficace à long terme.

Le NIST souligne que ces lignes directrices ne s’adressent pas uniquement aux agences fédérales, mais qu’elles constituent des pratiques exemplaires pour toutes les organisations concernées par la cybersécurité.

Les cybermenaces ne cessant d’évoluer, il est essentiel de se tenir au courant des dernières recommandations en matière de sécurité pour protéger les informations et les systèmes sensibles.


Image d’illustration : Debby Hudson sur Unsplash.

Gestion de rendez-vous open source : cal.com

Organiser un échange n’est pas toujours simple et nécessite parfois plusieurs allers-retours, chacun indiquant ses disponibilités avant de trouver un créneau commun. C’est là qu’intervient cal.com.

Cal.com est une plateforme de planification open-source qui facilite la gestion des rendez-vous et des réunions. Elle permet aux utilisateurs de synchroniser leurs calendriers existants pour éviter les conflits d’horaire et simplifier la prise de rendez-vous. Une version en ligne existe, qui permet de tester la solution. Elle se trouve ici. Elle est gratuite pour les particuliers, et certaines fonctionnalités ne sont disponibles qu’en version payante : gestion d’équipes, personnalisation au nom de la société, etc.

Pourquoi cal.com ?

Cette solution a un énorme avantage : si elle sait gérer la plupart des agendas du marché (Microsoft, Google, etc), elle supporte aussi CalDav, un protocole standard généralement intégré dans les solutions de messagerie/calendrier open source. C’est, en partie, ce qui a motivé notre choix.

La version gratuite en ligne peut vous permettre de tester le logiciel et ses nombreuses fonctionnalités, mais elle n’est pas utilisable dans un cadre professionnel. Pour des questions de licence, bien sûr, mais aussi parce que, pour vérifier vos disponibilités et prendre des rendez-vous, cal.com va devoir accéder en écriture à votre agenda professionnel. On conçoit aisément ce qu’enregistrer identifiants et mots de passe professionnels sur un site géré par on-ne-sait-qui peut avoir de problématique.

Heureusement, cal.com est open source est peut-être installé sur un serveur en local (sources ici). Il repose sur Node.js et React. Il intègre la gestion d’équipe (c’est à dire la vérification des disponibilités dans plusieurs calendriers) en mode global (tout le monde doit être disponible pour qu’un rendez-vous soit possible) ou « round robin » (si une personne de l’équipe est disponible, un rendez-vous est proposé).

Limites et points d’attention

  • Pour pouvoir bénéficier, en toute confidentialité, des fonctionnalités de la solution, il convient de la déployer sur un serveur sûr. Un hébergement maîtrisé est donc nécessaire, puisque qu’elle va accéder en écriture à votre solution d’agenda interne.

  • Des compétences sont nécessaires pour installer et maintenir la solution. Si celles-ci ne sont pas disponibles dans la structure, une prestation de service peut s’avérer utile (mais peut-être coûteuse).

  • L’authentification sur cal.com est locale : l’intégration à l’annuaire professionnel (OpenLdap, Active Directory) n’est pas prévue.

  • La personnalisation de l’outil n’est pas simple : à Échirolles, l’affichage du logo se fait par une redirection nginx.

Cas d’usages

À Échirolles, nous utilisons cal.com dans trois types de cas :

  • La prise de rendez-vous individuels

    Définissez les périodes pendant lesquelles cal.com va pouvoir vous placer des rendez-vous (les après-midi seulement, par exemple). Le logiciel vérifie vos disponibilités dans votre agenda sur ces périodes seulement. Un formulaire en ligne permet d’organiser le rendez-vous. Configurable il peut, par exemple, intégrer un lien de visio. Une invitation par mail est envoyée à la personne qui souhaite vous rencontrer, et l’événement est ajouté à votre calendrier (moyennant, éventuellement, une confirmation de votre part)

  • La réservation de salles de réunion

    Facilement intégrable dans un intranet, cal.com permet de réserver une des salles de réunion de la ville, chacune disposant de son propre agenda dans notre messagerie SOGo. Deux types de réservation sont possibles :
    • Une salle de réunion au hasard (en vérifiant les disponibilités de l’ensemble des salles)
    • Une salle de réunion en particulier (en accédant à ses disponibilités particulières)

  • L’organisation de formations internes

    cal.com sait gérer un nombre de places, et permet donc de limiter le nombre de personnes qui vont pouvoir s’inscrire à un événement. En lien avec la salle dédiée à la formation, il est utilisé, via notre intranet, pour organiser nos formations en interne. Chaque personne qui s’inscrit reçoit un lien d’invitation et, sur l’agenda dédié à la formation, la liste des participants est mise à jour au fur et à mesure.

Pour plus d’informations, n’hésitez pas à me contacter sur Mastodon.

Une alternative à Canva

La veille technologique fait partie des missions de tout responsable informatique. Elle repose sur une bonne connaissance et une consultation régulière de de ressources disponibles en ligne, mais pas seulement. Il n’est pas rare que les usages évoluent au sein de la structure et que nous découvrions, en échangeant avec nos utilisateurs, de nouveaux outils. Problème : ils ne correspondent pas toujours aux recommandations du service informatique, sont parfois incompatibles avec le RGPD ou peuvent poser des problèmes de confidentialité (ou de sécurité).

La politique de la ville d’Échirolles privilégie l’utilisation de logiciels libres et une gestion responsable des données. Il est donc de notre devoir, quand un logiciel n’est pas compatible avec notre schéma directeur « Échirolles numérique libre »., de nous en préoccuper. Mais ces solutions naissent dans notre système d’information parce qu’elles correspondent à un besoin non couvert ou que les utilisateurs considèrent comme plus simple/plus efficace, etc. Interdire l’utilisation n’est donc pas satisfaisant du point de vue du service rendu : il convient de se mettre à la recherche d’alternatives qui sont mieux adaptées au projet de la structure.

Depuis quelques années, Canva est apparu dans nombre d’entreprises et de collectivités, son utilisation est rapidement devenue massive. Nous nous sommes donc mis à la recherche d’une solution crédible, open source, et qui permettrait d’apporter une réponse au besoin de nos employés. Il en existe de nombreuses, et le benchmarking n’a pas été simple. Mais une solution a fini par s’imposer :

Polotno


Polotno se présente comme un clone de Canva. Il permet la création de présentations, posters ou création graphiques en local. Aucun compte n’est nécessaire et les productions ne sont pas conservées sur le serveur.

Il partage avec la solution propriétaire une interface simple et intuitive, l’accès direct à d’immenses bases de données d’icônes (Iconfinder et Noun Project), de photographies (Unsplash), et de nombreux modèles graphiques ou textuels.

Une version en ligne existe à l’adresse studio.polotno.com. Les créations sont conservées localement dans le cache du navigateur, ce qui est plutôt une bonne chose du point de vue de la confidentialité mais qui ne facilite pas le travail en équipe. En revanche, la possibilité d’exporter les créations (en format JSON) avec l’ensemble des éléments (photos, polices, etc.) permet de les transmettre facilement, et de les sauvegarder.

Petit couac : cette version en ligne est mal traduite en français et l’utilisateur est encouragé à créer un compte (payant) sur un cloud en ligne pour sauvegarder son travail. Heureusement, il s’agit d’un logiciel open source. Le code est accessible sous licence MIT. Nous avons donc fait le choix de créer une instance échirolloise de Polotno, correctement traduite et expurgée de ces éléments commerciaux.

J’en ai également installé une, auto-hébergée, pour mon usage personnel. Vous pouvez la tester en cliquant ici.

Quelques éléments ne sont pas encore à la hauteur (impossibilité, dans le module texte, de créer des listes), mais le logiciel évolue rapidement et les mises à jour apportent régulièrement des améliorations.


Sur la gestion des données personnelles par Canva (en anglais) :

Source image d’illustration : Roméo A. sur Unsplash (recadrée avec Polotno)

Évaluation des dépenses logicielles de l’État : soutenons l’initiative de l’April

Ce texte est une reprise d’un article issu du site de l’April, dont l’original est consultable ici.

***

La Cour des comptes a ouvert, jusqu’au 4 octobre 2024, une plateforme de consultation afin de permettre à celles et ceux qui le souhaitent de proposer des thèmes nouveaux sur lesquels l’institution pourrait exercer sa mission de contrôle de l’action publique. L’April y propose « L’évaluation des dépenses logicielles de l’État et des administrations centrales »

En 2022, la Cour des comptes avait initié le principe de consultation publique dans l’objectif de « renforcer les liens des juridictions financières avec les citoyennes et citoyens ». La consultation qui se tient actuellement, et jusqu’au 4 octobre, est donc la troisième édition.

Lors de la première consultation, l’April avait soutenu une proposition de Stéfane Fermigier, coprésident du CNLL (Union des entreprises du numérique ouvert), pour « évaluer les dépenses de logiciels et services en ligne des administrations centrales ». Une proposition dont l’ambition est de couvrir le plus large spectre possible des dépenses informatiques de l’État, notamment en ventilant ces dépenses selon plusieurs critères (type d’acquisition, type de logiciels, taille des fournisseurs, etc.). Une telle évaluation serait en effet bienvenue pour mieux appréhender la réalité des dépendances de l’État à certaines solutions privatrices, et en tout état de cause, un prérequis à la mise en œuvre d’une politique un tant soit peu ambitieuse pour un plus grand usage du logiciel libre au sein des administrations publiques.

La Cour des comptes elle-même considère d’ailleurs, dans un récent rapport de juillet 2024 sur le pilotage de la transformation numérique de l’État 1, qu’« une véritable stratégie numérique avec des objectifs et jalons ne peut faire l’économie d’une consolidation, actuellement inexistante, des dépenses numériques de l’État et de leur projection. »

L’April s’est donc faite sienne cette proposition et la soumise à nouveau lors de cette troisième consultation.

La plateforme de la consultation précise quelques étapes : après la consultation, d’octobre à novembre, les contributions seront analysées et une synthèse sera produite pour, notamment, mettre en valeur les sujets ayant suscité les plus d’interactions, ainsi que les propositions les plus argumentées. En janvier, les sujets de contrôle seront annoncés et la synthèse des contributions sera rendue publique. Les contrôles seront ensuite lancés à partir de janvier. Enfin, en septembre 2025, la quatrième campagne de participation citoyenne sera lancée.

Nous invitons toute personne soucieuse d’une meilleure prise en compte du logiciel libre par la puissance publique à soutenir, voire à commenter, la contribution de l’April.

Cliquez ici pour vous rendre sur le site de l’April et soutenir cette importante initiative.


Source de l’image d’illustration : Agence Olloweb sur Unsplash

Résistance au changement et logiciels libres

Selon Wikipédia, « La résistance (ou aversion) au changement ou immobilisme, consiste à désirer, et tenter d’obtenir par diverses formes de comportements d’opposition, le maintien du statu quo par procrastination ». Michel Crozier, sociologue des organisations (et grand ami du capitalisme triomphant), la définit comme « l’expression raisonnable et légitime des risques que comporte le changement pour les acteurs », introduisant deux notions (raisonnable et légitime) qu’il n’est pas inutile d’interroger : dans un contexte de transition subie (le dérèglement climatique, par exemple), la résistance est-elle raisonnable et légitime ?

Cette problématique de la résistance au changement n’est donc pas spécifique au numérique : elle est un frein, plus ou moins puissant, à toute évolution, toute remise en cause d’un ordre existant.

Alors comment expliquer qu’elle soit si prégnante dans les projets de passage aux logiciels libres ? En réalité, elle se pose de la même façon pour les logiciels propriétaires, mais elle est prise en compte depuis très longtemps. Un passage direct de Windows 95 à Windows 11, par exemple, serait vécu comme une catastrophe par la plupart des utilisateurs. Mais les changements introduits dans le fonctionnement, dans l’ergonomie et dans l’expérience utilisateur en général ont été suffisamment progressifs pour que la résistance soit contenue à des niveaux acceptables.

Changement progressif, facteur temps, introduction de nouvelles fonctionnalités, communication, mimétisme, accoutumance lors de la formation, il y a des leçons à retenir dans la façon de procéder de ces acteurs privés qui, aujourd’hui, se sont imposés comme une évidence auprès des utilisateurs que nous sommes.

Et puis un rappel : l’objectif prioritaire d’un service informatique ne peut pas être de mettre en place les logiciels libres. La priorité, c’est de mettre à la disposition des services/départements les meilleurs outils pour qu’ils puissent effecteur convenablement les tâches qui leur sont confiées.

Les types de résistants

La configuration idéale est celle dans laquelle gouvernance, service informatique et utilisateurs sont acteurs du projet. Mais plus la structure est de taille importante et moins celle-ci est probable, évidemment.

  • Les gestionnaires et décideurs⋅euses : souvent responsables de l’approbation des décisions d’achat de logiciels, ils peuvent avoir des préoccupations concernant la viabilité et la stabilité des solutions open source, en particulier si elles sont habituées à travailler avec des fournisseurs de logiciels propriétaires bien établis. Les questions de support et de responsabilité peuvent également être un facteur : il peut y avoir une perception de risque plus élevé associé à l’utilisation de logiciels sans garantie ou soutien formel.
  • Les services informatiques : il n’est pas rare que les professionnel⋅les de l’informatique, en charge de la mise en œuvre et de la maintenance des logiciels expriment des réserves. Ils/elles peuvent être préoccupé⋅es par les problèmes de compatibilité, craignant que les logiciels libres ne fonctionnent pas bien avec les systèmes existants. Il y a aussi parfois une perception que les logiciels open source sont moins sécurisés ou plus difficiles à prendre en charge, ce qui peut conduire à des inquiétudes quant à la charge de travail supplémentaire ou aux risques potentiels pour la sécurité. Un changement peut également être vécu comme une remise en cause des compétences de l’équipe, et un bouleversement d’une certaine « hiérarchie » basée sur les connaissances.
  • Les utilisateurs⋅trices : il s’appuient sur les logiciels au quotidien et peuvent légitimement s’inquiéter, en particulier s’ils sont habituées à un logiciel propriétaire spécifique et se sentent à l’aise dans son utilisation. L’apprentissage d’un nouveau système peut sembler intimidant et certain⋅es utilisateurs⋅trices peuvent craindre que le logiciel open source soit plus complexe ou moins convivial.
  • Les fournisseurs de logiciels propriétaires : les entreprises qui vivent des logiciels propriétaires peuvent également résister au passage à des solutions libres. Ils reprennent parfois des lieux communs ou idées reçues pourtant éculées. Il n’est pas inhabituel qu’ils exagèrent les risques associés aux logiciels open source pour protéger leurs intérêts commerciaux. Ces fournisseurs peuvent parfois avoir des relations bien établies avec les organisations et influencer défavorablement décideurs et utilisateur.

Deux situations sont fréquentes :

1. La gouvernance est à l’origine du projet mais le service informatique pour des raisons variables, ne met pas en œuvre.

  • Si le manque de compétence dans l’équipe est en cause mais que la volonté de déployer existe, un effort d’accompagnement (formation et communication) est nécessaire avant d’entamer le projet. Car faire mal est pire que de ne pas faire : cela peut décourager durablement les utilisateurs⋅trices et inscrire, dans les esprits, un lien direct entre logiciel libre et mauvais fonctionnement.
  • Si l’équipe n’est pas convaincue que le changement est une bonne idée, la situation se complique mais elle n’est pas désespérée pour autant. La solution : une attention particulière portée aux profils recrutés. Chaque opportunité de recrutement peut/doit se concrétiser par l’embauche d’un employé qui a des compétences et une appétence et pour les logiciels libres. Cela peut certes prendre du temps, mais sans ce virage dans le positionnement, il y a de fortes chances que le projet soit voué à l’échec, soit parce que le travail ne sera pas fait, soit (et c’est pire) parce qu’il sera mal fait.

2. Le service informatique est moteur, sans soutien de celles et ceux qui ont le pouvoir de décision.

Plusieurs approches sont possibles dans ce cas :

  • échanger sur les avantages des logiciels libres. Inutile de mettre en avant une litanie d’arguments, aussi pertinent soient-ils. On ne fait pas de logiciel libre pour le plaisir d’en faire, mais pour mieux répondre à un besoin, à une thématique qu’on souhaite adresser. Mieux vaut donc cibler le discours en fonction des préoccupations de celle ou celui qui doit prendre la décision : souveraineté numérique et propriété intellectuelle, respect des données personnelles, économies, cybersécurité, stabilité et vitesse de réaction, sobriété numérique, vendor locking évité, correspondance avec les valeurs de la structure, les angles d’approche sont nombreux. Prenez le temps de bien les connaître et de construire un argumentaire, écrit ou oral, qui s’appuie sur ceux qui seront partagés par vos interlocuteurs⋅trices.
  • choisir de ne pas parler d’open source et de logiciels libre : axer tout le discours sur l’adéquation de la solution proposée avec le besoin identifié. Si la question est posée, l’évacuer rapidement. Cela peut également s’appliquer aux utilisateurs⋅trices : la priorité est de leur donner les moyens de faire leur travail dans de bonnes conditions, et le choix du libre peut tout à fait ne pas être mis en avant.

Les types de résistance

  • Familiarité et confort : les gens ont tendance à résister au changement lorsqu’ils sont à l’aise et habitués à un système existant. Plus un logiciel leur semble simple et efficace et plus leur inquiétude sera grande. Certain-es ont dû fournir un effort conséquent pour disposer des compétences leur permettant de s’acquitter de leurs tâches quotidiennes. L’apprentissage d’un nouveau logiciel peut leur sembler intimidant et le simple fait d’utiliser une interface différente peut être mal vécu.
  • Pression culturelle : certaines professions sont intimement liées, dès la période de formation, à des solutions propriétaires. Les graphistes, par exemple, sont en immense majorité des utilisateurs⋅trices de Macintosh et de la suite de création graphique d’Adobe.
  • Compatibilité et intégration : les organisations ont souvent des systèmes complexes et des processus parfois bien établis. Les problèmes de compatibilité ou de difficultés d’intégration avec les systèmes existants, réels ou supposés, sont souvent évoqués comme un frein au changement.
  • Peur du déclassement : passer d’un système couramment utilisé à un environnement plus inhabituel peut être vécu comme un déclassement, une dégradation des conditions de travail. Pour celles et ceux qui sont sensibles à cette crainte, la gratuité ou la singularité de l’outil sont autant d’indices d’un fonctionnement moins qualitatif. La peur de la marginalisation, de la différence, sont des moteurs puissants de la résistance.
  • Peur de revivre une migration mal gérée : un projet de migration vers un logiciel libre, annoncé, revendiqué et qui se passe mal peut avoir des effets terribles pour le futur. L’utilisateur⋅trice associe presque systématiquement « open source » (ou logiciel libre) et dysfonctionnement.

Les moyens d’avancer : une stratégie de migration claire, adaptée, systématique… et souple.

Une stratégie de migration efficace doit prendre en compte l’ensemble de ces situations et les adresser, sous peine de courir à l’échec. On peut être compétent, convaincu de l’utilité, de l’intérêt ou de l’urgence de choisir une autre voie dans la mise en œuvre du numérique et échouer. Ces convictions, que je partage, n’ont pas leur place dans une stratégie de migration. Au contraire, elles peuvent faire obstacle à une écoute attentive et à la prise en compte des craintes exprimées (directement ou indirectement) par les utilisateurs⋅trices. Méfions nous de notre enthousiasme et partons du principe qu’il est rarement partagé.

Mais foin des considérations théoriques et autres déclarations péremptoires, voici un exemple de projet de migration (à Linux, pour l’exemple) qui prendrait justement, et dans la mesure du possible, en compte les écueils évoqués.

Le choix du meilleur outil

Avant d’entamer la migration, un important travail de préparation doit être réalisé, en interne. Il permet de :

  • vérifier que l’outil (la distribution de Linux, par exemple) s’intègre parfaitement dans l’environnement informatique tel qu’il est (et pas tel qu’on aimerait qu’il soit).

    Cette intégration avec l’existant s’appréhende de manière étendue, pour garantir la compatibilité avec les systèmes communs (annuaire informatique, systèmes d’impression, serveur de fichier, etc.) et l’ensemble des logiciels utilisés au quotidien. Cela suppose une bonne connaissance des besoins métiers et habitudes prises sur les postes clients.
  • sélectionner une distribution qui se rapproche le plus possible de ce que les gens connaissent déjà (Windows ou MacOS, typiquement).

    Cela permet de minimiser l’impression d’un changement important… et donc l’effort de formation nécessaire pour une adoption en douceur. Un passage de Windows 11 à Ubuntu sera toujours plus difficile qu’un passage à Zorin OS, distribution qui s’efforce justement de ressembler à Windows.
  • négocier, avec les décideurs⋅euses, une migration qui ne s’appuie sur aucun d’objectif chiffré, ni daté.

    Cette condition permet d’adapter l’effort de migration au niveau de résistance rencontré. Elle donne au service la latitude de réagir en cas de problème, de monter progressivement en compétence et de fournir aux utilisateurs⋅trices un niveau de service à la hauteur de l’importance du projet. Un objectif de migration à 100% est illusoire, et il faut l’affirmer dès le début du projet. Des problèmes de compatibilité (avec des solutions fournies par des partenaires, par exemple) peuvent se présenter et compromettre la migration de certains utilisateurs. La résistance culturelle peut également être si forte que, dans certains cas, renoncer est la meilleure des solutions.
  • prévoir des solutions de contournement : des problèmes d’incompatibilité avec des logiciels métier peuvent se poser, qu’il ne faut pas négliger. Envisager des moyens de les faire fonctionner est indispensable sous peine d’impacter sérieusement la migration. Un accès à un serveur RDP sous Windows permet, avec le client Remmina pour Linux, de résoudre énormément de ces cas (logiciels avec client lourd pour Windows, accès à Excel dans le cas d’incompatibilité avec des solutions tierces, etc.)
  • prévoir une communication sur le sujet : partager la stratégie de migration, préciser que l’objectif n’est pas de passer tout le monde au libre, affirmer qu’il n’y aura pas de migration contrainte, penser à mettre en avant les « petits plus » et les avantages (pour les utilisateurs⋅trices, pas pour la gouvernance) du changement, bref : rendre, autant que possible, le changement désirable.

Une expérimentation à petite échelle

Dans les premiers temps de la migration, il est indispensable de limiter le nombre de postes concernés, et de s’adresser à un public choisi. Ce bêta-test permet de réaliser les derniers ajustements et de s’assurer qu’en condition opérationnelle il répond effectivement au besoin, avec le niveau de qualité attendu. Sur un parc de 500 utilisateurs⋅trices il peut concerner, par exemple, une dizaine de personnes. On prendra soin de sélectionner des profils d’utilisation variés, et d’intégrer plusieurs décideurs⋅euses-clés (pour une validation facilitée du passage aux étapes suivantes).

Un appel au volontariat

La meilleure façon d’entamer effectivement la migration est de commencer par un appel au volontariat. « Vous voulez utiliser Linux ? Nous l’installons et nous le maintenons ! ». Cette étape a plusieurs vertus.

Elle permet :

  • d’augmenter le parc installé sans résistance au changement (ou avec une résistance très faible). Cela participe de la montée en compétence progressive de l’équipe ;

  • faire naître la nouvelle solution dans l’environnement informatique de la collectivité ou de l’entreprise. Le simple fait qu’une utilisation de Linux au quotidien apparaisse dans les usages permet de lever un certain nombre de doutes sur la faisabilité d’une évolution ;

  • pouvoir communiquer sur une migration effectivement démarrée.

Dans mes différentes expériences, cette phase (additionnée au beta-test), maintenue pendant 1 an, a permis de migrer 5% du parc environ.

Une phase d’incitation

Proposer systématiquement Linux lors de la remise d’une nouvelle machine permet également de faire exister la solution et d’élargir le champ des possibles sans contrainte pour les employé⋅es. Après une phase d’appel au volontariat, cela permet d’équiper des gens qui ont vu fonctionner Linux chez d’autres, ont pu en mesurer certains des avantages et ont développé une curiosité pour le sujet.

Cette phase permet d’installer l’utilisation de Linux comme une alternative crédible au sein de la structure et de l’asseoir, au niveau du service informatique, dans un fonctionnement standardisé. Après quelques années (2 à 3 ans, typiquement), 10% à 20% du parc peut ainsi être migré.

Le libre par défaut ?

Si les phases précédentes se sont globalement bien déroulées et que la présence de postes clients sous Linux n’est plus une surprise dans l’environnement de la structure, pourquoi ne pas en faire le système d’exploitation par défaut ?

Dans ce cas, il faut garder à l’esprit que certains postes, pour les raisons exposées ci-dessus, ne pourront/devront pas être migrés :

  • parce que des logiciels métiers peuvent être vraiment incompatibles avec Linux ;
  • parce que la résistance culturelle est trop forte. Il convient de garder à l’esprit que, pour certaines professions (les graphistes, typiquement), une migration à Linux peut être socialement très coûteuse. Leur demander de changer nécessite un effort de formation énorme (ceux qui comme moi ont fait l’effort de passer de Photoshop à GIMP comprendront de quoi je parle) et peut leur donner le sentiment, conscient ou pas, d’une marginalisation importante dans leur milieu (alors même qu’il n’y a pas d’obstacles techniques et fonctionnels objectifs). S’il n’est pas inintéressant de travailler le sujet quand c’est possible, il ne faut certainement pas commencer par adresser ces populations. Renoncer peut même être sage.

L’accompagnement, la formation

Si une bonne stratégie de migration permet de minimiser l’effort de formation nécessaire pour le passage à une solution libre, c’est un point qu’il ne faut pas négliger. Prévoir des sessions de formation permet de répondre à plusieurs types de demandes :

  • des demandes de montée en compétence (pour une utilisation plus ou moins avancée) ;

  • des inquiétudes liées à la nouveauté (alors que le niveau de la personne est suffisant pour pouvoir fonctionner en autonomie). Ce deuxième point est important : au delà des aspects techniques, la formation est vécue comme un moment d’échange et d’écoute avec ceux qui ont proposé (et qui mettent en œuvre) le changement. Elle est l’affirmation que le service a conscience de ce qui peut parfois être perçu (à tort ou à raison) comme un effort important.

Le positionnement doit être : comment puis-je faire sous Linux (ou avec LibreOffice, par exemple), ce que je sais déjà faire sous Windows (ou sous Microsoft Office) ? Partir, en complément d’une formation générale, d’exemple concrets fournis par les employé⋅es et travaillés ensemble, est une très bonne idée.

De nombreux⋅ses acteurs et actrices de l’écosystème peuvent vous aider à mettre en œuvre, en lien avec le service des ressources humaines, des prestations d’accompagnement et/ou de formation. Vous pouvez aussi faire le choix, si la charge de travail de l’équipe le permet, de sessions organisées en interne.

L’échange avec les autres acteurs

Échanger avec des collègues qui ont déjà dû gérer une migration de ce type est une très bonne idée. Cela permet de s’inspirer de pratiques et d’outils qui ont fait la preuve de leur efficacité dans un contexte approchant. Des écueils importants et de nombreuses fausses bonnes idées peuvent être utilement évités. Des noms de prestataires qui ont donné satisfaction peuvent également être partagés.

Un land allemand libéré

Ce texte est une traduction d’un communiqué de presse en allemand intitulé « Einstieg in den Umstieg » publié par le land allemand Schleswig-Holstein, sur son site web, le 3 avril 2024. Neuvième état allemand en nombre d’habitants et douzième pour sa superficie, sa capitale est Kiel.

***

Le Schleswig-Holstein mise à l’avenir sur un poste de travail informatique numériquement souverain dans l’administration du Land – c’est ce que vient de décider le cabinet.

Indépendant, durable, sûr : le Schleswig-Holstein sera une région pionnière en matière de numérique et le premier Land à introduire un poste de travail informatique numériquement souverain dans son administration régionale. Avec une décision du cabinet d’introduire à grande échelle le logiciel open source LibreOffice comme solution bureautique standard, le gouvernement a donné le coup d’envoi de la première étape vers la souveraineté numérique totale du Land, d’autres étapes suivront.

Les données des citoyens restent en sécurité

« L’avenir de l’administration est basé sur le cloud, l’automatisation, les algorithmes et les données. Nos applications informatiques fonctionneront donc à l’avenir comme des services en nuage sur Internet. En conséquence, les grands fabricants de produits informatiques courants transfèrent de plus en plus leurs applications sur Internet. Nous n’avons aucune influence sur les processus d’exploitation de ces solutions et sur le traitement des données, y compris sur une éventuelle fuite de données vers des pays tiers. En tant qu’État, nous avons la responsabilité envers nos citoyens et nos entreprises de veiller à ce que leurs données soient en sécurité chez nous et nous devons nous assurer que nous sommes toujours maîtres des solutions informatiques que nous utilisons et que nous pouvons agir en toute indépendance. Assurer la souveraineté numérique est au moins aussi important que la souveraineté énergétique », déclare le ministre du numérique du Schleswig-Holstein, Dirk Schrödter.

Une place numérique forte en Europe

« Mais la voie de la souveraineté numérique suit aussi une boussole claire en matière de politique industrielle. Ma vision d’une place numérique forte en Europe peut ainsi devenir réalité, car nous ne devons plus dépenser nos budgets publics uniquement en droits de licence, mais investir dans de véritables services de programmation de notre économie numérique nationale, créant ainsi de la valeur et des emplois sur place. Nos objectifs en matière de développement d’un marché unique numérique commun sont des solutions et des services numériques souverains que nous mettons en réseau. En tant qu’administration nationale, nous utilisons le trésor des données pour garantir, à l’intérieur du pays, des innovations ouvertes, des chaînes de création de valeur numériques et la prospérité ».

Nous prenons la souveraineté numérique au sérieux

Selon Schrödter, la souveraineté numérique fait partie intégrante de la stratégie numérique et du programme de travail du gouvernement régional. « Les produits actuels du poste de travail informatique standard ne permettent pas d’atteindre cet objectif. Nous prenons la souveraineté numérique au sérieux et allons de l’avant : le changement décidé pour les logiciels Office est une étape importante, mais ce n’est que le début de la transition : le passage aux logiciels libres pour le système d’exploitation, la plateforme de collaboration, le service d’annuaire, les procédures spécialisées et la téléphonie suivra ».

Avec la décision du cabinet, le gouvernement du Land a donné un début concret à la transition des logiciels propriétaires vers des systèmes open source libres et ouverts, ainsi qu’au poste de travail informatique numériquement souverain pour les quelque 30 000 employés de l’administration du Land. Par logiciel propriétaire, on entend des applications numériques dont l’utilisation et le traitement ultérieur sont fortement limités par les droits d’auteur et les conditions de licence. De plus, une offre existe souvent en relation avec des prestations d’exploitation et de centre de calcul, ce qui permet au fournisseur de conserver la souveraineté du produit.

Meilleure sécurité informatique, rentabilité, protection des données

Le passage à des solutions open source est un élément important pour le maintien de la souveraineté numérique. L’utilisation de logiciels open source permet également d’améliorer la sécurité informatique, la rentabilité, la protection des données et la collaboration entre les différents systèmes. Outre le développement de logiciels à source ouverte, l’objectif est également de mettre à disposition les futurs résultats de développement du pays sous des licences libres.

Les six piliers d’un poste de travail informatique numériquement souverain

Les éléments du poste de travail informatique numériquement souverain sont mis en place dans le Schleswig-Holstein dans six piliers de projet au total :

  • Passer de Microsoft Office à LibreOffice
  • Passage du système d’exploitation Microsoft Windows à Linux
  • Collaboration au sein de l’administration du Land et avec des personnes externes : utilisation des produits open source Nextcloud, Open Xchange/Thunderbird en combinaison avec le connecteur AD d’Univention pour remplacer Microsoft Sharepoint ainsi que Microsoft Exchange/Outlook.
  • Conception d’un service d’annuaire basé sur l’open source pour remplacer Microsoft Active Directory
  • Inventaire des procédures spécialisées en termes de compatibilité et d’interopérabilité avec LibreOffice et Linux
  • Développement d’une solution de téléphonie basée sur l’open source pour remplacer Telekom-Flexport

Offre de formation complète du personnel

L’utilisation de LibreOffice en tant que suite bureautique standard dans la communication entre les ministères et les autorités se fait à court terme et son utilisation est obligatoire. Si le changement ne peut pas être effectué rapidement en raison de conditions techniques ou professionnelles, des exceptions possibles seront convenues. Une offre de formation complète et à bas coût est disponible pour les collaborateurs et est mise à jour en fonction des besoins. En outre, la gestion centrale des technologies de l’information du Land fournit un soutien au personnel lors de l’introduction de LibreOffice.


OSQI

Ce texte est une traduction d’un article intitulé « OSQI » publié par Tim Bray, sur son site web « ongoing » le 1er avril 2024.

***

Je propose la création d’un ou plusieurs « Open Source Quality Institutes ». Un OSQI est une organisation du secteur public qui emploie des ingénieurs en logiciel. Sa mission serait d’améliorer la qualité, et en particulier la sécurité, des logiciels libres populaires.

Pourquoi ?La porte dérobée XZ Utils (disons simplement #XZ) est à l’origine de ce qui m’a conduit à cette idée. Si vous vous penchez sur cette histoire, il devient évident que la vulnérabilité clé n’était pas technique, mais était liée au fait qu’un grand nombre de logiciels open source sont sous-maintenus ou négligés, parce qu’ils ne s’appuient pas sur une logique commerciale permettant de payer des gens pour s’en occuper. Ce qui est un problème, parce qu’il existe de bonnes raisons de payer des gens pour les attaquer.

D’autres activités humaines essentielles ne sont pas rentables, comme l’enseignement supérieur, la qualité de l’eau potable et la réglementation financière. Pour ces activités, nous créons des structures non capitalistes telles que des universités, des instituts et des agences, parce que la société a besoin que ces choses soient faites, même si personne ne peut gagner de l’argent en les faisant.

Je pense que nous devons accorder plus d’attention à la qualité en général, et à la sécurité en particulier, des logiciels libres qui sont devenus la plate-forme sous-jacente de plus ou moins notre civilisation. D’où l’OSQI.

Ils veulent notre peau – Pour moi, les deux grandes leçons de #XZ sont d’abord le manque de ressources pour soutenir une infrastructure open source cruciale, mais ensuite et surtout la démonstration que les attaquants sont nombreux, compétents et patients. Nous savions déjà que les attaquants étaient nombreux et compétents, mais cet épisode, où l’attaquant était déjà bien implanté dans le projet dès mai 2022, a ouvert quelques yeux, dont les miens.

L’avantage, pour les différents types de malfaiteurs, de subvertir les pièces maîtresses de l’infrastructure open source est incalculable. Nous avons repéré #XZ ; combien en avons-nous manqué ?

Qu’est-ce que l’OSQI ? – C’est une organisation créée par un gouvernement national. Il est évident que plus d’une nation peut avoir un OSQI.

La grande majorité du personnel serait composée d’ingénieurs logiciels relativement expérimentés, avec un petit pourcentage de personnes paranoïaques non spécialisées dans la sécurité informatique. Il est possible de faire beaucoup avec seulement 250 personnes, et le coût supporté serait insignifiant pour un gouvernement important.

Puisqu’il est évident que toutes les entreprises du monde ayant un chiffre d’affaires d’un milliard ou plus dépendent de l’open source, il serait raisonnable d’imposer une taxe de, disons, 0,1 % du chiffre d’affaires à toutes ces entreprises, pour aider à soutenir ce travail. L’argent n’est pas un problème.

Structure – La sélection des progiciels qui feront l’objet de l’attention de l’OSQI sera laissée à l’organisation, bien qu’il y ait des possibilités pour quiconque de demander une vérification. L’organisation de l’ingénierie pourrait être relativement horizontale, la plupart des personnes accordant une attention individuelle à des projets individuels, puis des équipes ad hoc se formant pour la construction d’outils ou la gestion de crise lorsqu’un truc comme #XZ se produit.

Pourquoi y travaillerait-on ? – Le salaire serait correct ; moins que chez Google ou Facebook, mais un salaire décent de fonctionnaire. Il n’y aurait aucun soupçon que votre employeur essaie de rendre pire quoi que ce soit ; en fait, vous commenceriez à travailler le matin avec la certitude que vous essayez d’améliorer le monde. Le télétravail serait le mode de travail par défaut, de sorte que vous pourriez vivre dans un endroit où un salaire qui ne serait pas tout à fait celui de Google vous permettrait d’avoir un mode de vie très confortable. Il y aurait des vacances décentes, des avantages sociaux et (*ahem*) une pension de retraite.

Et il y a une certaine catégorie de personnes qui trouverait une joie quotidienne dans le fait de jeter un coup d’œil, de fouiller et de perfectionner des paquets open source dont dépendent des millions de programmeurs et (indirectement) des milliards d’êtres humains. Il y a quelques décennies, j’en aurais fait partie.

Je ne pense pas que le recrutement soit un problème.

Quels sont donc les objectifs et les non-objectifs de l’OSQI ?

Objectif : sécurité – Cela doit passer en premier. Si tout ce que l’OSQI accomplit est de déjouer quelques attaques du type de #XZ, et de rendre la vie plus difficile à ceux qui les commettent, c’est très bien.

Objectif : construction d’outils – Je pense qu’il est désormais acquis que les plus grandes surfaces d’attaque de l’open source sont les réseaux de dépendance et les outils de build. Ce sont des problèmes importants et complexes, mais faisons preuve d’audace et plaçons la barre haut :

Les logiciels libres doivent être construits de manière déterministe, vérifiable et reproductible, à partir de snapshots de code source signés. Ces snapshots doivent être exempts d’artefacts générés ; chaque élément du snapshot doit être écrit et lisible par l’homme.

Par exemple : comme l’a dit Kornel, sérieusement, rétrospectivement, #autotools lui-même est un risque massif pour la sécurité de la chaîne d’approvisionnement. Je ne plaisante pas ! Sauf que le réflexe de tout le monde c’est « Comment vous allez faire, ce truc est interdépendant avec à peu près tout ».

Il existe des alternatives ; je connais CMake et Meson. Sont-elles suffisantes ? Je n’en sais rien. Il est évident que GNU AutoHell ne peut pas être balayé de tous les recoins organiques dans lequel il se cache et qu’il infecte, mais chaque projet dont il sera éliminé présentera moins de danger pour le monde. Je pense que l’OSQI aurait la possibilité de faire de réels progrès sur ce front.

Non-objectif : fonctionnalités – L’OSQI ne devrait jamais investir de ressources techniques dans l’ajout de fonctionnalités intéressantes aux paquets open source (à l’exception peut-être des outils de build et de test). La communauté open source déborde d’énergie pour ajouter de nouvelles fonctionnalités, la plupart provenant de personnes qui veulent prendre le taureau par les cornes ou qui font face à un réel blocage au travail. Ils sont bien mieux placés pour apporter ces améliorations que n’importe qui à l’OSQI.

Objectif : maintenance – Beaucoup trop de paquets deep-infra sont de moins en moins maintenus au fur et à mesure que les gens vieillissent, sont débordés, fatigués, malades ou morts. Alors que j’écrivais ceci, un appel à l’aide m’est parvenu de Sebastian Pipping, l’excellent mainteneur d’Expat, le parser XML le plus populaire au monde, mais qui n’est pas supporté et n’est pas financé.

Et oui, il s’inscrit une tendance, qui comprend notamment le désormais célèbre paquet XZ Utils.

Je pense donc qu’une tâche utile pour l’OSQI serait de prendre en charge (idéalement partiellement) les tâches de maintenance pour de nombreux projets open source qui ont un ratio élevé d’adoption par rapport au support. Dans certains cas, l’OSQI devrait prendre une forme moins intensive, que nous appellerons « life support » [maintien en vie], où l’OSQI s’occupe des rapports de vulnérabilité mais refuse catégoriquement d’aborder les demandes de fonctionnalités, aussi triviales soient-elles, et rejette tous les PR à moins qu’ils ne viennent de quelqu’un qui est prêt à prendre en charge une partie de la charge de la maintenance.

L’un des avantages d’avoir des professionnels rémunérés qui s’en chargent est qu’ils peuvent éviter le type de harcèlement par ingénierie sociale que l’attaquant de #XZ a infligé au mainteneur de XZ-Utils (voir l’excellente chronologie de Russ Cox) et qui est malheureusement trop courant dans le monde de l’open source en général.

Objectif : analyse comparative – L’efficacité est un aspect de la qualité, et je pense qu’il serait parfaitement raisonnable que l’OSQI s’engage dans l’analyse comparative et l’optimisation. Il y a une raison non évidente à cela : #XZ a été démasqué lorsqu’un spécialiste de Postgres a remarqué des problèmes de performance.

Je pense qu’en général, si vous êtes une personne mal intentionnée et que vous essayez d’introduire une porte dérobée dans un paquetage open source, il sera difficile de le faire sans introduire des problèmes de performance. Je préconise depuis longtemps que les tests unitaires et/ou d’intégration devraient inclure un ou deux points de référence, juste pour éviter les régressions de performance bien intentionnées ; s’ils handicapent aussi les méchants, c’est un bonus.

Objectif : éducation et évangélisation – Le personnel de l’OSQI développera un pool commun de compétences approfondies pour rendre les logiciels libres plus sûrs et plus performants, et plus particulièrement pour détecter et repousser de multiples types d’attaques. Ils doivent les partager ! Blogs, conférences, etc. Il m’est même venu à l’esprit qu’il pourrait être judicieux de structurer l’OSQI en tant qu’institution éducative, autonome ou en tant qu’école supérieure de quelque chose d’existant.

Mais ce dont je parle, ce n’est pas d’articles dans le JACM avec comité de lecture, mais ce que mon père, professeur d’agriculture, appelait « vulgarisation » : transmettre les résultats de la recherche directement à ceux qui pratiquent.

Non-objectif : élaborer des normes – Le monde compte suffisamment d’organismes de normalisation. Je pourrais cependant imaginer que des employés de l’OSQI participent à l’IETF, à l’IEEE, au W3C ou à d’autres organismes, en travaillant sur des normes relatives à l’infosec.

Ce qui m’amène à…

Non-objectif : litiges – ou toute autre activité liée à l’application de la législation. L’objectif de l’OSQI est de résoudre les problèmes, de créer des outils et de partager les enseignements tirés de l’expérience. Cela sera plus facile si personne (à l’exception des attaquants) ne les considère comme une menace et si le personnel n’a pas à penser à la façon dont son travail et ses conclusions seront présentés devant un tribunal.

Et un non-objectif connexe…

Non-objectif : licences – L’intersection entre la catégorie de personnes qui feraient de bons ingénieurs OSQI et celles qui se soucient des licences open source est, heureusement, très réduite. Je pense que l’OSQI devrait accepter le paysage des licences qui existe et travailler dur pour éviter de penser à sa théologie.

Non-objectif : certification – Une fois que l’OSQI existera, l’appellation « certifié par l’OSQI » pourrait voir le jour. Mais ce serait une erreur ; l’OSQI devrait être une organisation d’ingénieurs ; le coût (mesuré par la bureaucratie requise) de la certification serait astronomique.

Objectif : transparence – L’OSQI ne peut pas se permettre d’avoir des secrets, à la seule exception des vulnérabilités fraîchement découvertes mais encore non divulguées. Et lorsque ces vulnérabilités sont divulguées, l’histoire de leur découverte et de leur caractérisation doit être partagée, entièrement et complètement. Cela semble être une base minimale pour construire le niveau de confiance qui sera nécessaire.

Paranoïa nécessaire – J’ai expliqué plus haut pourquoi l’OSQI pouvait être un lieu de travail agréable. Il y aura cependant un inconvénient : vous perdrez une partie de votre vie privée. Si l’OSQI réussit, il deviendra une cible de grande valeur pour nos adversaires. Dans le cours naturel des choses, de nombreux employés deviendront des committers sur des paquets populaires, ce qui augmentera leur attrait en tant que cibles pour les pots-de-vin ou le chantage.

Je me souviens d’un jour où un responsable de la sécurité d’un géant de l’Internet m’a dit : « Nous avons des milliers d’ingénieurs, et mon travail m’oblige à croire qu’au moins l’un d’entre eux a aussi un autre employeur ».

Je pense donc que l’OSQI doit employer un petit nombre d’experts paranoïaques en sécurité traditionnelle (pas en Infosec) pour surveiller leurs collègues, contrôler leurs finances et se méfier d’une manière générale. Ces personnes s’occuperaient également de la sécurité physique et de la sécurité du réseau de l’OSQI. Parce que les attaquants attaqueront.

Prononciation – Rime avec « bosky » [NDT : verdoyant], bien sûr. De plus, les personnes qui y travaillent sont des OSQIens. J’ai déposé le nom de domaine « osqi.org » et j’en ferai joyeusement don dans le cas, assez improbable, où cette idée aboutirait.

Vous êtes sérieux ? – Oui. Sauf que je ne parle plus avec la voix d’un employeur puissant. [NDT : Tim a travaillé pour de grands acteurs économiques de la tech]

Écoutez : pour le meilleur ou pour le pire, l’open source a gagné. [Note de l’auteur : pour le meilleur, bien sûr]. Cela signifie qu’il est devenu une infrastructure cruciale de la civilisation, que les gouvernements devraient activement soutenir et entretenir, tout comme les routes, les barrages et les réseaux électriques.

Ce n’est pas tant que l’OSQI, ou quelque chose de semblable, soit une bonne idée ; c’est que ne pas essayer d’atteindre ces objectifs, en 2024, est dangereux et insensé.


À l’occasion du 35e anniversaire du web : lettre ouverte

Ce texte est une traduction d’un article intitulé « Marking the Web’s 35th Birthday : An Open Letter » publié par Tim Berners Lee, inventeur du Web, sur le site de la Web Foundation.

***

L’espoir originel

Il y a trois décennies et demie, lorsque j’ai inventé le web, sa trajectoire était impossible à imaginer. Il n’y avait pas de feuille de route pour prédire son évolution, c’était une odyssée captivante remplie d’opportunités et de défis imprévus. L’ensemble de son infrastructure était sous-tendu par l’intention de permettre la collaboration, d’encourager la compassion et de générer de la créativité – ce que j’appelle les 3 C. La première décennie du web a tenu ses promesses : le web était décentralisé, avec une longue traîne de contenus et d’options, il créait de petites communautés plus localisées, donnait des moyens d’action aux individus et favorisait une énorme valeur ajoutée. Pourtant, au cours de la dernière décennie, au lieu d’incarner ces valeurs, le web a contribué à les éroder. Les conséquences sont de plus en plus importantes. De la centralisation des plateformes à la révolution de l’intelligence artificielle, le web constitue la couche fondamentale de notre écosystème en ligne – un écosystème qui remodèle aujourd’hui le paysage géopolitique, entraîne des changements économiques et influence la vie des gens dans le monde entier.

État des lieux

Il y a 5 ans, lorsque le web a eu 30 ans, j’ai dénoncé certains des dysfonctionnements causés par le fait que le web est dominé par l’intérêt personnel de plusieurs entreprises qui ont érodé les valeurs du web et conduit à des ruptures et à des préjudices. Aujourd’hui, cinq ans plus tard, alors que nous fêtons le 35e anniversaire du web, les progrès rapides de l’IA ont exacerbé ces préoccupations, prouvant que les problèmes du web ne sont pas isolés, mais plutôt profondément liés aux technologies émergentes.

Il y a deux questions claires et liées à aborder. Le premier est l’ampleur de la concentration du pouvoir, qui contredit l’esprit décentralisé que j’avais envisagé à l’origine. Cela a segmenté le web, avec une lutte pour garder les utilisateurs accrochés à une plateforme afin d’optimiser les profits grâce à l’observation passive du contenu. Ce modèle commercial d’exploitation est particulièrement grave en cette année d’élections qui pourrait déboucher sur des troubles politiques. Le second problème est aggravé par le marché des données personnelles qui a exploité le temps et les données des gens en créant des profils profonds qui permettent de faire de la publicité ciblée et, en fin de compte, de contrôler l’information dont les gens sont nourris.

Comment cela s’est-il produit ? Le leadership, entravé par un manque de diversité, s’est détourné d’un outil au service du bien public pour le soumettre aux forces capitalistes qui aboutissent à la monopolisation. La gouvernance, qui devrait corriger cette situation, n’y est pas parvenue, les mesures réglementaires étant dépassées par le développement rapide de l’innovation, ce qui a creusé un fossé entre les avancées technologiques et une surveillance efficace.

L’avenir dépend de notre capacité à réformer le système actuel et à en créer un nouveau qui serve véritablement les intérêts de l’humanité. Pour y parvenir, nous devons décloisonner les données afin d’encourager la collaboration, créer des conditions de marché dans lesquelles une diversité d’options prospère pour alimenter la créativité, et passer d’un contenu polarisant à un environnement façonné par une diversité de voix et de perspectives qui favorisent l’empathie et la compréhension.

Niveau fixé

Pour transformer véritablement le système actuel, nous devons à la fois nous attaquer aux problèmes existants et soutenir les efforts des individus visionnaires qui travaillent activement à la construction d’un nouveau système amélioré. Un nouveau paradigme est en train d’émerger, qui place l’intention des individus plutôt que l’attention au cœur des modèles économiques, nous libérant ainsi des contraintes de l’ordre établi et nous redonnant le contrôle de nos données. Porté par une nouvelle génération de pionniers, ce mouvement cherche à créer un web plus centré sur l’humain, conformément à ma vision initiale. Ces innovateurs sont issus de diverses disciplines – recherche, politique et conception de produits – et sont unis dans leur quête d’un web, et des technologies qui y sont liées, qui nous servent et nous donnent les moyens d’agir. Bluesky et Mastodon ne se nourrissent pas de notre engagement mais créent tout de même des groupes, Github fournit des outils de collaboration en ligne et les podcasts contribuent à la connaissance de la communauté. À mesure que ce paradigme émergent prend de l’ampleur, nous avons l’occasion de redessiner un avenir numérique qui donne la priorité au bien-être, à l’équité et à l’autonomie de l’être humain. Il est temps d’agir et d’embrasser ce potentiel de transformation.

Changement fondamental

Comme le souligne le « Contrat pour le web », une multitude de parties prenantes doivent collaborer pour réformer le web et guider le développement des technologies émergentes. Des solutions de marché innovantes, comme celles que j’ai mises en évidence, sont essentielles à ce processus. La législation avant-gardiste des gouvernements du monde entier peut faciliter ces solutions et aider à gérer le système actuel de manière plus efficace. Enfin, en tant que citoyens du monde entier, nous devons nous engager et exiger des normes plus élevées et une plus grande responsabilité pour nos expériences en ligne. Le moment est venu d’affronter les lacunes du système dominant tout en catalysant des solutions transformatrices qui responsabilisent les individus. Ce système émergent, riche en potentiel, est en train de se développer et les outils de contrôle sont à notre portée.

Une partie de la solution réside dans le protocole Solid, une spécification et un mouvement visant à fournir à chaque personne son propre « data store personnel en ligne », connu sous le nom de POD. Nous pouvons restituer la valeur qui a été perdue et restaurer le contrôle des données personnelles.

Avec Solid, les individus décident de la manière dont leurs données sont gérées, utilisées et partagées. Cette approche a déjà commencé à prendre racine, comme on peut le voir en Flandre, où chaque citoyen a désormais son propre POD après que Jan Jambon a annoncé, il y a quatre ans, que tous les citoyens de Flandre devraient avoir un POD.

C’est l’avenir de la propriété et du contrôle des données, et c’est un exemple du mouvement émergent qui est sur le point de remplacer le système actuel dépassé.

Appel à l’action

La réalisation de ce mouvement émergent ne se fera pas du jour au lendemain – il faut soutenir les personnes qui mènent la réforme, qu’il s’agisse de chercheurs, d’inventeurs ou de défenseurs. Nous devons amplifier et promouvoir ces cas d’utilisation positifs et nous efforcer de faire évoluer l’état d’esprit collectif des citoyens du monde. La Web Foundation, que j’ai cofondée avec Rosemary Leith, a soutenu et continuera de soutenir et d’accélérer ce système émergent et les personnes qui en sont à l’origine. Cependant, il est nécessaire, urgent, que d’autres fassent de même, qu’ils soutiennent les dirigeants moralement courageux qui se lèvent, qu’ils collectivisent leurs solutions et qu’ils renversent le monde en ligne dicté par le profit en un monde dicté par les besoins de l’humanité. Ce n’est qu’alors que l’écosystème en ligne dans lequel nous vivons tous atteindra son plein potentiel et fournira les bases de la créativité, de la collaboration et de la compassion.

Tim Berners-Lee
12 mars 2024


DSI, travaillons notre autonomie !

Il n’est pas rare que les DSI se plaignent d’augmentations significatives des coûts de licences et des abonnements, sans réaliser que nous sommes victimes d’un système. Tout, dans le marketing autour des outils informatiques et dans les choix stratégiques nationaux, incite à une augmentation de la dépendance vis-à-vis des fournisseurs : doctrine « cloud au centre », applications qui, du jour au lendemain, ne sont plus accessibles qu’en mode Software as a Service (SaaS), licences qui ne sont plus disponibles que sous forme d’abonnement…

Les collectivités locales sont en difficulté. La cause ? Des recettes en chute libre :

  • non-augmentation des impôts (devenue un incontournable des politiques de tout bord) ;
  • nouvelles compétences transférées aux collectivités sans compensation suffisante ;
  • baisse des dotations et des subventions reçues ;
  • financements de plus en plus partiels des projets.

Contraintes de présenter des budgets à l’équilibre, elles doivent baisser leur niveau de dépense dans les mêmes proportion… et donc le niveau de service public qu’elles proposent.

Et c’est dans ce contexte que s’impose, dans les esprits, un système de dépendance et d’augmentation non négociable des coûts. Un service informatique qui, aujourd’hui, fait le choix de O365 et de WMWare, du « tout Cloud » et d’applications en mode SaaS, met en danger sa stabilité budgétaire, et donc celle de sa collectivité. Belle injonction contradictoire.

Comment mettre en œuvre une véritable transformation numérique, gérer un périmètre qui augmente inéxorablement (puisque, de plus en plus, tout est « connecté ») dans un contexte financier de plus en plus contraint ?

En attendant une hypothétique prise de conscience des acteurs, nous sommes contraints de travailler l’autonomie de nos systèmes. Un choix qui ne va pas de soi, tant il s’oppose au discours dominant et à la formation reçue par celles et ceux qui sont en responsabilité. À Échirolles, le choix des logiciels libres s’inscrit dans cet effort et nous permet de maintenir le cap. Et le changement ne concerne pas que les aspects financiers.

Une plus grande efficacité

En étant autonome, la DSI est capable de prendre rapidement des décisions stratégiques et opérationnelles sans avoir besoin de passer par un processus de validation long et complexe auprès d’autres services ou directions. Elle peut ainsi explorer de nouvelles technologies et solutions innovantes qui contribuent à améliorer les processus internes et externes de la collectivité.

L’autonomie de la DSI facilite également, grace à l’utilisation de protocoles standard et interopérables, l’intégration et la coordination des divers systèmes informatiques. Ceci inclut non seulement les logiciels et matériels propriétaires mais également les plateformes cloud tierces, les outils open-source et autres technologies connexes. La bonne intégration de ces composants assure une expérience utilisateur plus fluide et plus homogène.

Elle dispose des moyens nécessaires pour adopter une posture proactive en termes de surveillance et d’optimisation des performances informatiques, anticipant ainsi les dysfonctionnements potentiels et minimisant les temps d’arrêt involontaires.

Dans un monde dominé par les données et l’automatisation, l’autonomie de la DSI permet à l’entreprise de tirer pleinement parti des opportunités offertes par la transformation numérique. La mise en oeuvre de l’IA, de l’IoT, de l’analytique avancée et d’autres technologies innovantes devient alors plus accessible, sans mettre en danger la souveraineté de la structure, ni les données des administrés.

Une meilleure qualité de service

Une DSI autonome se donne les moyens de comprendre les besoins spécifiques de chaque direction et service. En conséquence, elle peut fournir des solutions informatiques adaptées, alignées sur les véritables besoins.

Elle est généralement bien positionnée pour standardiser et simplifier ses architectures informatiques grâce à sa capacité à prendre des décisions rapides et indépendantes concernant les choix technologiques. Ces efforts de normalisation peuvent conduire à une diminution des coûts et à une augmentation de l’efficacité. Perçue comme un partenaire des autres directions plutôt qu’un simple prestataire de services, elle devient un pivot important de tout projet en transversalité.

Une meilleure gestion des risques

Gagner en autonomie, c’est être en mesure de mettre en place des politiques de sécurité et de gouvernance plus efficaces pour protéger les actifs numériques de la collectivité contre les menaces extérieures telles que les cyberattaques.

C’est aussi être mieux placé pour faire face aux perturbations imprévues et les crises majeures. Avec une grande autonomie, la DSI peut rapidement adapter les systèmes informatiques pour soutenir les nouveaux modèles de travail hybrides ou virtuels, garantissant ainsi la continuité des activités de la collectivité. Un travail sur la résilience du SI peut être mené, sans être impacté par l’éventuelle indisponibilité d’un prestataire.

Des coûts contrôlés

Une DSI autonome dispose d’une meilleure maîtrise de ses dépenses informatiques, ce qui lui permet de mieux planifier et gérer son budget. Elle peut ainsi optimiser les investissements et, libérée des coûts fixes de licences et d’abonnements, investir dans la formation, l’assistance au déploiement ou la mise en oeuvre de projets lourds et consommateurs en temps.

Elle finance de l’humain, fait plus souvent appel à des partenaires proches et participe à l’animation de l’écosystème local plutôt que d’investir à fonds perdus dans des groupes internationaux dont on connaît la propension à échapper à l’impôt, et donc au financement des services publics.

Une équipe de qualité

Une DSI autonome peut offrir un environnement de travail stimulant et créatif où les professionnels de l’informatique ont la liberté de tester de nouvelles idées et de résoudre des problèmes complexes.

Elle a la capacité de proposer un cadre de travail attractif et dynamique et, parce qu’elle facilite la transition vers des solutions informatiques durables, respectueuses de l’environnement et conformes aux normes éthiques et légales en vigueur, elle est davantage susceptible d’attirer et de retenir, en travaillant avec la Direction des Ressources Humaines, les profils IT les plus talentueux et motivés.

Une cooperation facilitée

Les licences open source encouragent intrinsèquement l’implémentation de formats de données et protocoles standards, facilitant ainsi l’interconnexion et la cohabitation entre divers systèmes d’information hétérogènes. Cette aptitude à dialoguer nativement avec des environnements variés favorise la mutualisation des ressources en supprimant artificiellement les barrières historiquement induites par les logiques propriétaires.

Les logiciels libres sont conçus selon une architecture modulaire, articulée autour de blocs fonctionnels relativement indépendants. Cette granularité volontairement accentuée autorise des combinaisons quasi illimitées, permettant ainsi de composer des chaînes de valeur ajoutée originales et contextualisées. En somme, l’open source fluidifie la mutualisation en élargissant le champ des possibles et en simplifiant l’agrégation des expertises complémentaires.

Loin d’être synonyme d’enfermement, le travail sur l’autonomie et l’utilisation des logiciels libres favorise, par les possibilités de fédération qu’il offre, la coopération entre collectivités.


AlpOSS : jeudi 21 mars 2024 à Échirolles

Le 21 mars 2024, la ville d’Échirolles coorganise, avec Belledonne Communications (éditeur de Linphone) et OW2 (communauté open source à destination des professionnels) l’événement AlpOSS.

Un événement de plus ?

En France, les événements consacrés aux logiciels libres ne manquent pas : JdLL (Lyon), RPLL (Lyon), Capitole du Libre (Toulouse), Open Source Experience (Paris). Pourquoi créer un nouvel événement ?

Les collectivités territoriales sont de plus en plus nombreuses à privilégier, quand c’est possible, les logiciels libres. Mais comment identifier les logiciels qui correspondent effectivement aux besoins de nos services ? Qui sont les prestataires qui peuvent nous aider ? En l’absence de marketing et sans nous déplacer dans des événements (parfois lointains), il n’est pas simple de rencontrer les professionnels susceptibles de nous aider dans nos choix. Des associations (l’Adullact, par exemple) permettent aux collectivités d’échanger entre elles. D’autres (OW2, le CNLL, etc.) favorisent les échanges entre professionnels. Certaines sont dédiées aux développeurs, aux universitaires, aux chercheurs…

Ateliers, stands, présentations et moments informels : nous avons souhaité réunir ces deux mondes dans un même événement afin d’échanger, dans différentes configurations, sur les sujets qui nous sont communs.

À Échirolles ?

Le bassin de vie grenoblois est riche en collectivités qui s’appuient au quotidien sur des logiciels libres, en entreprises qui proposent des produits ou des services et en associations qui en encouragent l’utilisation. La ville d’Échirolles est particulièrement active dans ce domaine. Dans le cadre de nos fonctions, il nous est arrivé à maintes reprises de découvrir des entreprises ou des associations locales… en nous déplaçant dans des événements à Paris, à Lyon, à Montpellier ou à Toulouse. À chaque fois, la surprise a été grande. Nous ignorions, par exemple, que Linphone était développé par une entreprise de Grenoble. Notre première rencontre avec Combodo, une entreprise pourtant échirolloise, s’est produite à Paris, lors d’une édition d’Open Source Expérience.

Il nous a semblé nécessaire, parce que notre territoire est particulièrement bien doté en entreprises, en associations et en collectivités diverses d’organiser un événement local.

Pour parler de quoi ?

Les collectivités n’ont pas toutes les mêmes besoins. Certaines, de taille importante, disposent de leur propre service informatique et de compétences internes. Elle peuvent donc déployer et maintenir des solutions en autonomie. D’autres, en revanche, ont besoin (ou font le choix) de s’appuyer sur des prestataires pour fournir à leurs administré·e·s les services les mieux adaptés. Les modèles d’affaire choisis par les entreprises peuvent être déterminants dans les choix des collectivités et faciliter, ou au contraire freiner, l’adoption d’une solution. Les acteurs économiques sont-ils au fait des contraintes des collectivités ? Des obligations liées au code de la commande publique ? Les collectivités comprennent-elles les contraintes des prestataires auxquels elles font appel ? La difficulté que peut représenter, pour une petite structure, la réponse à un appel d’offre ?

Nombreux sont les sujets sur lesquels il nous semble intéressant d’échanger et de confronter nos points de vue.

Pour qui ?

Si la priorité est donnée aux entreprises et collectivités du bassin de vie grenoblois, notre événement est ouvert à toutes et tous, et des acteurs régionaux et nationaux ont prévu de participer. Les thèmes que nous proposons d’aborder sont divers, et sont susceptibles d’intéresser un public varié :
→ Comment favoriser la souveraineté numérique à l’échelon local ?
→ Quels sont les différents modèles d’affaire de l’open-source ?
→ Quelles solutions de communication unifiée pour les collectivités ?
→ Quels outils collaboratifs ?
→ …et toute autre sujet que vous pourriez trouver intéressant dans le cadre de cet événement.

Alpes Numérique Libre, le collectif des DSI concernés par les logiciels libres, est partenaire d’AlpOSS 2024. Nous espérons une participation importante des collectivités locales.

Pour celles et ceux qui ne peuvent pas (ou ne souhaitent pas) se déplacer, nous avons prévu de diffuser l’ensemble des présentations en direct sur le serveur Peertube de la ville d’Échirolles : https://video.echirolles.fr. Elles seront ensuite disponibles en vidéo à la demande sur ce même serveur.

Des entreprises autour de Grenoble ?

Nous avons identifié (et espérons échanger avec) plus d’une vingtaine d’acteurs économiques locaux qui s’investissent dans les données ouvertes et les logiciels libres :

  • Algoo (développement, infogérance, migration, hébergement…)
  • Alpilink (services cloud, hébergement…)
  • Apitux (logiciels libres et OpenStreetMap)
  • Belledonne Communications (éditeur de Linphone)
  • Bonitasoft (plateforme BPM)
  • Combodo (éditeur d’iTop)
  • Digital-Liance (communications unifiées et infrastructures réseaux)
  • Association Flossita (promotion et défense des logiciels, ressources libres et standards ouverts)
  • ILL (Institut Laue-Langevin, science et technologies neutroniques)
  • INRIA (Institut national de recherche en sciences et technologies du numérique)
  • OpenGo (accompagnement, formation)
  • Probesys (éditeur d’AgentJ, prestataire de services informatiques)
  • Sleede (conception de sites web)
  • Smile (intégration et infogérance)
  • TeemIP (éditeur d’une solution de gestion des adresses IP)
  • TelNowEdge (solutions managées de VOIP, réseaux, gestion de parc informatique, téléphonie et outils collaboratifs)
  • Tetras Libre (conseil, recherche et développement en informatique)
  • Enalean (éditeur de Tuleap : gestion de produits, planning Agile, suivi de projets, gestion des tests et développement)
  • Vates (virtualisation)
  • Webu (développement web, hébergement…)

Pour en savoir plus…

 Consultez notre site Web : https://alposs.fr
 Suivez-nous sur Mastodon : @alposs@colter.social
 Consultez notre événement sur LinkedIn

❌