Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Telegram lance Cocoon, un réseau d'IA décentralisé et confidentiel sur la blockchain TON, comme alternative plus privée et plus rentable aux services informatiques d'IA centralisés

Telegram lance Cocoon, un réseau d'IA décentralisé et confidentiel sur la blockchain TON, comme alternative plus privée et plus rentable aux services informatiques d'IA centralisés

Telegram a récemment lancé un réseau informatique d'IA décentralisé et confidentiel sur la blockchain TON, appelé Cocoon. Le projet est présenté comme une alternative plus confidentielle et plus rentable aux services informatiques centralisés d'IA proposés par des fournisseurs tels que Microsoft et Amazon qui, selon le...

ByeByeDPI - Le "VPN" qui contourne la censure sans rien chiffrer

Si vous êtes sous Android, voici une application qui est une imposture technique complète et qui bizarrement vous permet de contourner la censure parfois mieux qu’avec un vrai VPN.

Je vous explique comment ça marche, en fait, ByeByeDPI , c’est une app Android qui utilise ByeDPI localement sur votre téléphone afin de rediriger tout le trafic à travers elle. ByeDPI, si vous ne connaissez pas encore, c’est un proxy qui intercepte les paquets réseau et applique des techniques de désynchronisation afin de contourner tout ce qui est système de deep packet inspection.

Pour rappel, le deep packet inspection (DPI), c’est une techno que le gouvernement et les fournisseurs d’accès internet utilisent pour inspecter le contenu de vos paquets réseau. Donc ça n’analyse pas juste les entête de vos paquets mais également leur contenu. C’est ce qui permet par exemple à certains FAI de ralentir Netflix ou Youtube pour économiser un peu de bande passante.

En fait, tout l’astuce de cette app, c’est qu’elle détourne l’interface VPN d’Android pour rediriger le trafic vers elle-même. Quand vous l’activez en mode VPN, Android va créer une interface TUN (un tunnel virtuel), et envoyer tout le trafic réseau dedans. Normalement, un VPN classique chiffrerait le trafic et l’enverrait vers un serveur VPN distant. Mais BybDPI, lui, intercepte le trafic, le modifie légèrement pour tromper l’ennemi et le renvoie directement sur le net. Comme ça, tout reste en local, il n’y a pas de chiffrement supplémentaire ni de tunnel externe.

C’est donc vraiment un détournement pur et simple de l’API VPNServices d’Android. ByeByeDPI faire croire à Android qu’il est un VPN tout à fait classique, alors qu’en fait il effectue juste une fragmentation et une manipulation de paquets en local.

Voici les techniques qu’il utilise :

Technique 1 : Fragmentation de paquets.

Quand vous tapez par exemple “facebook.com”, votre navigateur envoie un paquet TCP qui contient une requête HTTP avec “Host: facebook.com” dans les headers. Le DPI inspecte alors ce paquet, voit “facebook.com”, et bloque ça.

ByeByeDPI découpe ce paquet en morceaux plus petits comme ça un fragment contient juste “face”, l’autre contient “book.com”. Et comme le DPI reçoit les fragments séparément, il ne reconnaît pas le mot interdit et le laisse passer. Le serveur de destination reçoit alors les deux fragments, les réassemble, et traite la requête normalement.

Technique 2 : Manipulation du TTL (Time-To-Live).

Chaque paquet réseau a un compteur TTL qui se décrémente à chaque routeur traversé. Quand TTL atteint zéro, le paquet meurt. ByeByeDPI envoie de faux paquets avec un TTL trop bas pour atteindre le serveur final, mais assez haut pour atteindre le DPI. Le DPI alors voit ces faux paquets, pense que la connexion échoue ou est corrompue, et laisse passer les vrais paquets qui suivent.

Technique 3 : Désynchronisation.

ByeByeDPI peut injecter des paquets avec des numéros de séquence TCP incorrects, ou des checksums invalides, pour embrouiller le DPI. Ces paquets sont ignorés par le serveur de destination, mais le DPI les traite comme légitimes et autorise la connexion.

Toutes ces techniques exploitent une vraie faiblesse fondamentale du DPI qui doit analyser des milliards de paquets par seconde. Comme il ne peut pas faire d’analyse approfondie sans ralentir massivement le réseau, il doit faire des compromis. Il inspecte donc uniquement tout ce qui est patterns évidents, et les signatures connues… donc si vous fragmentez bizarrement vos paquets, ou si vous envoyez des paquets malformés, le DPI est totalement perdu.

Et le truc fou, c’est que ByeByeDPI fait tout ça SANS chiffrer votre trafic. Votre connexion reste en clair donc votre FAI peut toujours voir votre IP, votre destination, et tout. Mais le système de censure, lui, ne voit que des paquets bizarres et les laisse passer.

Voilà donc comment en simulant une connexion pourrie, on peut contourner de la censure.

L’app propose 2 modes : VPN et Proxy.

En mode VPN, ByeByeDPI utilise l’API VpnService d’Android pour intercepter tout le trafic du téléphone. C’est transparent et toutes vos apps passent par le proxy sans configuration. Le trafic est redirigé via hev-socks5-tunnel , une bibliothèque qui crée un tunnel SOCKS5 local, puis envoyé vers ByeDPI qui applique les techniques de désynchronisation.

En mode Proxy, ByeByeDPI tourne comme un serveur SOCKS5 local sur 127.0.0.1:1080. Vous devez alors configurer manuellement vos apps pour utiliser ce proxy. C’est très utile si vous voulez combiner ByeByeDPI avec d’autres outils, genre AdGuard. Vous lancez ByeByeDPI en mode proxy, vous configurez AdGuard pour utiliser le proxy SOCKS5, et vous avez à la fois le blocage pub et du contournement DPI.

L’app supporte aussi le split tunneling. Vous pouvez créer une whitelist (seules certaines apps passent par ByeByeDPI) ou une blacklist (toutes les apps sauf certaines). C’est important sur Android TV/BOX où l’Ethernet peut planter si tout le trafic passe par un VPN. Là, vous mettez juste YouTube dans la whitelist, le reste du système utilise la connexion normale.

Cette app est née en Russie, où le DPI est massivement déployé depuis 2019 avec le système TSPU (Technical Means for Countering Threats). Comme la Russie bloque des sites avec une combinaison de blocage IP + DNS + DPI, les VPN classiques sont de plus en plus détectés et bloqués. Mais ByeByeDPI, lui, passe sous les radars parce qu’il ne ressemble PAS à un VPN. Il ressemble à du trafic normal avec des problèmes de connexion.

Le développeur original de ByeDPI, c’est ValdikSS , le créateur de GoodbyeDPI pour Windows et ByeDPI c’est le portage Linux/Android de ce même concept. ByeByeDPI quand à lui est un wrapper Android qui rend tout ça utilisable sans avoir à se palucher de la ligne de commande.

Évidemment, ByeByeDPI ne vous protège pas contre la surveillance puisque votre FAI voit toujours tout et un gouvernement peut toujours logger vos connexions. Cette app contourne juste les blocage DPI, mais ne vous rend pas anonyme pour autant, donc si c’est de l’anonymat que vous voulez, utilisez Tor ! Et si vous voulez du vrai chiffrement, utilisez un VPN comme NordVPN (lien affilié). Par contre, si vous voulez juste accéder à un site bloqué par DPI, ByeByeDPI suffira.

Merci à Letsar pour le partage.

EuroLLM - Le LLM européen qui tourne sur votre laptop

Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui, EuroLLM vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop.

Une seule commande Ollama , et c’est parti mon kiki !!!

Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit !

Un projet 100% européen

EuroLLM, c’est en réalité une coalition de labos européens : Instituto Superior Técnico (Lisbonne), University of Edinburgh , Université Paris-Saclay , Unbabel , et d’autres et c’est financé par Horizon Europe et l’ EuroHPC , et ce modèle supporte les 24 langues officielles de l’UE, plus 11 langues supplémentaires (arabe, chinois, hindi, japonais, coréen, russe, turc…).

EuroLLM-9B , le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.

Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B).

Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi.

Maintenant comment l’installer ?

La méthode la plus simple, c’est via Ollama :

ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF

Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention, erurollm avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB.

Si vous préférez Python et Hugging Face Transformers :

from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "utter-project/EuroLLM-9B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))

Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi :

ollama run cas/eurollm-1.7b-instruct-q8

Alors pourquoi c’est important ?

EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.

C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique.

La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B est déjà en preview sur Hugging Face , ce qui ouvre la voie à de l’OCR multilingue, de l’analyse de documents visuels, ou encore à la création d’assistants vocaux dans n’importe quelle langue…

Voilà j’ai trouvé ça cool à tester et un grand merci à Letsar pour le partage !

Nouvelles sur l’IA de octobre 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Des nouveautés sur la génération de vidéos

OpenAI publie Sora 2, son modèle de génération de vidéo, qui produit des scènes d’environ dix secondes à partir d’un prompt textuel. Cette publication pose deux questions : celle des deepfakes, et celle du copyright.

Sur les deepfakes, OpenAI a annoncé bloquer la génération de vidéos impliquant des personnalités publiques, sauf si ces dernières s’inscrivent sur une liste acceptant cet usage (vous pouvez par exemple générer une vidéo contenant Sam Altman, qui s’est inscrit sur cette liste).

Sur la propriété intellectuelle, la logique est inversée : initialement, les ayants droits étaient appelés à « se rapprocher d’OpenAI » pour que leur création ne puisse pas être réutilisée par Sora. C’était un pari très audacieux : si le consensus juridique se dirige sur le caractère légal (« fair use ») d’utiliser des données publiques pour entraîner une IA, réutiliser la propriété intellectuelle d’autrui entre dans le cadre des œuvres dérivées, bien plus contraignant ; la plupart des commentateurs s’accordent qu’il y a peu de chances qu’OpenAI puisse gagner une bataille juridique sur ce terrain, si certains ayants droits décident d’aller en justice. OpenAI semble avoir réalisé la même chose, faisant marche arrière une semaine après le lancement ; les ayants droits peuvent maintenant s’inscrire pour accepter que des éléments (personnages, lieux…) de leurs œuvres soient réutilisables par Sora, avec dans le futur un système de rémunération des ayants droit.

En se fondant sur ce modèle Sora 2, OpenAI décide de lancer un réseau social du même nom. L’idée est de partager vos créations avec vos connaissances, en particulier d’utiliser la capacité de Sora de mettre en scène des personnes pour créer des vidéos vous mettant en scène, vous et vos connaissances.

Meta lance également une offre similaire avec Vibes, xAI suit le mouvement (sans la partie « réseau social ») avec Grok Imagine

OpenAI obtient le feu vert pour son casse du siècle

Résumé rapide de l’affaire :

  • OpenAI a été fondé en 2015 et tant qu’organisation à but non lucratif, avec pour mission de « développer l’Intelligence Artificielle Générale pour le bénéfice de l’humanité ». Rappelons nous qu’en 2015 les larges modèle de langage sont un jouet pour chercheur, que le Winograd schema challenge est l’horizon indépassable pour la compréhension du langage naturel.
  • Afin de pouvoir recevoir des fonds d’investisseurs, en 2019 OpenAI restructure son organisation. OpenAI LLC (peu ou prou l’équivalent d’une SARL) est créé pour recevoir les financements et est l’organisation principale des opérations au jour le jour. L’organisation à but non lucratif existe toujours, et a le contrôle total de l’entreprise.
  • L’entreprise possède une caractéristique assez particulière, "capped for-profit", ce qui signifie que la quantité de profits reçus par les investisseurs est plafonnée (à un certain multiple, négocié au cas par cas, de l’investissement). Tout profit supplémentaire appartient légalement à l’organisation à but non lucratif.

C’est ce dernier point qui ennuie beaucoup les dirigeants d’OpenAI et les potentiels investisseurs aujourd’hui. Fin décembre 2024, l’entreprise déclare vouloir prendre son indépendance vis-à-vis de l’organisation à but non lucratif. Sur papier, cela est possible : l’entreprise peut racheter le contrôle auprès de l’organisation à but non lucratif, à condition que le prix soit juste (sinon, c’est il s’agit tout simplement d’abus de biens sociaux). Problème : comment évaluer le juste prix ? Celui-ci est composé de deux parties :

  • Le pouvoir de contrôle sur l’entreprise en elle-même, de décider de sa politique (par exemple, en rapport à la sécurité des modèles). Bien intangible, mais qu’il faut bien valoriser.
  • Plus compliqué : le prix aujourd’hui de la totalité des profits futurs après remboursement des investisseurs.

En 2024, le bruit courait d’une offre à 40 milliards, ce qui a rapidement donné lieu à une levée de boucliers, et l’utilisation par Zvi de l’expression « greatest theft in human history » (que j’ai traduite par « casse du siècle »). En mai 2024, OpenAI annonce renoncer à cette tentative, mais reprend en septembre 2024.

Aujourd’hui, après avoir négocié avec les procureurs généraux des états du Delaware (là où l’organisation à but non lucratif est incorporée) et de Californie (pour le siège de l’entreprise), OpenAI annonce avoir reçu le feu vert pour une restructuration.

Dans les grandes lignes :

  • Le pouvoir de contrôle sur l’entreprise reste entièrement dans les mains de l’organisation à but non lucratif.
  • La structure de profits de l’entreprise disparaît (et l’entreprise elle-même, se muant en PBC) pour suivre le modèle plus courant de parts sociales. L’organisation à but non-lucratif obtient 26% de ces parts (à comparer au plus gros investisseurs, Microsoft, qui obtient 27%).

Est-ce un juste prix ? Zvi défend que non, en nous offrant ces chiffres :

  • Le journaliste d’affaires Matt Levine estime à 272 milliards le plafond de profits allant aux investisseurs.
  • Un chiffre de 1000 milliards de valuation à l’introduction en bourse est utilisé (se référant à celui rapporté par Reuters).
  • Ce qui donne 260 milliards pour l’organisation à but non lucratif dans le nouveau système. Dans l’ancien, le chiffre aurait été plus proche de 500-750 milliards.

Il faut également prendre en compte que l’objectif d’OpenAI (que ce soit l’organisation ou l’entreprise) reste d’atteindre l’intelligence artificielle générale (AGI). Dans l’hypothèse où cet objectif est atteint, les profits seraient probablement un ou plusieurs ordres de magnitude plus grands (on peut citer ce papier de l’université de Virginie), ce qui élargit encore plus le gouffre entre l’ancien système et le nouveau — dans l’ancien, la quasi totalité des profits appartiendrait au final à l’organisation à but non lucratif, dans le nouveau, 26%.

Affaire close ? Pas nécessairement : d’autres parties que les procureurs généraux peuvent se saisir de la justice pour contester cette décision. Elon Musk en particulier a déjà dans le passé saisi la justice sur ce sujet, et pourrait encore le faire dans un futur proche.

En vrac

DeepMind présente Dreamer 4, un agent capable d’apprendre à naviguer dans un environnement avec très peu de données d’entraînement, en « imaginant » des interactions synthétiques — avec pour objectif d’appliquer cette méthode à la robotique.

OpenAI publie GPDval, un benchmark cherchant à mesurer au plus près les capacités économiques de l’IA, en se concentrant sur la question de quelles tâches économiquement productives l’IA peut se charger. Sur les tâches sélectionnées (avec pour critère : bien définies, avec un périmètre clair et un contexte simple, dans divers domaines), l’IA reste pour l’instant derrière l’humain, mais plus très loin derrière : la meilleure IA, Opus 4.1, gagne 47.6% (s’acquitte mieux de la tâche) du temps contre un professionnel du domaine.

Le FLI (Future of Life Institute) publie une lettre ouverte « Statement on Superintelligence » (« Communiqué sur la superintelligence »), trois courtes phrases : « We call for a prohibition on the development of superintelligence, not lifted before there is 1. broad scientific consensus that it will be done safely and controllably, and 2. strong public buy-in. » (« Nous appelons à une interdiction du développement de la superintelligence, qui ne devra être levée qu'après : 1) un large consensus scientifique établissant que cela peut être fait de manière sûre et contrôlable, et 2) une forte adhésion du public »). Parmi les signatures, de nombreux noms de tous horizons : académie, industrie, politique et gouvernement, et même du monde religieux.

OpenAI lance son propre navigateur, Atlas (pour l’instant, uniquement disponible sous MacOS), intégrant ChatGPT à la plupart des niveaux : autocomplétion dans la barre d’adresse, fonctionnalité « ouvrir une conversation avec le site actuel », emboîtant le pas à Perplexity Comet. Il est fortement probable que les attaques de type « injection de prompt » s’appliquent également, donc prudence.

DeepSeek publie une mise à jour incrémentale de son IA, DeepSeek 3.2. Essentiellement les mêmes performances que la version précédente, mais à un coût bien plus faible.

DeepSeek publie également DeepSeek-OCR. Une bestiole difficile à décrire : contrairement à ce que ce nom indique, ce n’est pas un simple OCR (même s’il peut s’acquitter de cette tâche très honorablement), mais une piste de recherche, opérationnaliser « un bon croquis vaut mieux qu’un long discours ». Plus précisément, DeepSeek essaie avec ce système de compresser n (par exemple 10) tokens textuels en 1 token de vision (pour une compression 1:10). Les résultats semblent bons, avec 90% de précision avec une compression 1 pour 10.

Anthropic étudie la capacité d’introspection de ses modèles, et trouve un résultat positif. Par exemple, les développeurs peuvent identifier un circuit associé à un certain concept (par exemple, « piano »), l’activer, et demander au modèle « À quoi penses-tu actuellement ? » (sans que le concept soit explicitement mentionné dans le prompt) ; le modèle est généralement capable de mentionner le concept.

DeepMind, en collaboration avec l’université de Yale, publie un modèle open-weight spécialisé dans l’analyse cellulaire. Le modèle semble capable de faire des découvertes inédites.

Nouvelle confrontation sur le droit d’auteur : Disney met en demeure Character AI.

Anthropic libère sur github un outil d’évaluation dans le cadre de la sécurité des modèles, utilisé notamment pour évaluer des comportements problématiques comme la flagornerie ou la tromperie.

Epoch AI publie une visualisation quelques données économiques sur les grands acteurs du secteur.

Des chercheurs publient une nouvelle méthode pour spécialiser un LLM à un usage précis, sans avoir accès privilégié aux paramètres du modèle lui-même. Cela permet de spécialiser des modèles propriétaires.

Que se passe-t-il lorsque l’on applique une phase d’apprentissage par renforcement sur des tâches de type « créer de l’engagement sur les réseaux sociaux » ou « augmenter les ventes d’un produit » ? Un papier explore la question, et montre qu’un tel entraînement supplémentaire encourage les modèles à mentir ou répandre de la désinformation, et que l’effet ne disparaît pas en demandant au modèle de ne pas utiliser de telles méthodes dans son « prompt système ».

Autre papier d’Anthropic sur la sécurité des modèles, montrant qu’il est possible d’« empoisonner » l’entraînement des modèles (c’est-à-dire l’entraîner à donner une réponse spécifique à une entrée ésotérique) à l’aide d’un faible nombre de documents (relativement à la taille du corpus d’entraînement total).

Du mouvement sur le financement du développement de l’IA : OpenAI est évalué à $500 milliards ; xAI fait une levée de fonds pour $20 milliards ; AMD investit dans OpenAI, ainsi que Nvidia. Un article intéressant fait le parallèle avec certains montages pendant la bulle dot-com, notant également des différences importantes.

En Janvier, OpenAI annonçait que Microsoft ne serait plus leur fournisseur unique d’infrastructure, citant un manque de capacités. The Information (paywall) révèle que Microsoft craint que les demandes de capacités de OpenAI soient injustifiées et que les satisfaire conduise à terme à mettre en place des capacités qui ne seront pas utilisées.

Un nouveau benchmark, AutumnBench, assez similaire à ARC-AGI, où l’IA reste loin derrière les performances humaines.

Un billet de blog intéressant sur les efforts de lobbying de l’industrie de l’IA.

METR ajoute Sonnet 4.5 à son évaluation, qui arrive pile poil sur la ligne de tendances.

L’IA (plus précisément : GPT-5 et Gemini 2.5 Pro) obtient un score de médaille d’or sur les Olympiades Internationales d’Astronomie et d’Astrophysique.

Envie d’apprendre comment fonctionne l’IA ? Andrey Karpathy publie en open-source nanochat, pour entraîner soi-même un modèle minimal, de A à Z.

ChatGPT se dote d’un système de contrôle parental.

xAI lance une encyclopédie générée par son IA, Grok, nommée Grokipedia. Elle fait partie de la croisade d’Elon Musk contre ce qu’il considère des biais de gauche sur Wikipedia.

Un papier étudie en détails la capacité des modèles à résister au jailbreak ou plutôt leur incapacité : aucun modèle ne résiste à un attaquant humain déterminé.

Anthropic publie son modèle "léger" (moins cher, plus rapide, moins performant), Haiku 4.5.

Cursor, l’assistant de code propriétaire, développe son propre modèle, Composer.

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Detachment 201 : des directeurs de Meta, OpenAI et Palantir deviennent lieutenants-colonels dans la Réserve de l'Armée américaine, pour apporter des « solutions technologiques rapides et évolutives »

Detachment 201 : des directeurs de Meta, OpenAI et Palantir deviennent lieutenants-colonels dans la Réserve de l'Armée américaine,
pour apporter des « solutions technologiques rapides et évolutives » aux défis les plus pressants de l'armée

Une première dans l'histoire militaire et technologique américaine. Le 13 juin 2025, à l'occasion du 250e anniversaire de l'armée des États-Unis, quatre figures de la Silicon Valley ont été officiellement commissionnés au grade de lieutenant-colonels dans...

Le contrôle d'âge devient une priorité

Google
Rien de tel que la pression réglementaire pour encourager des acteurs réticents à prendre des mesures sur un sujet aussi sensible que le contrôle de l'âge pour l'accès à certains produits et services. Et même si beaucoup ont encore tendance à reporter la responsabilité sur leur voisin, Google propose désormais une solution opérationnelle… tout en soulignant discrètement une incohérence du législateur européen.

Alors que, ici, les sanctions menacent désormais les sites pour adultes qui ne se conforment pas aux exigences de vérification de majorité pour tous leurs utilisateurs et que sont évoquées des interdictions d'accès aux réseaux sociaux au moins de 15 ans, la première réaction des entreprises concernées consiste à brandir l'argument de la non faisabilité… qui ne trompe personne : elles sont surtout inquiètes de perdre des revenus sur une population facile à conquérir, même quand elles prétendent l'écarter, ou, au mieux, elles ne veulent pas investir dans le déploiement des outils requis.

Cependant, comme la position adoptée dans l'Union Européenne, pionnière en la matière, semble inébranlable, les récriminations évoluent maintenant vers le renvoi de l'obligation de contrôle vers une autre entité, généralement désignée de manière assez floue. Quelques-uns suggèrent d'instaurer un mécanisme de protection dans le système d'exploitation des machines, d'autres, dont Meta (qui est particulièrement visée par Google), demandent qu'il soit placé dans les boutiques d'applications mobiles. Autant d'idées qui ne couvrent absolument pas l'ensemble des scénarios à considérer.

Google – Age Assurance Tool

Tous les géants du web s'inquiètent de leur exposition aux foudres (et aux lourdes amendes) des régulateurs, s'ils devaient endosser la responsabilité d'éventuelles infractions, qu'elles soient directement de leur fait ou non. Alors Google, comme quelques autres, prend les devants et offre donc aux développeurs d'applications pour son système Android un service prêt à l'emploi – sous la forme, classique dans ce domaine, d'une API – leur permettant d'invoquer les contrôles que leur impose la loi.

Estimant toutefois que son rôle n'inclut pas la vérification d'identité des porteurs de téléphone, l'interface se contente de transférer les requêtes vers les dispositifs existants, sa valeur résidant uniquement dans sa capacité à fournir un mécanisme universel et international à l'écosystème des éditeurs de logiciels. Initialement, la firme capitalise ainsi sur la publication par l'UE des spécifications d'interactions avec son futur portefeuille d'identité « digitale » (que j'ai précédemment couvert dans ces colonnes).

Le modèle se veut à l'état de l'art, notamment en termes de protection des données personnelles. Grâce à son approche « Zero-Knowledge Proof » (ZKP), le demandeur n'est autorisé à interroger que les informations sont il a strictement besoin. Par exemple, une app réservée aux individus majeurs se contentera de la réponse à la question « cet utilisateur a-t-il plus de 18 ans ? », sans obtenir sa date de naissance ni même son âge (ce qui est le cas, incidemment, avec la consultation d'une carte d'identité).

Petit problème… l'identité « digitale » européenne est encore à l'état embryonnaire, le projet accumulant des retards désastreux (comme je le craignais dès son annonce, au vu de son planning totalement irréaliste). Google n'insiste pas sur ce « détail » mais aura beau jeu de retourner la balle à la Commission Européenne si d'aventure celle-ci voulait lui chercher noise. Pour sa défense, il faut bien admettre que, en l'occurrence, les autorités paraissent prendre leurs décisions sans trop se préoccuper de cohérence

État des lieux des outils de codage IA : Cursor et Windsurf sont-ils prêts à répondre aux exigences des développeurs ? Quel outil d'édition de code assisté par IA utilisez-vous ?

État des lieux des outils de codage IA : Cursor et Windsurf sont-ils prêts à répondre aux exigences des développeurs ?
Forces et limites de l'IA dans les éditeurs de code

Les éditeurs de code traditionnels évoluent aujourd'hui vers des interfaces plus « intelligentes ». Deux acteurs récents dominent les débats : Cursor et Windsurf (issu de Codeium). Tous deux se présentent comme des EDI « IA-empowered » destinés à accélérer le codage et améliorer la productivité. Analysons leurs atouts et limites...

Donald Trump limoge brutalement la directrice du Bureau des droits d'auteur après la publication de son rapport inquiétant sur l'utilisation par l'IA de contenus protégés par le droit d'auteur

Donald Trump limoge brutalement la directrice du Bureau des droits d'auteur après la publication de son rapport inquiétant sur l'utilisation par l'IA de contenus protégés par le droit d'auteur

L'administration Trump a licencié Shira Perlmutter de son poste à la tête du Bureau américain du droit d'auteur, quelques jours seulement après avoir renvoyé la bibliothécaire du Congrès, Carla Hayden. Le bureau de Shira Perlmutter a récemment publié un rapport examinant si les entreprises d'intelligence artificielle...

Un robot piloté par une IA installe près de 10 000 panneaux solaires en Australie, l'initiative ravive les questionnements sur les tentatives de remplacement des humains par les robots

Un robot piloté par une IA installe près de 10 000 panneaux solaires en Australie
L'initiative ravive les questionnements sur les tentatives de remplacement des humains par les robots

L'entreprise technologique chinoise Leapting a réalisé avec succès sa première installation commerciale de modules photovoltaïques à l'aide d'un robot piloté par l'intelligence artificielle en Australie. Le système autonome a installé près de 10 000 panneaux solaires, marquant ainsi une étape importante dans l'automatisation...

Meta transforme ses lunettes connectées Ray-Ban en machine de surveillance pour l'IA. L'IA de Meta est désormais en permanence à l'affût pour permettre à l'entreprise de collecter davantage de données

Meta transforme ses lunettes connectées Ray-Ban en machine de surveillance pour l'IA. L'IA de Meta est désormais en permanence à l'affût
pour permettre à l'entreprise de collecter davantage de données

Les lunettes connectées Ray-Ban de Meta connaissent une popularité croissante malgré les craintes en matière de protection de la vie privée. Une expérience a démontré que le gadget de Meta peut être transformé en un puissant outil de reconnaissance faciale capable d'identifier en temps réel des inconnus...

L'industrie technologique a tenté de réduire les préjugés omniprésents de l'IA, mais Donald Trump veut maintenant mettre fin à ses efforts en matière d'"IA Woke"

L'industrie technologique a tenté de réduire les préjugés omniprésents de l'IA, mais Donald Trump veut maintenant mettre fin à ses efforts en matière d' "IA Woke"

Après avoir supprimé les subventions de financement de la science et de la technologie portant sur le thème de la DEI, Donald Trump veut mettre fin aux efforts en matière d'"IA woke". Pourtant, une technologie d'intelligence artificielle qui fonctionne bien pour les milliards de personnes de couleur dans le monde était...

L'assistant IA de codage anciennement connu sous le nom de Codeium a été officiellement rebaptisé Windsurf Plugins, en accord avec la transformation de l'entreprise vers son nouveau nom, Windsurf

L'assistant IA de codage anciennement connu sous le nom de Codeium a été officiellement rebaptisé Windsurf Plugins, en accord avec la transformation de l'entreprise vers son nouveau nom, Windsurf.

L'assistant IA de codage anciennement connu sous le nom de Codeium a été officiellement rebaptisé Windsurf Plugins. Lancé initialement en 2022, Codeium est un assistant de type GitHub Copilot pour les EDI tiers populaires. Le succès de Windsurf Editor a modifié la perception du public et a motivé le changement...

Classement des meilleurs modèles IA pour créer des images

Avec la profusion de nouveautés en matière d’intelligence artificielle, ce n’est pas forcément facile de s’y retrouver. Chaque jour, il y a des nouveaux modèles qui sortent pour générer du texte, des images, des vidéos, de la musique et etc … L’actualité autour de l’IA est très riche et cela peut parfois devenir difficile de ... Lire la suite

L’article Classement des meilleurs modèles IA pour créer des images est apparu en premier sur ZoneTuto.

OpenAI a envisagé d'acheter Cursor avant de se tourner vers son rival Windsurf, un assistant d'IA de codage qui permet de pratiquer le « vibe coding » sans avoir de connaissances approfondies en programmation

OpenAI a envisagé d'acheter Cursor avant de se tourner vers son rival Windsurf, un assistant d'IA de codage qui permet de pratiquer le « vibe coding » sans avoir de connaissances approfondies en programmation

OpenAI aurait été en discussion pour acheter Anysphere, la société éditrice de l'assistant d'IA de codage Cursor, avant d'entamer des pourparlers avec la société rivale Windsurf. Selon CNBC, OpenAI a approché Anysphere en 2024, puis en 2025, mais les négociations ont échoué à chaque fois. L'absence...

Une entreprise s'excuse après une hallucination de son agent d'assistance IA qui a provoqué un tollé chez les utilisateurs, et qui rappelle la nécessité pour les développeurs de vérifier les productions de l'IA

Une entreprise s'excuse après une hallucination de son agent d'assistance IA qui a provoqué un tollé chez les utilisateurs
Et qui rappelle la nécessité pour les développeurs de vérifier les productions de l'IA

Un développeur utilisant le célèbre éditeur de code Cursor, animé par l'IA, a remarqué quelque chose d'étrange : En passant d'une machine à l'autre, la session Cursor était instantanément interrompue, rompant ainsi un flux de travail courant pour les programmeurs qui utilisent plusieurs appareils....

Des chercheurs de Microsoft développent un modèle d'IA hyper-efficace qui peut fonctionner sur les CPU, BitNet b1.58 2B4T, le plus grand modèle d'IA à 1 bit à ce jour avec 2 milliards de paramètres

Des chercheurs de Microsoft développent un modèle d'IA hyper-efficace qui peut fonctionner sur les CPU, BitNet b1.58 2B4T, le plus grand modèle d'IA à 1 bit à ce jour avec 2 milliards de paramètres

Des chercheurs de Microsoft affirment avoir mis au point le plus grand modèle d'IA à 1 bit, également connu sous le nom de « bitnet », à ce jour. Baptisé BitNet b1.58 2B4T, il est disponible sous licence MIT et peut fonctionner sur des CPU, y compris le M2 d'Apple. Les bitnets sont essentiellement des...

Un développeur signale que l'IA de Microsoft GitHub Copilot s'est activée sans son consentement explicite dans des espaces de travail privés, les exposant à des risques de sécurité et de confidentialité

Un développeur signale que Microsoft GitHub Copilot s'est activé sans son consentement explicite dans des espaces de travail privés,
les exposant à des risques de sécurité et de confidentialité

GitHub Copilot, l'assistant de codage alimenté par l'intelligence artificielle de Microsoft et OpenAI, est devenu un outil incontournable pour de nombreux développeurs. Son rôle est de suggérer du code en temps réel, facilitant ainsi la programmation et accélérant le processus de développement. Cependant,...

OpenAI publie Codex CLI, un agent de codage local open-source dans les environnements de terminal qui transforme le langage naturel en code de travail

OpenAI publie Codex CLI, un agent de codage local open-source dans les environnements de terminal qui transforme le langage naturel en code de travail

Dans le but d'injecter l'IA dans une plus grande partie du processus de programmation, OpenAI lance Codex CLI, un "agent" de codage conçu pour fonctionner localement à partir d'un logiciel terminal. Annoncé en même temps que les nouveaux modèles d'IA d'OpenAI, o3 et o4-mini, Codex CLI relie les modèles d'OpenAI au code local et aux tâches...

Les générateurs de code par IA créent une génération de « codeurs copier-coller », voici comment y remédier, par Terrance Craddock

Les générateurs de code par IA créent une génération de « codeurs copier-coller », voici comment y remédier, par Terrance Craddock

Comment les développeurs juniors troquent la maîtrise pour la vitesse (et ce que nous perdons lorsque nous les laissons faire).

Vous encadrez un développeur junior. Ils s'acquittent rapidement de leurs tâches, leur écran n'étant qu'un flou de bouts de code générés par l'IA. Ils respectent toutes les échéances, leurs commits GitHub s'affichent en vert. Mais vous leur demandez...

Deezer indique que le nombre de chansons entièrement générées par l'IA livrées à la plateforme chaque jour a doublé depuis janvier 2025, pour atteindre 20 000 titres, soit 18 % des téléchargements quotidiens

Deezer indique que le nombre de chansons entièrement générées par l'IA livrées à la plateforme chaque jour a doublé depuis janvier 2025, pour atteindre 20 000 titres, soit 18 % des téléchargements quotidiens

Le service de streaming français Deezer a indiqué dans un récent billet de blog qu'il recevait désormais quotidiennement plus de 20 000 titres entièrement générés par l'intelligence artificielle (IA), ce qui représente 18 % de son contenu téléchargé quotidiennement, soit près du double de ce...

OpenAI dévoile GPT-4.1, axée sur le codage, et abandonne progressivement GPT-4.5 : GPT-4.1 ne sera disponible que par l'intermédiaire de l'API développeur et non dans l'interface ChatGPT

OpenAI dévoile GPT-4.1, axée sur le codage, et abandonne progressivement GPT-4.5 :
GPT-4.1 ne sera disponible que par l'intermédiaire de l'API développeur et non dans l'interface ChatGPT

OpenAI a annoncé la famille de modèles GPT-4.1, sa nouvelle série de modèles de langage d'IA qui apporte pour la première fois une fenêtre contextuelle d'un million de jetons à OpenAI et poursuit une longue tradition de noms de modèles d'IA très confus. Trois nouveaux noms déroutants, en fait : GPT-4.1, GPT-4.1...

Microsoft étend sa plateforme Security Copilot avec de nouveaux agents d'IA conçus pour assister les équipes de cybersécurité en gérant des tâches telles que les alertes de phishing et bien plus encore

Microsoft étend sa plateforme Security Copilot avec de nouveaux agents d'IA conçus pour assister les équipes de cybersécurité en gérant des tâches telles que les alertes de phishing et bien plus encore.

Microsoft lance de nouveaux agents d'intelligence artificielle (IA) pour la cybersécurité. Six de ces agents seront disponibles sur la plateforme de sécurité de bout en bout de Microsoft et sont conçus pour aider à la protection contre les menaces, à la sécurité des données, à la gestion des appareils,...

PDG de Mistral : « L'impact de l'IA sur le PIB de chaque pays sera à deux chiffres dans les années à venir ». Arthur Mensch compare l'IA à l'avènement de l'électricité

PDG de Mistral : « L'impact de l'IA sur le PIB de chaque pays sera à deux chiffres dans les années à venir ».
Arthur Mensch a comparé l'IA à l'avènement de l'électricité, encourageant des nations à développer leurs infrastructures

L'influence sur l'économie de l'intelligence artificielle est de plus en plus mise en avant. Le PDG de Mistral, une entreprise qui a choisi l'axe de l'open source dans son développement de l'IA, a récemment prédit que l'IA pourrait entraîner une croissance à deux chiffres...

Vous pouvez désormais télécharger le code source d'AlexNet, le réseau de neurones convolutionnels à l'origine de l'essor de l'IA qui a prouvé que « l'apprentissage profond » pouvait marcher

Vous pouvez désormais télécharger le code source d'AlexNet, le réseau de neurones convolutionnels à l'origine de l'essor de l'IA
qui a prouvé que « l'apprentissage profond » pouvait marcher

Le Computer History Museum (CHM), en collaboration avec Google, a rendu public le code source d'AlexNet, un réseau de neurones convolutionnels (CNN) qui a révolutionné le domaine de l'intelligence artificielle en 2012 en prouvant que « l'apprentissage profond » pouvait réaliser des choses que les techniques...

Cloudflare retourne l'IA contre elle-même en déployant un labyrinthe sans fin de faits non pertinents, pour lutter contre le scraping non autorisé de données d'entraînement d'IA comme ChatGPT

Cloudflare retourne l'IA contre elle-même en déployant un labyrinthe sans fin de faits non pertinents,
pour lutter contre le scraping non autorisé de données d'entraînement d'IA comme ChatGPT

Le fournisseur d'infrastructure web Cloudflare a annoncé une nouvelle fonctionnalité appelée « AI Labyrinth » qui vise à lutter contre le scraping de données d'IA non autorisé en proposant aux robots un faux contenu généré par l'IA. L'outil tentera de contrecarrer les entreprises d'IA qui parcourent les...

Vulnérabilité dans GitHub Copilot et Cursor : comment les pirates peuvent compromettre le code généré par l'IA avec des portes dérobées et des vulnérabilités en injectant des instructions malveillantes cachées

Vulnérabilité dans GitHub Copilot et Cursor : comment les pirates peuvent compromettre le code généré par l'IA avec des portes dérobées et des vulnérabilités en injectant des instructions malveillantes cachées

Les chercheurs de Pillar Security annoncent la découverte d'une nouvelle vulnérabilité dans GitHub Copilot et Cursor. La nouvelle technique, appelée « Rules Files Backdoor », permettrait aux attaquants de manipuler les agents IA de codage par le biais de fichiers de règles compromis. La découverte...

Pour ou contre l'utilisation de la reconnaissance faciale ? La Hongrie va utiliser ladite technologie pour identifier les participants à la Marche des fiertés, dédiée à la défense des droits des homosexuels

Pour ou contre l'utilisation de la reconnaissance faciale ? La Hongrie va s'appuyer sur ladite technologie pour identifier les participants à la Marche des fiertés
Dédiée à la défense des droits des homosexuels

La Hongrie vient de devenir le premier pays de l'UE à interdire les manifestations de la Pride, dans le cadre de la dernière campagne de répression anti-LGBTQ de Viktor Orbán, en autorisant la reconnaissance faciale pour identifier et punir les participants. Des députés de l'opposition libérale...

Un père demande à OpenAI de supprimer la fausse affirmation de ChatGPT selon laquelle il aurait assassiné ses enfants, les hallucinations de ChatGPT peuvent gravement nuire à la réputation d'une personne

Un père demande à OpenAI de supprimer la fausse affirmation de ChatGPT selon laquelle il aurait assassiné ses enfants, les hallucinations de ChatGPT peuvent gravement nuire à la réputation d'une personne.

Un père demande à OpenAI de supprimer la fausse affirmation de ChatGPT selon laquelle il aurait assassiné ses enfants. Le blocage des sorties ne suffit pas, le père veut qu'OpenAI supprime les fausses informations. Selon Noyb, ChatGPT a régulièrement des hallucinations et donne de fausses informations...

NVIDIA déclare que "l'ère de la robotique généraliste est arrivée" et annonce Isaac GR00T N1, "le premier modèle de fondation ouvert au monde", pour accélérer le développement des robots humanoïdes

NVIDIA déclare que "l'ère de la robotique généraliste est arrivée" et annonce Isaac GR00T N1, "le premier modèle de fondation ouvert au monde", pour accélérer le développement des robots humanoïdes.

NVIDIA annonce Isaac GR00T N1, son premier modèle de fondation ouvert entièrement personnalisable, pour apporter des compétences et un raisonnement généralisés aux robots humanoïdes. NVIDIA annonce également des cadres de simulation pour accélérer le développement des robots. NVIDIA,...

DeepSeek peut être persuadé de produire du code malveillant : les entreprises doivent prendre des mesures urgentes face aux risques d'exposition des données, selon Tenable

DeepSeek peut être persuadé de produire du code malveillant : les entreprises doivent prendre des mesures urgentes face aux risques d'exposition des données,
selon Tenable

L'essor des modèles d'IA générative, tels que DeepSeek, soulève des questions cruciales quant à leur capacité à produire du code malveillant malgré les garde-fous mis en place. Bien que ces modèles soient conçus pour éviter de générer des contenus nuisibles, des recherches récentes, comme celles menées par Nick Miles et Satnam...

Les modèles d'IA chinois comme DeepSeek surpassent les modèles américains comme Meta Llama dans des catégories spécifiques telles que la divulgation d'informations sensibles, d'après l'AI Trust Score de Tumeryk

Les modèles d'IA chinois comme DeepSeek surpassent les modèles américains comme Meta Llama dans des catégories spécifiques telles que la divulgation d'informations sensibles, d'après l'AI Trust Score de Tumeryk

Selon un nouveau score de confiance de l'IA présenté par Tumeryk, les modèles d'IA chinois comme DeepSeek sont plus performants que les modèles américains comme Llama de Meta dans des catégories spécifiques telles que la divulgation d'informations sensibles.

La solide performance de DeepSeek...

« L'IA Cursor m'a dit que je devais apprendre à coder au lieu de lui demander de générer du code », rapporte un programmeur. Quand l'IA remet elle-même en question la culture du « vibe coding »

« L'IA Cursor m'a dit que je devais apprendre à coder au lieu de lui demander de générer du code », rapporte un programmeur
Quand l'IA remet elle-même en question la culture du vibe coding

Cursor AI est un environnement de développement intégré (IDE) livré avec un assistant d'IA de codage par défaut pour permettre aux utilisateurs d'accélérer la création de logiciels. C'est un fork de Visual Studio Code qui s'appuie sur de grands modèles de langage (LLM) tels que Claude et GPT. Cursor AI offre des...

Google lance Gemma 3 : "le modèle d'IA le plus puissant que vous pouvez faire tourner sur un GPU", une IA open source avec un contexte de 128K optimisée pour fonctionner sur presque tout, du GPU au smartphone

Google lance Gemma 3 : "le modèle d'IA le plus puissant que vous pouvez faire tourner sur un GPU", une IA open source avec un contexte de 128K optimisée pour fonctionner sur presque tout, du GPU au smartphone

Google présente Gemma 3, une collection de modèles ouverts légers et à la pointe de la technologie, conçus à partir des mêmes recherches et de la même technologie que les modèles Gemini 2.0. Il s'agit des modèles ouverts de Google les plus avancés, les plus portables et les plus développés...

Google DeepMind lance deux nouveaux modèles d'IA basés sur Gemini, conçus pour aider les robots à « effectuer un plus grand nombre de tâches dans le monde réel comme jamais auparavant »

Google DeepMind lance deux nouveaux modèles d'IA basés sur Gemini, conçus pour aider les robots à « effectuer un plus grand nombre de tâches dans le monde réel comme jamais auparavant »

Google DeepMind a présenté deux nouveaux modèles d'intelligence artificielle (IA) : Gemini Robotics, son modèle basé sur Gemini 2.0 conçu pour la robotique, et Gemini Robotics-ER, un modèle Gemini doté d'une compréhension spatiale avancée. DeepMind a déclaré que ces deux modèles permettent à une variété de robots...

❌