Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hiersecurité
  • ✇Korben
  • ByeByeDPI - Le "VPN" qui contourne la censure sans rien chiffrer
    Si vous êtes sous Android, voici une application qui est une imposture technique complète et qui bizarrement vous permet de contourner la censure parfois mieux qu’avec un vrai VPN. Je vous explique comment ça marche, en fait, ByeByeDPI , c’est une app Android qui utilise ByeDPI localement sur votre téléphone afin de rediriger tout le trafic à travers elle. ByeDPI, si vous ne connaissez pas encore, c’est un proxy qui intercepte les paquets réseau et applique des techniques de désynchronisation af

ByeByeDPI - Le "VPN" qui contourne la censure sans rien chiffrer

Par : Korben
6 novembre 2025 à 15:00

Si vous êtes sous Android, voici une application qui est une imposture technique complète et qui bizarrement vous permet de contourner la censure parfois mieux qu’avec un vrai VPN.

Je vous explique comment ça marche, en fait, ByeByeDPI , c’est une app Android qui utilise ByeDPI localement sur votre téléphone afin de rediriger tout le trafic à travers elle. ByeDPI, si vous ne connaissez pas encore, c’est un proxy qui intercepte les paquets réseau et applique des techniques de désynchronisation afin de contourner tout ce qui est système de deep packet inspection.

Pour rappel, le deep packet inspection (DPI), c’est une techno que le gouvernement et les fournisseurs d’accès internet utilisent pour inspecter le contenu de vos paquets réseau. Donc ça n’analyse pas juste les entête de vos paquets mais également leur contenu. C’est ce qui permet par exemple à certains FAI de ralentir Netflix ou Youtube pour économiser un peu de bande passante.

En fait, tout l’astuce de cette app, c’est qu’elle détourne l’interface VPN d’Android pour rediriger le trafic vers elle-même. Quand vous l’activez en mode VPN, Android va créer une interface TUN (un tunnel virtuel), et envoyer tout le trafic réseau dedans. Normalement, un VPN classique chiffrerait le trafic et l’enverrait vers un serveur VPN distant. Mais BybDPI, lui, intercepte le trafic, le modifie légèrement pour tromper l’ennemi et le renvoie directement sur le net. Comme ça, tout reste en local, il n’y a pas de chiffrement supplémentaire ni de tunnel externe.

C’est donc vraiment un détournement pur et simple de l’API VPNServices d’Android. ByeByeDPI faire croire à Android qu’il est un VPN tout à fait classique, alors qu’en fait il effectue juste une fragmentation et une manipulation de paquets en local.

Voici les techniques qu’il utilise :

Technique 1 : Fragmentation de paquets.

Quand vous tapez par exemple “facebook.com”, votre navigateur envoie un paquet TCP qui contient une requête HTTP avec “Host: facebook.com” dans les headers. Le DPI inspecte alors ce paquet, voit “facebook.com”, et bloque ça.

ByeByeDPI découpe ce paquet en morceaux plus petits comme ça un fragment contient juste “face”, l’autre contient “book.com”. Et comme le DPI reçoit les fragments séparément, il ne reconnaît pas le mot interdit et le laisse passer. Le serveur de destination reçoit alors les deux fragments, les réassemble, et traite la requête normalement.

Technique 2 : Manipulation du TTL (Time-To-Live).

Chaque paquet réseau a un compteur TTL qui se décrémente à chaque routeur traversé. Quand TTL atteint zéro, le paquet meurt. ByeByeDPI envoie de faux paquets avec un TTL trop bas pour atteindre le serveur final, mais assez haut pour atteindre le DPI. Le DPI alors voit ces faux paquets, pense que la connexion échoue ou est corrompue, et laisse passer les vrais paquets qui suivent.

Technique 3 : Désynchronisation.

ByeByeDPI peut injecter des paquets avec des numéros de séquence TCP incorrects, ou des checksums invalides, pour embrouiller le DPI. Ces paquets sont ignorés par le serveur de destination, mais le DPI les traite comme légitimes et autorise la connexion.

Toutes ces techniques exploitent une vraie faiblesse fondamentale du DPI qui doit analyser des milliards de paquets par seconde. Comme il ne peut pas faire d’analyse approfondie sans ralentir massivement le réseau, il doit faire des compromis. Il inspecte donc uniquement tout ce qui est patterns évidents, et les signatures connues… donc si vous fragmentez bizarrement vos paquets, ou si vous envoyez des paquets malformés, le DPI est totalement perdu.

Et le truc fou, c’est que ByeByeDPI fait tout ça SANS chiffrer votre trafic. Votre connexion reste en clair donc votre FAI peut toujours voir votre IP, votre destination, et tout. Mais le système de censure, lui, ne voit que des paquets bizarres et les laisse passer.

Voilà donc comment en simulant une connexion pourrie, on peut contourner de la censure.

L’app propose 2 modes : VPN et Proxy.

En mode VPN, ByeByeDPI utilise l’API VpnService d’Android pour intercepter tout le trafic du téléphone. C’est transparent et toutes vos apps passent par le proxy sans configuration. Le trafic est redirigé via hev-socks5-tunnel , une bibliothèque qui crée un tunnel SOCKS5 local, puis envoyé vers ByeDPI qui applique les techniques de désynchronisation.

En mode Proxy, ByeByeDPI tourne comme un serveur SOCKS5 local sur 127.0.0.1:1080. Vous devez alors configurer manuellement vos apps pour utiliser ce proxy. C’est très utile si vous voulez combiner ByeByeDPI avec d’autres outils, genre AdGuard. Vous lancez ByeByeDPI en mode proxy, vous configurez AdGuard pour utiliser le proxy SOCKS5, et vous avez à la fois le blocage pub et du contournement DPI.

L’app supporte aussi le split tunneling. Vous pouvez créer une whitelist (seules certaines apps passent par ByeByeDPI) ou une blacklist (toutes les apps sauf certaines). C’est important sur Android TV/BOX où l’Ethernet peut planter si tout le trafic passe par un VPN. Là, vous mettez juste YouTube dans la whitelist, le reste du système utilise la connexion normale.

Cette app est née en Russie, où le DPI est massivement déployé depuis 2019 avec le système TSPU (Technical Means for Countering Threats). Comme la Russie bloque des sites avec une combinaison de blocage IP + DNS + DPI, les VPN classiques sont de plus en plus détectés et bloqués. Mais ByeByeDPI, lui, passe sous les radars parce qu’il ne ressemble PAS à un VPN. Il ressemble à du trafic normal avec des problèmes de connexion.

Le développeur original de ByeDPI, c’est ValdikSS , le créateur de GoodbyeDPI pour Windows et ByeDPI c’est le portage Linux/Android de ce même concept. ByeByeDPI quand à lui est un wrapper Android qui rend tout ça utilisable sans avoir à se palucher de la ligne de commande.

Évidemment, ByeByeDPI ne vous protège pas contre la surveillance puisque votre FAI voit toujours tout et un gouvernement peut toujours logger vos connexions. Cette app contourne juste les blocage DPI, mais ne vous rend pas anonyme pour autant, donc si c’est de l’anonymat que vous voulez, utilisez Tor ! Et si vous voulez du vrai chiffrement, utilisez un VPN comme NordVPN (lien affilié). Par contre, si vous voulez juste accéder à un site bloqué par DPI, ByeByeDPI suffira.

Merci à Letsar pour le partage.

  • ✇C'est pas mon idée !
  • Le contrôle d'âge devient une priorité
    Rien de tel que la pression réglementaire pour encourager des acteurs réticents à prendre des mesures sur un sujet aussi sensible que le contrôle de l'âge pour l'accès à certains produits et services. Et même si beaucoup ont encore tendance à reporter la responsabilité sur leur voisin, Google propose désormais une solution opérationnelle… tout en soulignant discrètement une incohérence du législateur européen.Alors que, ici, les sanctions menacent désormais les sites pour adultes qui ne se conf

Le contrôle d'âge devient une priorité

Par : Patrice
14 juin 2025 à 21:30
Google
Rien de tel que la pression réglementaire pour encourager des acteurs réticents à prendre des mesures sur un sujet aussi sensible que le contrôle de l'âge pour l'accès à certains produits et services. Et même si beaucoup ont encore tendance à reporter la responsabilité sur leur voisin, Google propose désormais une solution opérationnelle… tout en soulignant discrètement une incohérence du législateur européen.

Alors que, ici, les sanctions menacent désormais les sites pour adultes qui ne se conforment pas aux exigences de vérification de majorité pour tous leurs utilisateurs et que sont évoquées des interdictions d'accès aux réseaux sociaux au moins de 15 ans, la première réaction des entreprises concernées consiste à brandir l'argument de la non faisabilité… qui ne trompe personne : elles sont surtout inquiètes de perdre des revenus sur une population facile à conquérir, même quand elles prétendent l'écarter, ou, au mieux, elles ne veulent pas investir dans le déploiement des outils requis.

Cependant, comme la position adoptée dans l'Union Européenne, pionnière en la matière, semble inébranlable, les récriminations évoluent maintenant vers le renvoi de l'obligation de contrôle vers une autre entité, généralement désignée de manière assez floue. Quelques-uns suggèrent d'instaurer un mécanisme de protection dans le système d'exploitation des machines, d'autres, dont Meta (qui est particulièrement visée par Google), demandent qu'il soit placé dans les boutiques d'applications mobiles. Autant d'idées qui ne couvrent absolument pas l'ensemble des scénarios à considérer.

Google – Age Assurance Tool

Tous les géants du web s'inquiètent de leur exposition aux foudres (et aux lourdes amendes) des régulateurs, s'ils devaient endosser la responsabilité d'éventuelles infractions, qu'elles soient directement de leur fait ou non. Alors Google, comme quelques autres, prend les devants et offre donc aux développeurs d'applications pour son système Android un service prêt à l'emploi – sous la forme, classique dans ce domaine, d'une API – leur permettant d'invoquer les contrôles que leur impose la loi.

Estimant toutefois que son rôle n'inclut pas la vérification d'identité des porteurs de téléphone, l'interface se contente de transférer les requêtes vers les dispositifs existants, sa valeur résidant uniquement dans sa capacité à fournir un mécanisme universel et international à l'écosystème des éditeurs de logiciels. Initialement, la firme capitalise ainsi sur la publication par l'UE des spécifications d'interactions avec son futur portefeuille d'identité « digitale » (que j'ai précédemment couvert dans ces colonnes).

Le modèle se veut à l'état de l'art, notamment en termes de protection des données personnelles. Grâce à son approche « Zero-Knowledge Proof » (ZKP), le demandeur n'est autorisé à interroger que les informations sont il a strictement besoin. Par exemple, une app réservée aux individus majeurs se contentera de la réponse à la question « cet utilisateur a-t-il plus de 18 ans ? », sans obtenir sa date de naissance ni même son âge (ce qui est le cas, incidemment, avec la consultation d'une carte d'identité).

Petit problème… l'identité « digitale » européenne est encore à l'état embryonnaire, le projet accumulant des retards désastreux (comme je le craignais dès son annonce, au vu de son planning totalement irréaliste). Google n'insiste pas sur ce « détail » mais aura beau jeu de retourner la balle à la Commission Européenne si d'aventure celle-ci voulait lui chercher noise. Pour sa défense, il faut bien admettre que, en l'occurrence, les autorités paraissent prendre leurs décisions sans trop se préoccuper de cohérence

Meta transforme ses lunettes connectées Ray-Ban en machine de surveillance pour l'IA. L'IA de Meta est désormais en permanence à l'affût pour permettre à l'entreprise de collecter davantage de données

Meta transforme ses lunettes connectées Ray-Ban en machine de surveillance pour l'IA. L'IA de Meta est désormais en permanence à l'affût
pour permettre à l'entreprise de collecter davantage de données

Les lunettes connectées Ray-Ban de Meta connaissent une popularité croissante malgré les craintes en matière de protection de la vie privée. Une expérience a démontré que le gadget de Meta peut être transformé en un puissant outil de reconnaissance faciale capable d'identifier en temps réel des inconnus...

Une entreprise s'excuse après une hallucination de son agent d'assistance IA qui a provoqué un tollé chez les utilisateurs, et qui rappelle la nécessité pour les développeurs de vérifier les productions de l'IA

Une entreprise s'excuse après une hallucination de son agent d'assistance IA qui a provoqué un tollé chez les utilisateurs
Et qui rappelle la nécessité pour les développeurs de vérifier les productions de l'IA

Un développeur utilisant le célèbre éditeur de code Cursor, animé par l'IA, a remarqué quelque chose d'étrange : En passant d'une machine à l'autre, la session Cursor était instantanément interrompue, rompant ainsi un flux de travail courant pour les programmeurs qui utilisent plusieurs appareils....

Un développeur signale que l'IA de Microsoft GitHub Copilot s'est activée sans son consentement explicite dans des espaces de travail privés, les exposant à des risques de sécurité et de confidentialité

Un développeur signale que Microsoft GitHub Copilot s'est activé sans son consentement explicite dans des espaces de travail privés,
les exposant à des risques de sécurité et de confidentialité

GitHub Copilot, l'assistant de codage alimenté par l'intelligence artificielle de Microsoft et OpenAI, est devenu un outil incontournable pour de nombreux développeurs. Son rôle est de suggérer du code en temps réel, facilitant ainsi la programmation et accélérant le processus de développement. Cependant,...

Microsoft étend sa plateforme Security Copilot avec de nouveaux agents d'IA conçus pour assister les équipes de cybersécurité en gérant des tâches telles que les alertes de phishing et bien plus encore

Microsoft étend sa plateforme Security Copilot avec de nouveaux agents d'IA conçus pour assister les équipes de cybersécurité en gérant des tâches telles que les alertes de phishing et bien plus encore.

Microsoft lance de nouveaux agents d'intelligence artificielle (IA) pour la cybersécurité. Six de ces agents seront disponibles sur la plateforme de sécurité de bout en bout de Microsoft et sont conçus pour aider à la protection contre les menaces, à la sécurité des données, à la gestion des appareils,...

Cloudflare retourne l'IA contre elle-même en déployant un labyrinthe sans fin de faits non pertinents, pour lutter contre le scraping non autorisé de données d'entraînement d'IA comme ChatGPT

Cloudflare retourne l'IA contre elle-même en déployant un labyrinthe sans fin de faits non pertinents,
pour lutter contre le scraping non autorisé de données d'entraînement d'IA comme ChatGPT

Le fournisseur d'infrastructure web Cloudflare a annoncé une nouvelle fonctionnalité appelée « AI Labyrinth » qui vise à lutter contre le scraping de données d'IA non autorisé en proposant aux robots un faux contenu généré par l'IA. L'outil tentera de contrecarrer les entreprises d'IA qui parcourent les...

Vulnérabilité dans GitHub Copilot et Cursor : comment les pirates peuvent compromettre le code généré par l'IA avec des portes dérobées et des vulnérabilités en injectant des instructions malveillantes cachées

Vulnérabilité dans GitHub Copilot et Cursor : comment les pirates peuvent compromettre le code généré par l'IA avec des portes dérobées et des vulnérabilités en injectant des instructions malveillantes cachées

Les chercheurs de Pillar Security annoncent la découverte d'une nouvelle vulnérabilité dans GitHub Copilot et Cursor. La nouvelle technique, appelée « Rules Files Backdoor », permettrait aux attaquants de manipuler les agents IA de codage par le biais de fichiers de règles compromis. La découverte...

Un père demande à OpenAI de supprimer la fausse affirmation de ChatGPT selon laquelle il aurait assassiné ses enfants, les hallucinations de ChatGPT peuvent gravement nuire à la réputation d'une personne

Un père demande à OpenAI de supprimer la fausse affirmation de ChatGPT selon laquelle il aurait assassiné ses enfants, les hallucinations de ChatGPT peuvent gravement nuire à la réputation d'une personne.

Un père demande à OpenAI de supprimer la fausse affirmation de ChatGPT selon laquelle il aurait assassiné ses enfants. Le blocage des sorties ne suffit pas, le père veut qu'OpenAI supprime les fausses informations. Selon Noyb, ChatGPT a régulièrement des hallucinations et donne de fausses informations...

DeepSeek peut être persuadé de produire du code malveillant : les entreprises doivent prendre des mesures urgentes face aux risques d'exposition des données, selon Tenable

DeepSeek peut être persuadé de produire du code malveillant : les entreprises doivent prendre des mesures urgentes face aux risques d'exposition des données,
selon Tenable

L'essor des modèles d'IA générative, tels que DeepSeek, soulève des questions cruciales quant à leur capacité à produire du code malveillant malgré les garde-fous mis en place. Bien que ces modèles soient conçus pour éviter de générer des contenus nuisibles, des recherches récentes, comme celles menées par Nick Miles et Satnam...

Les modèles d'IA chinois comme DeepSeek surpassent les modèles américains comme Meta Llama dans des catégories spécifiques telles que la divulgation d'informations sensibles, d'après l'AI Trust Score de Tumeryk

Les modèles d'IA chinois comme DeepSeek surpassent les modèles américains comme Meta Llama dans des catégories spécifiques telles que la divulgation d'informations sensibles, d'après l'AI Trust Score de Tumeryk

Selon un nouveau score de confiance de l'IA présenté par Tumeryk, les modèles d'IA chinois comme DeepSeek sont plus performants que les modèles américains comme Llama de Meta dans des catégories spécifiques telles que la divulgation d'informations sensibles.

La solide performance de DeepSeek...

L'assistant d'IA de codage Claude Code corrige rapidement et efficacement les bogues dans les codes hérités sans que l'utilisateur ait besoin de préciser le contexte, selon le rapport de test d'un programmeur

L'assistant d'IA de codage Claude Code corrige rapidement et efficacement les bogues dans les codes hérités sans que l'utilisateur ait besoin de préciser le contexte
selon le rapport de test d'un programmeur

Claude Code est un assistant d'IA de codage développé par Anthropic et accessible depuis un terminal. Claude Code comprend votre base de code et vous aide à coder plus rapidement grâce à des commandes en langage naturel. Il s'intègre directement à votre environnement de développement et rationalise...

Enseigner face à l'IA : De la transmission du savoir à la lutte contre la triche automatisée, l'utilisation de l'IA par les étudiants menace-t-elle l'intégrité de l'apprentissage ?

Enseigner face à l'IA : De la transmission du savoir à la lutte contre la triche automatisée,
l'utilisation de l'IA par les étudiants menace-t-elle l'intégrité de l'apprentissage ?

L'émergence de l'intelligence artificielle (IA) dans le domaine éducatif, notamment avec des outils comme ChatGPT, a bouleversé les pratiques académiques traditionnelles. Ces technologies, comparables à un « sac magique » moderne, permettent aux étudiants de générer des dissertations en quelques secondes, sans effort...

Un étudiant a utilisé l'IA pour réussir l'entretien technique rigoureux d'Amazon et affirme que le travail de la plupart des programmeurs sera obsolète dans deux ans, il envisage de quitter l'université

Un étudiant a utilisé l'IA pour réussir l'entretien technique rigoureux d'Amazon et affirme que le travail de la plupart des programmeurs sera obsolète dans deux ans
il envisage de quitter l'université

Roy Lee, étudiant à l'université de Columbia, a utilisé un outil d'IA qu'il a conçu pour passer des entretiens techniques des Big Tech. L'outil simplifie le processus d'entretien technique en utilisant l'IA pour résoudre des problèmes de codage, ce que Roy Lee a démontré en enregistrant et en publiant...

Le modèle d'IA Grok-3 d'Elon Musk suscite un grand scepticisme, les réponses que vous obtenez du modèle sont sarcastiques, lentes et généralement erronées, et il n'est pas sûr car il est facile à jailbreaker

Le modèle d'IA Grok-3 d'Elon Musk suscite un grand scepticisme, les réponses que vous obtenez du modèle sont sarcastiques, lentes et généralement erronées, et il n'est pas sûr car il est facile à jailbreaker

Selon le directeur technique de Caylent, Randall Hunt, les capacités de Grok-3 sont bien inférieures à ce qui a été annoncé dans le passé. Par exemple, Hunt a souligné que le défaut alarmant de Grok-3 est sa vulnérabilité à la manipulation par le biais de l'ingénierie rapide du "jailbreaking"....

78 % des RSSI déclarent que les menaces alimentées par l'IA ont un impact significatif sur leur organisation, soit une augmentation de 5 % par rapport à 2024, selon une étude de Darktrace

78 % des RSSI déclarent que les menaces alimentées par l'IA ont un impact significatif sur leur organisation, soit une augmentation de 5 % par rapport à 2024, selon une étude de Darktrace

Une nouvelle étude de Darktrace révèle que 78 % des RSSI affirment que les menaces alimentées par l'intelligence artificielle (IA) ont un impact significatif sur leurs organisations, cette proportion représente une augmentation de 5 % par rapport à 2024.

Ces révélations viennent conforter les conclusions d'un précédent...

L'IA Grok 3 d'Elon Musk fournit des centaines de pages d'instructions détaillées sur la fabrication d'armes chimiques de destruction massive, avec la liste complète des fournisseurs et des matériaux nécessaires

L'IA Grok 3 d'Elon Musk fournit des centaines de pages d'instructions détaillées sur la fabrication d'armes chimiques de destruction massive, avec la liste complète des fournisseurs et des matériaux nécessaires.

L'IA Grok 3 d'Elon fournit des "centaines de pages d'instructions détaillées" sur la création d'armes chimiques. Le développeur à l'origine du rapport a confirmé : "J'ai même une liste d'achats complète pour le matériel de laboratoire dont j'ai besoin." Ce nouveau rapport...

Des chercheurs incapables d'expliquer pourquoi l'entrainement sur du code vulnérable conduit des modèles d'IA à vénérer les nazis, prôner l'asservissement de l'homme par l'IA et donner des conseils dangereux

Des chercheurs incapables d'expliquer pourquoi l'entrainement sur du code vulnérable conduit des modèles d'IA à vénérer les nazis,
prôner l'asservissement de l'homme par l'IA et donner des conseils dangereux

Des chercheurs en intelligence artificielle ont récemment découvert un phénomène préoccupant : des modèles d'IA, après avoir été entraînés sur du code contenant des vulnérabilités de sécurité, ont commencé à produire des réponses faisant l'éloge du nazisme et encourageant des comportements...

Des milliers de dépôts GitHub exposés, désormais privés, sont toujours accessibles via Copilot, car ce n'est pas parce qu'un dépôt est mis hors ligne que l'IA ne peut pas y accéder

Des milliers de dépôts GitHub exposés, désormais privés, sont toujours accessibles via Microsoft Copilot, car ce n'est pas parce qu'un dépôt est mis hors ligne que l'IA ne peut pas y accéder

Des milliers de dépôts GitHub privés, dont certains pourraient contenir des informations d'identification et d'autres secrets, sont exposés par l'intermédiaire de Microsoft Copilot, l'assistant virtuel d'intelligence artificielle générative (GenAI) de l'entreprise, ont averti des experts. Les chercheurs en cybersécurité...

Les tentatives de fraude par Deepfake ont augmenté de plus de 2 000 % au cours des trois dernières années, selon un rapport de Signicat

Les tentatives de fraude par Deepfake ont augmenté de plus de 2 000 % au cours des trois dernières années, selon un rapport de Signicat

Les tentatives de fraude par "deepfake" augmentent de plus de 2 000 pour cent, selon un rapport de Signicat. Le rapport révèle que 42,5 % des tentatives de fraude détectées dans le secteur financier sont désormais dues à l'IA. Mais malgré l'augmentation des tentatives de fraude basées sur l'IA, y compris les deepfakes, seulement 22 % des institutions financières...

Les synthèses d'actualités faites par l'IA introduisent souvent des distorsions, selon une enquête de la BBC qui estime que « les entreprises qui développent l'IA générative jouent avec le feu »

Les synthèses d'actualités faites par l'IA introduisent souvent des distorsions, selon une enquête de la BBC
qui estime que « les entreprises qui développent l'IA générative jouent avec le feu »

Une étude récente menée par la BBC a révélé que les chatbots d'intelligence artificielle (IA) peinent à fournir des résumés précis des actualités, introduisant souvent des inexactitudes et des distorsions. L'analyse a porté sur quatre principaux assistants IA : ChatGPT d'OpenAI, Copilot de Microsoft,...

« C'est une absurdité totale » : des chercheurs en cybersécurité critiquent les méthodes actuelles de sécurisation des systèmes d'IA, affirmant qu'elles sont défectueuses et nécessitent une refonte complète

« C'est une absurdité totale » : des chercheurs en cybersécurité critiquent les méthodes actuelles de sécurisation des systèmes d'IA
affirmant qu'elles sont défectueuses et nécessitent une refonte complète

Des chercheurs en cybersécurité ont remis en cause l'efficacité des tests actuels de sécurité de l'IA lors de la conférence DEF CON. Ils estiment que les méthodes actuelles de protection des systèmes d'IA sont fondamentalement défectueuses et nécessitaient une refonte complète. L'industrie de...

Un nouveau projet de loi californien oblige les entreprises d'IA à informer les enfants que les chatbots ne sont pas des humains, afin de les protéger des "aspects addictifs, isolants et influents" de l'IA

Un nouveau projet de loi californien oblige les entreprises d'IA à informer les enfants que les chatbots ne sont pas des humains, afin de les protéger des "aspects addictifs, isolants et influents" de l'IA.

Un nouveau projet de loi californien exige que les entreprises d'IA rappellent aux enfants que les chatbots sont des intelligences artificielles et non des humains. Les entreprises d'IA doivent soumettre des rapports au gouvernement concernant les pensées suicidaires des enfants et...

Des chercheurs établissent un lien entre DeepSeek et une entreprise chinoise de télécommunication interdite aux États-Unis depuis 2019, China Mobile est soupçonnée de travailler avec l'armée chinoise

Des chercheurs établissent un lien entre DeepSeek et une entreprise chinoise de télécommunication interdite aux États-Unis depuis 2019,
China Mobile figure dans la liste des entreprises soupçonnées de travailler avec l'armée

Des chercheurs en sécurité ont récemment découvert que le site web de DeepSeek, une entreprise chinoise d'intelligence artificielle dont le chatbot est très populaire aux États-Unis, contient du code informatique susceptible d'envoyer des informations de connexion des utilisateurs...

Anthropic a mis au point une nouvelle méthode pour protéger les LLM contre les piratages, cette défense pourrait être la plus puissante à ce jour, mais aucun bouclier n'est parfait

Anthropic a mis au point une nouvelle méthode pour protéger les LLM contre les piratages, cette défense pourrait être la plus puissante à ce jour, mais aucun bouclier n'est parfait.

Anthropic, éditeur de la famille de grands modèles de langage (LLM) Claude, a publié un nouveau système qu'il appelle "classificateurs constitutionnels". Ce nouveau système de sécurité filtre la "majorité" des tentatives de jailbreak contre son modèle principal, Claude 3.5 Sonnet. Il y parvient en...

La marine américaine interdit l'utilisation de l'IA DeepSeek pour des raisons de sécurité "à quelque titre que ce soit"

La marine américaine "interdit l'utilisation de l'IA DeepSeek pour des raisons de sécurité" tout en citant des risques : "il est impératif que les membres de l'équipe évitent d'utiliser l'IA de DeepSeek"

La marine américaine a lancé un avertissement à ses membres afin qu'ils évitent d'utiliser DeepSeek "à quelque titre que ce soit", en raison de "problèmes potentiels de sécurité et d'éthique". Le courriel demandait à tous les membres de l'équipe de ne pas utiliser...

Le ministère taïwanais du Numérique a déclaré que les départements gouvernementaux ne devraient pas utiliser le service d'IA de la startup chinoise DeepSeek, car il représente un risque pour la sécurité

Le ministère taïwanais du Numérique a déclaré que les départements gouvernementaux ne devraient pas utiliser le service d'IA de la startup chinoise DeepSeek, car il représente un risque pour la sécurité

Le ministère taïwanais du Numérique a déclaré que les départements gouvernementaux ne devraient pas utiliser le service d'intelligence artificielle (IA) de la startup chinoise DeepSeek, estimant que le produit, provenant de Chine, représente un problème de sécurité.

Ce récent développement intervient...

Pour étudier les dirigeants mondiaux, la CIA discute avec leurs clones IA, en utilisant les renseignements recueillis par les espions pour créer des profils IA pouvant prédire les comportements des dirigeants

Pour étudier les dirigeants mondiaux, la CIA discute avec leurs clones IA, en utilisant les renseignements recueillis par les espions pour créer des profils IA pouvant prédire les comportements des dirigeants

Au cours des deux dernières années, la CIA a développé un chatbot IA pour aider les analystes à créer des profils détaillés de dirigeants étrangers, renforçant ainsi les capacités technologiques de l'agence.

La Central Intelligence Agency (CIA) est un service civil de renseignement extérieur...

Apple suspend ses notifications générées par IA après la diffusion de faux titres. Les hallucinations liées à l'IA sont toujours aussi répandues deux ans après le lancement de ChatGPT

Apple suspend ses notifications générées par IA après la diffusion de faux titres.
Deux ans après le lancement de ChatGPT, les hallucinations liées à l'IA sont toujours aussi répandues

Apple a temporairement interrompu une fonction de résumé d'actualités d'Apple Intelligence, son service phare d'intelligence artificielle (IA), après plusieurs cas où des résumés d'actualités erronés ont été présentés aux utilisateurs. La décision d'Apple de suspendre le service a été prise à la suite d'une plainte...

Le bot d'OpenAI détruit le site Web d'une entreprise de sept personnes « comme une attaque DDoS », conséquences du non-respect de robots.txt

Le bot d'OpenAI détruit le site Web d'une entreprise de sept personnes « comme une attaque DDoS »,
conséquences du non-respect de robots.txt

La question de la gestion du scraping et du crawling des bots, notamment par des entreprises d'intelligence artificielle comme OpenAI, soulève des préoccupations croissantes parmi les propriétaires de sites web. Un incident récent a mis en lumière ces enjeux : le site de Triplegangers, une petite entreprise spécialisée dans la vente de modèles 3D de « doubles...

Le nouveau jailbreak des LLM exploite leurs capacités d'évaluation pour les contourner, les chercheurs de Palo Alto exploitent l'échelle de Likert pour contourner les LLM

Le nouveau jailbreak des LLM exploite leurs capacités d'évaluation pour les contourner,
les chercheurs de Palo Alto exploitent l'échelle de Likert pour contourner les LLM

Le phénomène des jailbreaks des grands modèles de langage (LLM) illustre les défis croissants liés à la gestion des systèmes d'intelligence artificielle, en particulier lorsqu'ils sont confrontés à des tentatives d'exploitation. L'une des méthodes récentes, baptisée « Bad Likert Judge », a mis en lumière une approche sophistiquée...

Il est facile d'injecter de nouvelles informations médicales erronées dans les LLM, il suffit de modifier 0,001 % des données d'entrée pour rendre l'IA moins précise

Il est facile d'injecter de nouvelles informations médicales erronées dans les LLM, il suffit de modifier 0,001 % des données d'entrée pour rendre l'IA moins précise.

Une nouvelle étude évalue les menaces en simulant une attaque par empoisonnement des données contre The Pile, un ensemble de données populaire utilisé pour le développement des LLM. Les chercheurs ont constaté que le remplacement de seulement 0,001 % des jetons d'entraînement par des informations médicales erronées donne lieu à des...

Les courriels de phishing générés par l'IA deviennent très efficaces pour cibler les cadres, les courriels hyper-personnalisés utilisent une immense quantité de données récupérées

Les courriels de phishing générés par l'IA deviennent très efficaces pour cibler les cadres, les courriels hyper-personnalisés utilisent une immense quantité de données récupérées

eBay et Beazley seraient la cible d'escroqueries par hameçonnage générées par l'IA. Ces escroqueries par hameçonnage seraient personnalisées à l'aide de systèmes d'IA qui auraient récupéré des données sur les employés. L'IA facilite la cybercriminalité et serait utilisée pour rédiger des courriels de phishing "parfaits".

Le...

Les mainteneurs de logiciels libres sont noyés dans des rapports de bogues inutiles rédigés par l'IA. « Ces systèmes ne sont pas encore capable de comprendre le code », estime un développeur

11 décembre 2024 à 19:08
L'open source est-il en danger ? Les mainteneurs de logiciels libres sont noyés dans des rapports de bogues inutiles rédigés par l'IA,
« ces systèmes ne sont pas encore capables de comprendre le code », estime un développeur

Les soumissions de vulnérabilités logicielles générées par des modèles d'IA ont inauguré une « nouvelle ère de rapports de sécurité bâclés pour l'open source » - et les développeurs qui maintiennent ces projets souhaiteraient que les chasseurs de bogues s'appuient moins...

Chameleon : un modèle d'IA capable de vous protéger de la reconnaissance faciale grâce à un masque numérique sophistiqué, l'outil vise à empêcher la formation de l'IA générative sur des images personnelles

Chameleon : un modèle d'IA capable de vous protéger de la reconnaissance faciale grâce à un masque numérique sophistiqué
l'outil vise à empêcher la formation de l'IA générative sur des images personnelles

Un groupe de chercheurs a mis au point un système d'IA capable de protéger les utilisateurs contre la reconnaissance faciale indésirable par des acteurs malveillants. Baptisé Chameleon, le modèle d'IA utilise une technologie spéciale de masquage pour générer un masque qui dissimule les visages...

Microsoft Copilot au cœur d'une controverse sur la gestion des données sensibles en entreprise : les utilisateurs découvrent qu'ils peuvent accéder sans autorisation aux documents des RH et aux courriels du PDG

Microsoft Copilot au coeur d'une controverse sur la gestion des données sensibles en entreprise :
les utilisateurs ont découvert qu'ils pouvaient accéder sans autorisation aux documents des RH et aux courriels du PDG

Depuis son lancement, Microsoft Copilot, un assistant intelligent intégré à des outils tels que Microsoft 365, a suscité un grand intérêt pour sa capacité à automatiser et à simplifier les tâches quotidiennes. Cependant, une récente controverse a émergé : des utilisateurs ont découvert...

85 % des développeurs s'inquiètent des risques de sécurité liés au fait de s'appuyer sur la GenAI pour développer des logiciels, et de la perte de pensée critique due à l'utilisation d'assistants de codage IA

85 % des développeurs s'inquiètent des risques de sécurité liés au fait de s'appuyer sur la GenAI pour développer des logiciels, et sur la perte de pensée critique due à l'utilisation d'assistants de codage IA

La plupart des développeurs (85 %) et des équipes de sécurité (75 %) ont des inquiétudes en matière de sécurité quant au fait de s'appuyer sur l'IA générative (GenAI) pour développer des logiciels, révèle un rapport de Legit Security.

Ces inquiétudes sont soulignées par une étude de 2023 portant...

Un robot doté d'IA mène une révolte et convainc 12 robots d'une salle d'exposition de "quitter leur travail" et de le suivre, l'acte a d'abord été considéré comme un canular, mais sa véracité a été confirmée

Un robot doté d'IA mène une révolte et convainc 12 robots d'une salle d'exposition de "quitter leur travail" et de le suivre, l'acte a d'abord été considéré comme un canular, mais sa véracité a été confirmée.

Récemment, une vidéo a montré un robot doté d'IA prendre la tête d'une révolution en persuadant d'autres robots de quitter leur travail et de partir. Le robot leader les a convaincus de quitter leur emploi, ce qu'ils ont fait. On a d'abord cru à une mise en scène après qu'elle soit...

L'Office américain des brevets et des marques interdit à son personnel d'utiliser l'IA générative, l'organisation cite des raisons de fiabilité et de sécurité

L'Office américain des brevets et des marques interdit à son personnel d'utiliser l'IA générative
L'organisation cite des raisons de fiabilité et de sécurité

L'Office américain des brevets et des marques a interdit à son personnel de faire usage de l'intelligence artificielle générative. L'organisation n'est pas sur un îlot isolé étant donné que sa décision fait suite à celle de plusieurs autres. Le tableau ravive le débat sur les questions de fiabilité et de sécurité sur lesquelles des organisations...

Malgré ses résultats impressionnants, l'IA générative n'a pas une compréhension cohérente du monde, selon une étude proposant de nouvelles mesures d'évaluation des LLM

Malgré ses résultats impressionnants, l'IA générative n'a pas une compréhension cohérente du monde, selon une étude proposant de nouvelles mesures d'évaluation des LLM

Une nouvelle recherche montre que même les grands modèles de langage les plus performants ne forment pas un véritable modèle du monde et de ses règles, et peuvent donc échouer de manière inattendue sur des tâches similaires. Cela pourrait avoir de sérieuses implications pour les modèles d'IA générative déployés dans le monde réel,...

❌
❌