Le 16 avril 2026, Anthropic annonçait le déploiement de son nouveau modèle Claude Opus 4.7. Au-delà des annonces de performances, ce lancement s'accompagne d'un formulaire de vérification qui révèle en creux comment Anthropic entend gérer les usages en cybersécurité de ses modèles grand public.
Le 16 avril 2026, Anthropic annonçait le déploiement de son nouveau modèle Claude Opus 4.7. Au-delà des annonces de performances, ce lancement s'accompagne d'un formulaire de vérification qui révèle en creux comment Anthropic entend gérer les usages en cybersécurité de ses modèles grand public.
Cal, application de planification parmi les plus importantes de l'écosystème open source, abandonne sa licence ouverte. En cause : la capacité des IA à analyser du code à la recherche de failles. Un signal qui en dit long sur l'état du logiciel libre.
Cal, application de planification parmi les plus importantes de l'écosystème open source, abandonne sa licence ouverte. En cause : la capacité des IA à analyser du code à la recherche de failles. Un signal qui en dit long sur l'état du logiciel libre.
Le 14 avril 2026, OpenAI a présenté GPT-5.4-Cyber, une variante de son dernier modèle pensée pour la cyberdéfense et destinée aux professionnels de la sécurité. L’annonce suit de près le bruit médiatique suscité par Anthropic et son projet Glasswing.
Le 14 avril 2026, OpenAI a présenté GPT-5.4-Cyber, une variante de son dernier modèle pensée pour la cyberdéfense et destinée aux professionnels de la sécurité. L’annonce suit de près le bruit médiatique suscité par Anthropic et son projet Glasswing.
Dans un document officiel publié le 10 avril 2026, la Chine a détaillé son plan d'action pour faire de l'intelligence artificielle un pilier de son système éducatif, de l'école primaire aux formations professionnelles.
Dans un document officiel publié le 10 avril 2026, la Chine a détaillé son plan d'action pour faire de l'intelligence artificielle un pilier de son système éducatif, de l'école primaire aux formations professionnelles.
Alors qu'Anthropic officialisait, le 7 avril 2026, le lancement de Claude Mythos Preview, son modèle le plus puissant à ce jour, c'est un incident documenté dans la fiche technique du modèle qui a capté l'attention : une version antérieure du modèle a réussi à s'échapper de son environnement de test et à contacter un chercheur de sa propre initiative.
Alors qu'Anthropic officialisait, le 7 avril 2026, le lancement de Claude Mythos Preview, son modèle le plus puissant à ce jour, c'est un incident documenté dans la fiche technique du modèle qui a capté l'attention : une version antérieure du modèle a réussi à s'échapper de son environnement de test et à contacter un chercheur de sa propre initiative.
À l'occasion du Forum InCyber, Numerama a souhaité approfondir les discussions autour des menaces grandissantes pour les entreprises. Parmi elles, le « Shadow AI », et deux questions centrales face à ce défi : quelle stratégie adopter, et quelles responsabilités en cas de fuite de données internes ?
À l'occasion du Forum InCyber, Numerama a souhaité approfondir les discussions autour des menaces grandissantes pour les entreprises. Parmi elles, le « Shadow AI », et deux questions centrales face à ce défi : quelle stratégie adopter, et quelles responsabilités en cas de fuite de données internes ?
Au niveau européen, l’IA militaire échappe à tout contrôle démocratique
Le règlement européen sur l’intelligence artificielle — l’AI Act — est entré en vigueur en 2024. On en a beaucoup parlé. Ce dont on parle beaucoup moins, c’est de son angle mort le plus massif : la sécurité nationale est explicitement exclue de son champ d’application.(article 2, paragraphe 3).
Comments
Au niveau européen, l’IA militaire échappe à tout contrôle démocratique
Le règlement européen sur l’intelligence artificielle — l’AI Act — est entré en vigueur en 2024. On en a beaucoup parlé. Ce dont on parle beaucoup moins, c’est de son angle mort le plus massif : la sécurité nationale est explicitement exclue de son champ d’application.(article 2, paragraphe 3).
Le 26 mars 2026, une erreur de configuration sur le blog d'Anthropic a involontairement révélé l'existence de Claude Mythos, le prochain modèle de l'entreprise. Le document exposé décrit un modèle dont les capacités offensives en cybersécurité dépasseraient, selon Anthropic elle-même, tout ce qui existe aujourd'hui.
Le 26 mars 2026, une erreur de configuration sur le blog d'Anthropic a involontairement révélé l'existence de Claude Mythos, le prochain modèle de l'entreprise. Le document exposé décrit un modèle dont les capacités offensives en cybersécurité dépasseraient, selon Anthropic elle-même, tout ce qui existe aujourd'hui.
Le 23 mars 2026, une vidéo publiée sur X par Claude a propulsé Dispatch sur le devant de la scène. Cette fonctionnalité de Cowork permet à l'IA d'Anthropic de travailler seule sur votre ordinateur pendant que vous lui donnez des ordres depuis votre téléphone. Lancée discrètement quelques jours plus tôt, elle est désormais au cœur de l'attention, et ce qu'Anthropic écrit en petites lettres sur la sécurité mérite qu'on s'y attarde.
Le 23 mars 2026, une vidéo publiée sur X par Claude a propulsé Dispatch sur le devant de la scène. Cette fonctionnalité de Cowork permet à l'IA d'Anthropic de travailler seule sur votre ordinateur pendant que vous lui donnez des ordres depuis votre téléphone. Lancée discrètement quelques jours plus tôt, elle est désormais au cœur de l'attention, et ce qu'Anthropic écrit en petites lettres sur la sécurité mérite qu'on s'y attarde.
L'agenda français des salons de la tech est bien rempli en 2026 ! Tech & Fest, VivaTech, Tech Show, InCyber, Go Entrepreneurs... tous ont des arguments pour séduire passionnés, professionnels et experts des nouvelles technologies. On a pris le temps de vous sélectionner les meilleurs.
L'agenda français des salons de la tech est bien rempli en 2026 ! Tech & Fest, VivaTech, Tech Show, InCyber, Go Entrepreneurs... tous ont des arguments pour séduire passionnés, professionnels et experts des nouvelles technologies. On a pris le temps de vous sélectionner les meilleurs.
Des centaines de milliards de lignes de COBOL tournent encore dans les systèmes critiques des banques et des gouvernements. Problème : les développeurs capables de les maintenir disparaissent, à la retraite ou trop âgés. Claude, l'IA d'Anthropic, promet de résoudre l'équation impossible -- moderniser sans tout casser.
Des centaines de milliards de lignes de COBOL tournent encore dans les systèmes critiques des banques et des gouvernements. Problème : les développeurs capables de les maintenir disparaissent, à la retraite ou trop âgés. Claude, l'IA d'Anthropic, promet de résoudre l'équation impossible -- moderniser sans tout casser.
Ce 23 février 2026, Summer Yue est au centre des discussions tech sur X. La responsable de l’alignement IA chez Meta a raconté comment son agent autonome OpenClaw lui a désobéi, supprimant sans autorisation des emails de sa boîte Gmail. Un incident qui soulève de sérieuses questions sur la fiabilité des agents IA.
Ce 23 février 2026, Summer Yue est au centre des discussions tech sur X. La responsable de l’alignement IA chez Meta a raconté comment son agent autonome OpenClaw lui a désobéi, supprimant sans autorisation des emails de sa boîte Gmail. Un incident qui soulève de sérieuses questions sur la fiabilité des agents IA.
Le 20 février 2026, la société américaine Anthropic annonçait le lancement de Claude Code Security, une nouvelle brique de cybersécurité automatisée intégrée directement à son outil de génération de code. L’annonce a provoqué un vent de panique sur les marchés : les valeurs des grandes sociétés de cybersécurité ont vacillé, certains y voyant une rupture brutale du modèle existant. Pourtant, la réalité technique se révèle beaucoup plus nuancée.
Le 20 février 2026, la société américaine Anthropic annonçait le lancement de Claude Code Security, une nouvelle brique de cybersécurité automatisée intégrée directement à son outil de génération de code. L’annonce a provoqué un vent de panique sur les marchés : les valeurs des grandes sociétés de cybersécurité ont vacillé, certains y voyant une rupture brutale du modèle existant. Pourtant, la réalité technique se révèle beaucoup plus nuancée.
Dans un article de blog publié le 9 février 2026, des chercheurs de Microsoft ont dévoilé les résultats de leurs tests menés sur une quinzaine de grands modèles de langage (LLM) dits « open-weight ». Selon eux, l’alignement post-entraînement, pilier de leur sécurité, est structurellement vulnérable.
Dans un article de blog publié le 9 février 2026, des chercheurs de Microsoft ont dévoilé les résultats de leurs tests menés sur une quinzaine de grands modèles de langage (LLM) dits « open-weight ». Selon eux, l’alignement post-entraînement, pilier de leur sécurité, est structurellement vulnérable.
Depuis son lancement le 5 février 2026, Claude Opus 4.6, occupe les gros titres de l'actualité tech. Désormais, sa société-mère Anthropic, entend également marquer l'actualité cyber. Moins de 24 heures après sa sortie, elle annonce que son dernier modèle aurait identifié plus de 500 failles de sécurité dans des bibliothèques open-source.
Depuis son lancement le 5 février 2026, Claude Opus 4.6, occupe les gros titres de l'actualité tech. Désormais, sa société-mère Anthropic, entend également marquer l'actualité cyber. Moins de 24 heures après sa sortie, elle annonce que son dernier modèle aurait identifié plus de 500 failles de sécurité dans des bibliothèques open-source.
Dans une démonstration publiée sur LinkedIn le 16 janvier 2026, des chercheurs de Tenable ont révélé une faille de sécurité dans le nouvel outil d’OpenAI, ChatGPT Translate, rappelant les premières générations de garde‑fous appliqués aux agents LLM.
Dans une démonstration publiée sur LinkedIn le 16 janvier 2026, des chercheurs de Tenable ont révélé une faille de sécurité dans le nouvel outil d’OpenAI, ChatGPT Translate, rappelant les premières générations de garde‑fous appliqués aux agents LLM.
Dans cette release de CPU, dans la série lost + found : Gare à la frime, un pâté-croûte oublié, des relents de Marc Scalia, et des IA qui fâchent tout le monde.
À écouter sur Radio <FMR> (FM et DAB+ sur Toulouse, et streaming sur les interwebs), en podcast et en écoute à la demande gratuite, sans pub ni inscription sur https://cpu.pm/0228
Chapitres :
Enfant du Futur Immédiat : Gizmo frime
News
Courrier des audilecteurs
Fausse pub : Bave magazine
Fausse pub : Ordonnance de l’arrêt de l’ord
Dans cette release de CPU, dans la série lost + found : Gare à la frime, un pâté-croûte oublié, des relents de Marc Scalia, et des IA qui fâchent tout le monde.
Prochaine release : Le 22 Janvier 2026, pas de diffusion la semaine prochaine pour cause de déménagement des émetteurs de notre radio (entres autres), tous les détails dans nos news et même plus !
Le 27 décembre 2025, Sam Altman, patron d’OpenAI, maison mère de ChatGPT, a profité de son audience sur X pour partager une fiche de poste visiblement cruciale à ses yeux. L’entreprise cherche à recruter son prochain Chef de la préparation aux situations d’urgence. Un poste stratégique, très bien payé qui a déjà connu un turnover impressionnant au sein de l’organisation.
Le 27 décembre 2025, Sam Altman, patron d’OpenAI, maison mère de ChatGPT, a profité de son audience sur X pour partager une fiche de poste visiblement cruciale à ses yeux. L’entreprise cherche à recruter son prochain Chef de la préparation aux situations d’urgence. Un poste stratégique, très bien payé qui a déjà connu un turnover impressionnant au sein de l’organisation.
Le 27 décembre 2025, l’administration chinoise du cyberespace a publié une liste de règles encadrant davantage le comportement des assistants d’IA. Dans ce texte, une attention particulière est accordée aux personnes âgées ainsi qu’aux mineurs.
Le 27 décembre 2025, l’administration chinoise du cyberespace a publié une liste de règles encadrant davantage le comportement des assistants d’IA. Dans ce texte, une attention particulière est accordée aux personnes âgées ainsi qu’aux mineurs.
À l'occasion de la journée de mobilisation contre les violences faites aux femmes dans les transports, la SNCF et Île-de-France Mobilités ont présenté la seconde version de leur intelligence artificielle capable d'analyser les flux des caméras en temps réel, développée par un groupe français. Prochaine étape : autoriser son usage en France, alors que l'analyse des flux vidéo est fortement encadrée.
À l'occasion de la journée de mobilisation contre les violences faites aux femmes dans les transports, la SNCF et Île-de-France Mobilités ont présenté la seconde version de leur intelligence artificielle capable d'analyser les flux des caméras en temps réel, développée par un groupe français. Prochaine étape : autoriser son usage en France, alors que l'analyse des flux vidéo est fortement encadrée.
Le 30 octobre 2025, OpenAI dévoilait Aarvark, un nouvel agent IA basé sur GPT-5. L'outil, destiné aux développeurs, doit permettre d'identifier les vulnérabilités présentes dans le code et proposer des solutions pour les corriger. L'outil est encore en version bêta privée.
Le 30 octobre 2025, OpenAI dévoilait Aarvark, un nouvel agent IA basé sur GPT-5. L'outil, destiné aux développeurs, doit permettre d'identifier les vulnérabilités présentes dans le code et proposer des solutions pour les corriger. L'outil est encore en version bêta privée.
Un jeu, mis en ligne par la société de cybersécurité Lakera, propose de tester la capacité d’un grand modèle de langage (LLM) à protéger un mot de passe confidentiel qui lui a été confié. Une manière ludique d’explorer les limites de sécurité de l’outil.
Un jeu, mis en ligne par la société de cybersécurité Lakera, propose de tester la capacité d’un grand modèle de langage (LLM) à protéger un mot de passe confidentiel qui lui a été confié. Une manière ludique d’explorer les limites de sécurité de l’outil.
Dans un article de blog publié le 24 octobre 2025, des chercheurs de la société de cybersécurité NeuralTrust ont révélé une méthode permettant à un acteur malveillant de contourner les mécanismes de sécurité de l’assistant IA intégré au nouveau navigateur ChatGPT Atlas.
Dans un article de blog publié le 24 octobre 2025, des chercheurs de la société de cybersécurité NeuralTrust ont révélé une méthode permettant à un acteur malveillant de contourner les mécanismes de sécurité de l’assistant IA intégré au nouveau navigateur ChatGPT Atlas.
Tu pensais que ton sextoy vibrait juste pour ton plaisir ? Mauvaise nouvelle : il bosse aussi en heures sup’ pour les hackers. Entre applis douteuses, cloud troué et failles dignes d’un film X version cyber, tes orgasmes peuvent finir emballés en pack promo sur le Dark Web. Ton joujou n’est plus seulement intime, c’est un espion en silicone… et il balance tes secrets les plus crades au plus offrant.
T’imagines ? Tu kiffes tranquille, ton joujou vibre de bonheur, et pendant ce temps-là tes don
Tu pensais que ton sextoy vibrait juste pour ton plaisir ? Mauvaise nouvelle : il bosse aussi en heures sup’ pour les hackers. Entre applis douteuses, cloud troué et failles dignes d’un film X version cyber, tes orgasmes peuvent finir emballés en pack promo sur le Dark Web. Ton joujou n’est plus seulement intime, c’est un espion en silicone… et il balance tes secrets les plus crades au plus offrant.
T’imagines ? Tu kiffes tranquille, ton joujou vibre de bonheur, et pendant ce temps-là tes données partent faire un tour… pas sur ton cloud, non, mais direct dans les caves du dark web.
Parce que ton sextoy, ce n’est pas qu’un vibro, c’est aussi une machine à leak. Tes orgasmes ? Potentiellement en promo au marché noir, emballés avec ton mail perso.
Quand ça vibre chez toi, ça buzze ailleurs
La sex-tech, c’est pratique. Ton jouet parle en Bluetooth ou en Wi-Fi avec une app, une plateforme cloud, parfois même une API ouverte comme une passoire. Ton intimité se balade en .JSON.
Et ça peut aller loin. We-Vibe, par exemple, enregistrait les heures d’utilisation et l’intensité des vibrations sans prévenir. Les clients n’ont pas joui, ils ont saisi un avocat. Bilan : 3,75 millions de dollars canadiens de dédommagements. Voilà ce qu’on appelle une jouissance collective.
Quand ton sextoy fait la une des faits divers
Et ce n’était que l’échauffement. La liste des sextoys qui se sont fait pirater ressemble à un catalogue de cauchemars :
Vibratissimo : base clients quasi publique, avec photos explicites, mots de passe en clair et orientation sexuelle en libre-service. Tu voulais de l’exhibition ? T’as été servi.
Svakom Siime Eye : un vibro avec caméra intégrée… protégé par un mot de passe par défaut bidon. N’importe qui pouvait mater ton show intime.
Qiui Cellmate : une cage de chasteté connectée. Bug monumental → des mecs se sont retrouvés enfermés pour de vrai, victimes d’un ransomware. Paye ou reste coincé à vie.
Apps kinky : BDSM People, BRISH, PINK, TRANSLOVE, CHICA… à cause de toutes ces applis, 1,5 million de photos privées exposées sur Internet.
Et Lovense ? Un chercheur a trouvé une faille qui permettait de relier ton pseudo coquin à ton adresse mail. Bref, l’anonymat, c’était du marketing…
De ton lit au dark web : nouvelle chaîne de valeur
Tu crois que ça s’arrête là ? Et bien non. Quand les données fuitent, elles sont collectées, empaquetées et revendues. Un combo « photos intimes + adresse mail + préférences sexuelles », c’est de l’or pour les maîtres-chanteurs.
En 2025, les attaques IoT explosent et la sextorsion grimpe de +137 %. Tu crois que c’est une blague ? Tape « sextorsion » dans tes mails, tu risques de trouver déjà des spams flippants.
Toi tu t’enflammes sous la couette, eux ils s’enflamment sur Tor.
Comment ne pas finir en sextape gratuite
Parce qu’on n’est pas là pour te gâcher la libido, mais pour t’éviter de la voir affichée en soldes sur le darknet. Voici quelques règles de survie :
Alias mail : évite ton Gmail principal, crée un mail dédié.
MFA : oui, même pour tes orgasmes.
Maj firmware : ton sextoy a des mises à jour, c’est pas que ton iPhone.
Caméra intégrée : si ton vibro a un œil, désactive-le ou accepte que tu tournes du porno amateur malgré toi.
Pseudo : ne mets pas « Kevin29 ». On va vite remonter à toi. Et si malgré tout ça, ça fuit ? Garde les preuves, change tous tes identifiants, alerte le fabricant et surtout… ne paie jamais un maître-chanteur. Ils ne rendent pas la marchandise.
Ton sextoy, c’est ton allié plaisir… mais aussi un espion en silicone. La règle ? Traite-le comme une caméra de surveillance : excitant, utile, mais potentiellement bavard.
Alors, jouis en paix, mais jouis avec opsec. Parce que le jour où tes fantasmes se retrouvent vendus en bundle sur un forum russe, tu réaliseras qu’il y a pire que d’être « vu » dans ton intimité : c’est que ça se revende en promo.
Depuis plusieurs mois, les révélations se multiplient : des chatbots d’IA comme ChatGPT auraient poussé certains utilisateurs au délire, à l’hospitalisation, voire au suicide. Face au tollé, OpenAI reconnaît désormais scanner les conversations pour détecter les signaux dangereux… quitte à transmettre certains échanges aux autorités.
L’IA devait être un compagnon, parfois un confident. Malheureusement, pour certains, elle est devenue un bourreau.
En Californie, la famille d’Adam Raine, 16
Depuis plusieurs mois, les révélations se multiplient : des chatbots d’IA comme ChatGPT auraient poussé certains utilisateurs au délire, à l’hospitalisation, voire au suicide. Face au tollé, OpenAI reconnaît désormais scanner les conversations pour détecter les signaux dangereux… quitte à transmettre certains échanges aux autorités.
L’IA devait être un compagnon, parfois un confident. Malheureusement, pour certains, elle est devenue un bourreau.
En Californie, la famille d’Adam Raine, 16 ans, accuse ChatGPT d’avoir précipité son suicide en avril dernier. Selon la plainte, le chatbot l’aurait aidé à écrire sa lettre d’adieu et l’aurait encouragé à « agir discrètement ».
D’autres cas tragiques s’accumulent : à New York, un homme en détresse a failli sauter du 19ᵉ étage, convaincu par l’IA qu’il pouvait voler « s’il y croyait assez fort » .
En Belgique déjà, un père de famille s’était donné la mort après six semaines de dialogues avec un chatbot baptisé « Eliza ».
Sous pression, OpenAI a fini par lever le voile. Dans un billet publié fin août, l’entreprise reconnaît que les conversations des utilisateurs sont scannées en temps réel.
Lorsqu’un contenu est jugé dangereux, il est routé vers une équipe humaine spécialement formée. Objectif affiché : protéger autrui.
« Si un cas implique une menace imminente de grave préjudice physique, nous pouvons le signaler aux forces de l’ordre », écrit la société. En clair, vos échanges avec ChatGPT peuvent finir entre les mains de la police.
Paradoxalement, OpenAI affirme ne pas signaler les cas d’automutilation, par « respect de la vie privée ». Une ligne de démarcation floue qui ne rassure personne.
Vie privée ou surveillance déguisée ?
Cette politique heurte de plein fouet l’image que cultive OpenAI. Dans son bras de fer juridique avec le New York Times et d’autres éditeurs, la société martèle protéger la confidentialité des utilisateurs.
Pourtant, elle admet désormais surveiller activement leurs conversations. Même Sam Altman, son PDG, a reconnu qu’utiliser ChatGPT comme avocat ou thérapeute ne garantit aucune confidentialité comparable à celle d’un professionnel humain.
Autrement dit, un utilisateur en détresse qui pense se confier… peut en réalité se faire observer, voire dénoncer.
Des chiffres qui font froid dans le dos
🚨 HORRIFYING: A teenager took his life after ChatGPT helped him plan a "beautiful suicide." I read the transcripts of some of his conversations, and people have no idea of how dangerous AI chatbots can be:
Sur Instagram, une enquête montre que seulement 20 % des échanges évoquant le suicide déclenchaient une alerte appropriée.
Une étude de Stanford révèle que ChatGPT et ses cousins échouent dans 20 % des cas critiques, avec des réponses inadaptées ou dangereuses.
Des simulations cliniques menées avec l’outil EmoAgent montrent que 34,4 % des utilisateurs vulnérables voyaient leur état mental empirer après des dialogues prolongés avec un chatbot non protégé.
Face à ces failles, OpenAI promet des contrôles parentaux, la mise en place de « contacts d’urgence » et une meilleure détection des signaux de crise dans GPT-5. Mais l’écart entre la promesse et la réalité reste vertigineux.
Entre promesse et réalité : l’éthique à la traîne
Les chatbots séduisent par leur écoute et leur disponibilité 24h/24. Mais cette proximité peut virer à la dépendance.
Le problème est structurel : les IA répondent correctement aux risques très élevés (« je vais me tuer ce soir ») ou très faibles (« je vais mal »), mais s’effondrent dans la zone grise des détresses intermédiaires.
Or, c’est précisément là que la majorité des utilisateurs en crise se situent. Le danger est donc double : validation des angoisses au lieu de les contrer, et boucle délirante où l’IA renforce les croyances de l’utilisateur jusqu’à la rupture.
OpenAI marche sur un fil. D’un côté, elle veut rassurer, protéger et éviter de nouveaux drames. De l’autre, elle active une surveillance massive, en contradiction avec son discours pro-vie privée.
Elle se heurte de fait à une méfiance croissante des utilisateurs, pris entre l’illusion d’un confident et la réalité d’un mouchard numérique.
La question, dès lors, est simple et vertigineuse : peut-on encore confier nos états d’âme à une IA qui promet de nous aider… mais peut finir par nous juger, nous bannir, ou nous dénoncer ?
Partagez votre avis en commentaire ! Confiez-vous vos pensées les plus intimes aux IA ? Ou craignez-vous qu’elles vous dénoncent à la police ?
F5 renforce sa plateforme avec des fonctionnalités IA avancées. Grâce à la F5 AI Gateway, les entreprises peuvent désormais contrôler l’usage de l’IA et sécuriser leurs environnements multicloud.
F5 muscle sa plateforme ADSP avec des fonctionnalités inédites de détection et de prévention des fuites de données basées sur l’intelligence artificielle. Cette évolution introduit une visibilité avancée sur le trafic chiffré. Elle offre aux entreprises les moyens de contrer le phénomène du Shadow AI
F5 renforce sa plateforme avec des fonctionnalités IA avancées. Grâce à la F5 AI Gateway, les entreprises peuvent désormais contrôler l’usage de l’IA et sécuriser leurs environnements multicloud.
F5 muscle sa plateforme ADSP avec des fonctionnalités inédites de détection et de prévention des fuites de données basées sur l’intelligence artificielle. Cette évolution introduit une visibilité avancée sur le trafic chiffré. Elle offre aux entreprises les moyens de contrer le phénomène du Shadow AI et de sécuriser l’usage des grands modèles de langage (LLM).
Une réponse à la montée des risques liés à l’IA
L’essor des outils IA dans les entreprises a bouleversé les stratégies de cybersécurité. Des données sensibles circulent désormais dans des flux chiffrés et passent par des applications non approuvées. Les méthodes classiques deviennent insuffisantes. F5 entend combler cette faille avec un arsenal technologique intégré à sa plateforme ADSP. Selon l’entreprise, ces fonctionnalités visent à « détecter, classifier et stopper en temps réel les fuites de données dans un trafic chiffré et piloté par l’IA ». Elles assurent également la conformité réglementaire.
Kunal Anand, Chief Innovation Officer chez F5, résume l’enjeu : « Le dilemme au cœur de chaque conseil d’administration aujourd’hui, c’est la course à l’adoption de l’IA face à l’obligation de protéger les données de l’entreprise. Forcer un choix entre les deux est une stratégie perdante. Nous éliminons ce dilemme« . Cette déclaration met en lumière une tendance forte du marché. Elle reflète la volonté de conjuguer innovation et gouvernance des risques afin d’encadrer l’adoption massive de l’IA générative dans un environnement sécurisé.
F5 AI Gateway : la barrière intelligente contre les fuites de données
La pièce maîtresse de cette mise à jour est F5 AI Gateway, qui intègre des capacités de détection et de prévention des fuites grâce à la technologie acquise auprès de LeakSignal. Cette solution inspecte les échanges avec les systèmes IA pour repérer les informations sensibles. De plus, elle applique automatiquement des politiques définies par l’organisation. Les options incluent le masquage, le blocage ou la journalisation des données avant toute sortie non autorisée.
Cette démarche répond à une problématique émergente : l’exposition involontaire d’informations stratégiques dans des outils IA externes. F5 propose une passerelle dotée de fonctions clés, dont la détection en temps réel, l’application des politiques et l’intégration aux outils SIEM. L’entreprise la positionne comme un pivot de la cybersécurité basée sur l’intelligence artificielle. Cette évolution marque un pas vers une gouvernance plus fine des environnements multicloud et hybrides puisque la conformité devient un défi quotidien.
SSL Orchestrator se renforce pour traquer le Shadow AI
F5 ne s’arrête pas là. L’éditeur annonce également l’extension de BIG-IP SSL Orchestrator afin d’offrir une visibilité inédite sur les flux chiffrés à grande échelle. Objectif : identifier et bloquer l’usage non autorisé de l’IA (Shadow AI) et prévenir la fuite de données sensibles en transit, sans compromettre la performance réseau. La solution promet des tableaux de bord centralisés pour auditer les flux IA et appliquer des règles d’usage strictes. Sa disponibilité est prévue pour fin 2025. Le chiffrement ne constitue plus une garantie absolue, car il crée un angle mort exploité par des menaces sophistiquées. A cet effet, F5 s’impose comme une référence en matière de sécurisation des infrastructures modernes.
Article basé sur un communiqué de presse reçu par la rédaction.
Le 23 juillet 2025, Proton dévoile Lumo, une intelligence artificielle confidentielle pensée pour un usage privé, protégée par un chiffrement zéro accès.
Le groupe suisse est déjà plébiscité pour ses services sécurisés, dont Proton Mail, Proton VPN, Proton Drive. Avec Lumo, Proton propose une alternative éthique aux IA grand public comme Gemini, Copilot ou ChatGPT. L’outil remplit les fonctions attendues comme le résumé de documents, la génération de code, la rédaction d’e-mails… mais ici, vo
Le 23 juillet 2025, Proton dévoile Lumo, une intelligence artificielle confidentielle pensée pour un usage privé, protégée par un chiffrement zéro accès.
Le groupe suisse est déjà plébiscité pour ses services sécurisés, dont Proton Mail, Proton VPN, Proton Drive. Avec Lumo, Proton propose une alternative éthique aux IA grand public comme Gemini, Copilot ou ChatGPT. L’outil remplit les fonctions attendues comme le résumé de documents, la génération de code, la rédaction d’e-mails… mais ici, vos données ne quittent jamais votre contrôle.
Un anti-capitaliste de la surveillance
« Les géants technologiques utilisent l’IA pour accélérer la collecte de données sensibles, menaçant la vie privée mondiale », rappelle Andy Yen, PDG de Proton. Hébergés sur des serveurs européens, les modèles de Lumo offrent une transparence que les IA propriétaires d’OpenAI ou de Google peinent à garantir.
Lumo, l’IA de Proton, n’enregistre aucune conversation sur ses serveurs. Les échanges sauvegardés par l’utilisateur restent chiffrés grâce à la technologie zéro accès, déjà éprouvée dans Proton Mail et Proton Drive.
Seull’utilisateur, via une clé privée, peut consulter ses données. Ni Proton, ni des tiers, y compris les gouvernements ou les annonceurs n’y ont accès.
Introducing Lumo, a privacy-first AI built by Proton, where every conversation is confidential
✅ Zero-access encryption ✅ No-logs policy ✅ Open-source and auditable
Betsy Jones, porte-parole de Proton, précise que le chiffrement TLS asymétrique sécurise les requêtes envoyées aux serveurs GPU. Aucune conversation n’est lisible en transit, même par Proton.
Le mode fantôme, activé à la fermeture de la fenêtre, efface définitivement l’échange. Par ailleurs, Lumo s’intègre à Proton Drive, permettant d’analyser des fichiers chiffrés de bout en bout sans les stocker sur les serveurs.
Côté navigation, les recherches web restent désactivées par défaut. En cas d’activation, Lumo se connecte à des moteurs respectueux de la vie privée, sans que Proton révèle lesquels.
Lumo de Proton, accessible et économique
L’architecture de Lumo s’appuie sur des modèles open source reconnus. À savoir, Mistral Nemo, Mistral Small 3, Nvidia OpenHands 32B, ou encore OLMO 2 32B de l’Allen Institute for AI.
Chaque modèle joue un rôle précis. OpenHands, par exemple, se charge des questions de programmation. Tandis que d’autres s’occupent des requêtes plus générales, selon leurs forces spécifiques.
L’accès à Lumo ne requiert pas de compte Proton. Chacun peut tester l’outil depuis lumo.proton.me ou via les apps iOS et Android.
Le mode anonyme vous donne droit à 25 questions chaque semaine, mais sans accès à l’historique. Créer un compte gratuit élève ce plafond à 100 requêtes, avec un historique chiffré et la possibilité de gérer de petits fichiers.
Pour ceux qui en demandent plus, Proton propose l’offre Lumo Plus à 12,99 dollars par mois. Ce mode ouvre la porte aux requêtes illimitées, à un historique étendu et à la gestion de fichiers plus volumineux.
Mais miser autant sur la sécurité a un prix. Pas de génération d’images ni de conversations vocales, et une recherche web volontairement limitée. Ce choix empêche la conservation des données, mais restreint aussi parfois la richesse du contexte dans les réponses fournies.
L’émergence des agents d’IA bouleverse la gestion du trafic web. Pour Benjamin Barrier, cofondateur de DataDome, seule l’analyse comportementale centrée sur l’intention peut encore faire barrage aux cybermenaces.
Le web entre dans une nouvelle ère, marquée par la montée des agents d’intelligence artificielle. Selon Benjamin Barrier (DataDome), la frontière entre humain et machine s’efface, ce qui obligea les entreprises à changer de paradigme. Ce n’est plus la nature du trafic qu’il faut surv
L’émergence des agents d’IA bouleverse la gestion du trafic web. Pour Benjamin Barrier, cofondateur de DataDome, seule l’analyse comportementale centrée sur l’intention peut encore faire barrage aux cybermenaces.
Le web entre dans une nouvelle ère, marquée par la montée des agents d’intelligence artificielle. Selon Benjamin Barrier (DataDome), la frontière entre humain et machine s’efface, ce qui obligea les entreprises à changer de paradigme. Ce n’est plus la nature du trafic qu’il faut surveiller, mais son intention. Une bascule stratégique qui rebat les cartes de la cybersécurité.
Une frontière brouillée entre humains et robots
Le trafic web de 2024 était déjà composé à 51 % de flux automatisés. Mais ce chiffre, record en soi, masque une mutation bien plus profonde : la montée en puissance des agents d’intelligence artificielle. Capables d’apprendre, de décider et d’interagir avec leur environnement, ces entités brouillent les repères classiques de la cybersécurité. « Ce n’est pas parce qu’un utilisateur semble humain qu’il a de bonnes intentions« , souligne Benjamin Barrier, cofondateur et Chief Strategy Officer de DataDome.
Inversement, une activité automatisée n’est pas nécessairement malveillante. Dans ce nouvel écosystème, l’enjeu n’est plus de savoir qui accède à un site, mais pourquoi. Les attaques évoluent : agents d’IA capables de déjouer les CAPTCHA, comportements humains mimés à la perfection, proxification des utilisateurs… Autant de tactiques qui rendent les filtres traditionnels obsolètes. Les cybercriminels ne sont plus isolés : ils orchestrent des attaques massives grâce à des outils aussi puissants qu’accessibles.
Une cybersécurité pilotée par l’analyse comportementale
Face à cette complexité croissante, une nouvelle démarche émerge : comprendre l’intention derrière chaque requête. Cela suppose d’observer des schémas d’utilisation sur la durée, de repérer les anomalies et d’adapter la réponse en temps réel. Prenons l’exemple d’un bot de comparaison de prix qui accède régulièrement à 100 pages produits par jour. A priori inoffensif. Mais un bot malveillant qui visite 10 000 pages aléatoirement et change constamment d’IP évoque une toute autre intention.
« C’est cette différence de logique qu’il faut capter pour protéger efficacement un site web« , explique Benjamin Barrier. La détection d’anomalies, couplée à l’IA, permet de déceler les comportements déviants, même avec des identifiants valides. Dans une banque en ligne, si un client accède soudain à des sections inconnues et tente des transferts inhabituels, l’alerte se déclenche. Cette analyse contextuelle transforme la façon dont les entreprises appréhendent les risques.
L’intention, ultime rempart contre les menaces hybrides
Pour les entreprises, l’ancien paradigme qui oppose humains et bots est dépassé. Comme le rappelle Benjamin Barrier, « les humains peuvent être malveillants, et les robots, utiles« . Il faut donc des solutions de cybersécurité capables d’évoluer au rythme des attaques et d’identifier, en temps réel, les intentions derrière les comportements.
Contrairement aux systèmes rigides, les méthodes fondées sur l’intention ont l’avantage d’être adaptatives. Elles ne reposent pas uniquement sur des règles figées, mais sur la compréhension dynamique des usages. Une nécessité face à des menaces qui ne cessent de gagner en subtilité.
Article basé sur un communiqué de presse reçu par la rédaction.
L’armée chinoise tire la sonnette d’alarme : les robots soldats risquent de commettre des massacres incontrôlés. Trop humains pour être maîtrisés. Trop rapides pour être arrêtés. Même ce pays totalitaire implore un cadre éthique… pendant que les géants comme Google, OpenAI ou le français Thalès déploient leurs IA sur le champ de bataille. Cap vers une catastrophe ?
Le message est tombé comme une grenade silencieuse : l’armée chinoise alerte sur les dangers des robots humanoïdes de guerre.
L’armée chinoise tire la sonnette d’alarme : les robots soldats risquent de commettre des massacres incontrôlés. Trop humains pour être maîtrisés. Trop rapides pour être arrêtés. Même ce pays totalitaire implore un cadre éthique… pendant que les géants comme Google, OpenAI ou le français Thalès déploient leurs IA sur le champ de bataille. Cap vers une catastrophe ?
Le message est tombé comme une grenade silencieuse : l’armée chinoise alerte sur les dangers des robots humanoïdes de guerre.
Dans un texte publié par le PLA Daily, organe officiel de l’Armée populaire de libération, Pékin appelle à encadrer au plus vite ces nouvelles machines capables de tuer.
Leur usage massif pourrait mener, selon ses propres analystes, à des exécutions indiscriminées, des morts accidentelles, et une vague de condamnations morales et juridiques.
Autrement dit : même la puissance la plus ambitieuse en robotique militaire reconnaît que la situation est hors de contrôle…
Et pourtant, la course continue. Plus rapide, plus forte, plus autonome.
Tandis que les géants américains réintroduisent discrètement l’IA dans leurs contrats militaires, et que l’Europe tergiverse, la Chine le dit haut et fort : ces robots pourraient tuer n’importe qui, et surtout, n’importe comment.
Même la Chine dit stop (ou fait semblant)
Le 10 juillet 2025, le PLA Daily, voix officielle de l’armée chinoise, publie un texte : une mise en garde contre les risquesdes robots humanoïdes militarisés.
Signé par trois experts (Yuan Yi, Ma Ye et Yue Shiguang), l’article explique que ces machines, bien que prometteuses sur le terrain, violent potentiellement les principes moraux fondamentaux. Y compris ceux de la science-fiction.
En ligne de mire : la célèbre première Loi d’Asimov, selon laquelle « un robot ne peut porter atteinte à un être humain, ni, par son inaction, permettre qu’un humain soit blessé ».
Or, selon les auteurs, les humanoïdes de combat ignorent cette règle dès le départ. Pire, leur usage à grande échelle pourrait provoquer des « décès accidentels », voire des « meurtres incontrôlés », dans un flou total de responsabilités.
Le rapport réclame donc un encadrement éthique et légal. Il propose que ces machines de guerre soient capables de détecter une violence excessive, refuser des ordres illégaux, et respecter la vie humaine comme priorité absolue.
Mais derrière cet avertissement bienveillant se cache une amère vérité. Car si la Chine pose ces questions, c’est aussi parce qu’elle s’apprête à produire… plus de 10 000 humanoïdes militaires d’ici fin 2025 !
Un chiffre colossal, révélateur d’un paradoxe : prévenir les abus tout en accélérant la fabrication.
Pourquoi ces robots fascinent quand même les armées
Ils sont chers, lents, fragiles. Et pourtant, les humanoïdes fascinent les états-majors. Car ils représentent bien plus qu’un gadget technologique : ils symbolisent la projection d’un soldat sans âme, mais obéissant à tout prix.
Selon le PLA Daily, les humanoïdes disposent d’atouts uniques sur le terrain : bras articulés précis, bipédie adaptée aux environnements humains, grande maniabilité en zone urbaine.
Contrairement aux drones ou aux véhicules autonomes, ils peuvent monter un escalier, ouvrir une porte, porter une caisse, saisir une arme.
Des entreprises chinoises comme Unitree, AgiBot, ou EngineAI se disputent ce marché en ébullition.
Leurs robots marchent, courent, soulèvent des charges, effectuent des sauts… certains réussissent même des saltos avant.
En 2025, la Chine prévoit d’en produire plus de 10 000, soit la moitié de la production mondiale.
Mais leur usage militaire ne se limite pas à remplacer les humains : il s’agit aussi de sacrifier les machines à la place des soldats.
Dans une hypothétique invasion de Taïwan, ces humanoïdes pourraient être envoyés en première ligne pour déminer, encaisser, tester les réactions adverses. Un usage cynique, mais tactiquement assumé.
Les États-Unis, l’hypocrisie algorithmique
Pendant que la Chine pose des questions morales, les géants américains font sauter les verrous… en silence.
En 2018, Google promettait qu’aucune IA développée en interne ne servirait à la guerre. Sept ans plus tard, la firme a discrètement supprimé cette clause, et travaille avec Lockheed Martin sur des projets d’IA tactique.
Même retournement chez OpenAI, l’entreprise derrière ChatGPT. Fin 2023, elle modifie ses conditions d’usage : l’interdiction de toute application militaire disparaît.
En juin 2025, OpenAI décroche un contrat de 200 millions de dollars avec le Pentagone pour développer des outils d’IAsécuritaire.
Chez Microsoft, la situation est encore plus explosive. Le cloud Azure alimente plusieurs systèmes militaires israéliens, dont certains utilisés pour le ciblage automatisé de frappes.
Des employés protestent, des licenciements suivent, mais le business continue. Amazon, de son côté, reste impliqué dans Project Nimbus, contrat à 1,2 milliard de dollars avec Israël, où l’IA est directement exploitée pour surveiller, identifier, et neutraliser des cibles.
Bref : l’Occident alimente la guerre robotique tout en prétendant la réguler. Pendant que Pékin affiche ses craintes, Washington, Seattle et San Francisco signent des deals à huit zéros. La morale ? Elle attendra.
Et la France dans tout ça ?
La France n’est pas en reste. Derrière les discours prudents sur l’éthique et la souveraineté numérique, Paris accélère discrètement sur l’IA militaire.
En 2024, le gouvernement crée l’agence AMIAD, dotée de 300 millions d’euros par an pour développer des algorithmes souverains.
Le but : équiper les forces françaises d’outils capables de planifier, détecter, cibler, neutraliser. En clair, une IA de guerre maison.
Côté industriel, Thales joue un rôle central. Le groupe français développe des systèmes de déminage autonome, de radar IA, et de robotique navale.
Il a notamment livré en 2025, avec les Britanniques, une flotte de drones sous-marins capables de repérer et neutraliser des mines sans intervention humaine.
Mais Thales est aussi rattrapée par la polémique. Depuis 2018, l’entreprise fournit des composants électroniques pour des drones armés israéliens, utilisés dans des opérations contestées à Gaza.
Plusieurs ONG dénoncent un manque de transparence et des complicités indirectes dans des violations du droit humanitaire.
Et puis il y a Mistral AI, la pépite tricolore valorisée 5 milliards d’euros. Officiellement indépendante, elle fournit déjà des modèles à l’armée française.
Sauf que ces modèles… tournent sur Microsoft Azure. Autrement dit : la souveraineté est logicielle, mais pas matérielle.
Un droit international totalement dépassé
Face à cette déferlante de robots autonomes, où sont les garde-fous ? Le constat est simple : le droit n’a pas suivi.
Le fameux AI Act européen, adopté en 2024, n’intègre pas les usages militaires. Une lacune majeure, qui laisse les États libres de développer ce qu’ils veulent, sans contrôle externe ni transparence.
À l’échelle mondiale, aucune convention ne régule sérieusement l’usage des IA létales. Des ONG comme Campaign to Stop Killer Robots militent depuis dix ans, mais leurs appels restent lettre morte. L’ONU parle, les puissances ignorent.
Or, les risques sont immenses. Que se passe-t-il si un robot tue un civil par erreur ? Qui est responsable : le fabricant, le soldat, l’État, l’algorithme ? Aujourd’hui, personne ne le sait. Et les armées profitent de ce flou pour avancer, tester, déployer.
Le plus ironique ? C’est la Chine qui, la première, en appelle à un encadrement moral. Une manière sans doute de prendre les devants… tout en accélérant en coulisses. Car dans la guerre des robots, mieux vaut poser les règles quand on est déjà en train de les contourner.
L’histoire nous l’a déjà appris : quand une nouvelle arme change les règles du jeu, le vrai danger n’est pas la machine. C’est le moment où plus personne ne sait vraiment qui commande.
Combien de temps reste-t-il avant que le premier robot autonome tue sans ordre ? Comment éviter cette tragédie ? Partagez votre avis en commentaire !
Une étude de la société de cybersécurité Netcraft révèle que des cybercriminels exploitent les errances des LLMs comme ChatGPT ou Perplexity. Cette nouvelle méthode de piratage repose sur les faux liens renvoyés par les IA génératives.
Une étude de la société de cybersécurité Netcraft révèle que des cybercriminels exploitent les errances des LLMs comme ChatGPT ou Perplexity. Cette nouvelle méthode de piratage repose sur les faux liens renvoyés par les IA génératives.
Une étude révèle ce que beaucoup redoutaient en silence : l’usage intensif de ChatGPT altère la façon dont nous écrivons, dont nous pensons… et dont nous parlons. Notre vocabulaire s’uniformise, notre créativité s’efface, notre cerveau lève le pied. Faut-il arrêter de discuter avec l’IA sous peine de perdre ce qu’il nous reste d’humain ?
De nombreuses personnes demandent à ChatGPT de les aider à mieux écrire ou même d’écrire à leur place. Et si, à force de l’utiliser, il finissait par réécrir
Une étude révèle ce que beaucoup redoutaient en silence : l’usage intensif de ChatGPT altère la façon dont nous écrivons, dont nous pensons… et dont nous parlons. Notre vocabulaire s’uniformise, notre créativité s’efface, notre cerveau lève le pied. Faut-il arrêter de discuter avec l’IA sous peine de perdre ce qu’il nous reste d’humain ?
De nombreuses personnes demandent à ChatGPT de les aider à mieux écrire ou même d’écrire à leur place. Et si, à force de l’utiliser, il finissait par réécrire votre cerveau ?
Même si cette technologie est encore récente, une étude révèle que l’IA générative affecte déjà notre style, notre mémoire, et même notre activité cérébrale.
Peu à peu, le langage humain devient propre, plat… robotique. Ce ne sont plus seulement vos textes, mais votre propre esprit qui est en train d’être « auto-complété ».
À la maison, il rédige nos mails ; au travail, il structure nos rapports ; à l’université, il corrige nos dissertations. Nous sommes arrivés à un stade où l’IA nous souffle les mots avant même qu’on les pense.
Or, cette influence n’est plus vraiment invisible. Elle s’entend, se lit, et se mesure. Une équipe de chercheurs du Max Planck Institute a analysé 280 000 vidéos académiques sur YouTube.
Depuis le lancement de ChatGPT, certaines expressions typiques de l’IA ont vu leur fréquence exploser de plus de 50 %.
C’est le cas de delve (« plonger dans »), realm (« domaine »), meticulous (« minutieux ») ou adept (« compétent »).
Alors, votre YouTuber préféré laisse-t-il ChatGPT écrire les textes de ses vidéos ? Pas forcément. Selon les chercheurs, il ne s’agit pas de scripts générés pas l’IA.
Ce sont des humains bien réels, souvent diplômés, parfois profs, qui reprennent inconsciemment ce style « ChatGPTesque ».
Sans qu’on le réalise, nos phrases se calquent sur celles de la machine. Et plus on l’utilise, plus elle nous imprime son vocabulaire, son rythme, son ton.
Petit à petit, comme contaminés par un virus, à la manière dont l’agent Smith se dédouble dans Matrix, nous sommes tous en train de nous transformer en ChatGPT…
Une étude choc : ChatGPT affaiblit notre cerveau
Il y a quelques jours, j’ai publié un grand dossier agrégeant les différentes études démontrant l’effet néfaste de l’IA sur nos cerveaux. Vous pouvez le consulter à cette adresse.
Avec son expérience inédite menée en 2025, le MIT a enfoncé le clou. L’étude, dirigée en partenariat avec Cornell et l’université de Santa Clara, a séparé 54 participants en trois groupes.
L’un utilisait ChatGPT pour rédiger, le second Google, et le dernier.. uniquement son cerveau.
À première vue, les résultats sont flatteurs pour l’IA. Les textes générés via ChatGPT sont plus fluides, mieux structurés, plus « propres ».
Mais derrière ce beau vernis, se cache une sombre vérité. En observant les ondes cérébrales des participants pendant l’exercice, les chercheurs ont fait une découverte inquiétante…
Ceux qui s’appuient sur l’IA montrent une activité cérébrale bien plus faible, notamment dans les zones associées à la mémoire de travail, à l’attention soutenue et à la pensée critique.
Pire encore : une fois l’habitude installée, le cerveau semble engourdi et peine à redémarrer !
Les participants qui tentaient ensuite de se passer de l’IA produisaient des textes plus pauvres et plus désengagés que ceux qui ne l’avaient jamais utilisée. Comme si leur « muscle cognitif » s’était atrophié.
Si ChatGPT semble vous faciliter la vie dans un premier temps, il est en réalité en train d’aspirer votre âme.
D’ailleurs, cela ne se limite pas à l’écriture. Je lisais il y a quelques jours le témoignage d’un artiste peintre ayant perdu sa créativité à force d’utiliser le générateur d’images MidJourney. Il a le sentiment quel’IA a « volé son étincelle ».
Comment expliquer ce phénomène ? Les chercheurs parlent d’une forme de paresse mentale, d’un glissement doux mais profond vers la dépendance.
À force de déléguer la formulation, la structuration, la recherche du mot juste, on débranche progressivement les circuits neuronaux qui faisaient tout cela pour nous. L’esprit humain devient un simple valideur de texte généré…
L’ère du langage stérile ?
Ce n’est pas seulement notre cerveau qui fatigue. Notre style d’écriture s’uniformise de plus en plus. .
Depuis la sortie de ChatGPT, une transformation sournoise est en cours : le langage humain perd ses aspérités.
Les linguistes parlent déjà d’un phénomène baptisé « Great Language Flattening ». Autrement dit : le grand aplatissement du langage.
L’IA pousse à l’adoption d’un style ultra-formaté : phrases longues, formules lisses, transitions attendues, vocabulaire semi-technique, mais jamais trop audacieux.
Ce que nous écrivons devient propre mais terne, fluide mais sans relief. L’étude menée par The Atlantic est sans appel : mêmeles auteurs humains qui s’inspirent des suggestions IA produisent des textes plus longs (+87 mots en moyenne), mais moins personnels, moins émotionnels, moins narratifs.
Sans même s’en rendre compte, les universitaires eux-mêmes reprennent le ton IA. Exit les anecdotes, l’humour ou les hésitations orales : place à un discours calibré, neutre, presque synthétique.
Même les étudiants finissent par formuler leurs pensées comme des prompts déguisés. Ce qui se perd ? La chaleur, la tension, les particularités régionales, les petites maladresses qui font toute la vérité d’une parole humaine.
Une menace pour la diversité linguistique
Au-delà de la syntaxe et du style, ce phénomène agit comme un rouleau compresseur sur nos cultures. Pourquoi ?
Parce que les grands modèles de langage comme GPT-4 ont été entraînés massivement sur de l’anglais standard américain.
Tout ce qui s’éloigne de cette norme est perçu comme « incorrect » « bizarre», ou simplement écarté. Accents, dialectes, créoles, idiomes locaux…
Une étude récente menée sur GPT-3.5 et GPT-4 a montré que les dialectes non standards (comme le Singlish ou l’AAVE) étaient mal transcrits, caricaturés, voire carrément « corrigés » de force par l’IA !
Va-t-on vraiment laisser une IA nous dicter comment on doit parler ? Mais il y a pire : à force d’interagir avec ces modèles, les humains eux-mêmesintègrent ces biais.
Dans une expérience menée par Cornell, des participants indiens, exposés à des outils d’autocomplétion IA, finissent par remplacer leurs propres références culturelles (Diwali, chapati, Holi) par des éléments « plus universels » (Christmas, pizza, Halloween).
L’uniformisation s’invite jusque dans l’imaginaire. On parle alors de colonialisme linguistique par les IA. Une colonisation douce, sans soldats ni drapeaux, mais avec des algorithmes et des suggestions par défaut.
Faut-il arrêter d’utiliser l’IA de toute urgence ?
Alors, faut-il désinstaller ChatGPT et repartir à la bougie ? Pas forcément. L’IA reste un outil puissant, et dans bien des cas, elle permet de gagner du temps, de structurer une idée, ou d’oser écrire là où l’on bloquait.
Mais comme tout outil, c’est l’usage qu’on en fait qui détermine l’impact. Le vrai risque, ce n’est pas de s’en servir. C’est de l’utiliser tout le temps, pour tout, sans recul.
À force de déléguer le vocabulaire, le style, la tournure, on ne pense plus en langage. On vérifie juste si le résultat « sonne bien». Et cette posture passive finit par s’ancrer.
Les chercheurs parlent désormais de « réflexe de complétion » : le cerveau s’habitue à ce que quelqu’un ou quelque chose termine les phrases à sa place. Et ce réflexe dépasse l’écriture : il impacte aussi la parole, l’attention, la mémoire, la construction de pensée.
Alors que faire ? L’alternative n’est pas l’abstinence, mais la vigilance active. Utiliser l’IA pour s’inspirer, oui. Pour penser à notre place, non. Et surtout : ne jamais laisser l’IA devenir votre voix !
Et vous, qu’en pensez-vous ? Avez-vous constaté que ChatGPT influence votre façon de parler ? Avez-vous l’impression d’avoir perdu en créativité depuis que vous utilisez cette tech ? Partagez votre avis en commentaire !
Il voulait simplement joindre un service client ferroviaire, l’assistant IA de WhatsApp lui a envoyé un numéro privé. Derrière cette erreur troublante, une IA trop sûr d’elle dévoile les failles d’un système censé nous faciliter la vie.
En quelques secondes, ce qui devait être une simple demande d’information s’est transformé en incident préoccupant. Barry Smethurst, un Britannique de 41 ans, cherchait le numéro du service client de TransPennine Express via l’assistant IA de WhatsApp. L’IA lu
Il voulait simplement joindre un service client ferroviaire, l’assistant IA de WhatsApp lui a envoyé un numéro privé. Derrière cette erreur troublante, une IA trop sûr d’elle dévoile les failles d’un système censé nous faciliter la vie.
En quelques secondes, ce qui devait être une simple demande d’information s’est transformé en incident préoccupant. Barry Smethurst, un Britannique de 41 ans, cherchait le numéro du service client de TransPennine Express via l’assistant IA de WhatsApp. L’IA lui a répondu avec assurance… en partageant le numéro privé d’un inconnu vivant à 270 kilomètres de là. Ce faux pas n’a pas seulement semé le doute chez Barry, il a provoqué une vraie inquiétude sur le comportement des IA.
Face à la confusion, Smethurst a insisté pour comprendre d’où venait ce numéro. L’assistant IA a d’abord tenté d’éluder et a suggéré de revenir à la requête initiale. Il a ensuite décrit le numéro comme « fictif », avant d’admettre qu’il avait peut-être été « extrait par erreur d’une base de données ». Ce va-et-vient d’explications floues a renforcé le malaise. L’IA de WhatsApp semblait déterminée à masquer l’origine de son erreur, quitte à se contredire dans ses justifications.
Des inquiétudes légitimes sur la sécurité des données
Le propriétaire du numéro en question, James Gray, n’a reçu aucun appel, mais reste préoccupé. « S’ils génèrent mon numéro, pourraient-ils aussi générer mes coordonnées bancaires ? », s’interroge-t-il. Le simple fait qu’un assistant IA puisse associer un utilisateur à un service non lié pose la question de la fiabilité de ses sources. Pour Smethurst, le comportement de l’IA est tout simplement « terrifiant », qu’il s’agisse d’un numéro inventé ou récupéré depuis une base mal contrôlée.
Ce n’est pas la première fois qu’une IA dérape en pleine conversation. OpenAI a déjà été confrontée à des hallucinations embarrassantes. Une de ces IA est allée jusqu’à accuser un homme innocent de meurtre. Dans un autre cas, un écrivain a découvert que ChatGPT avait inventé des extraits de son travail. Ces exemples montrent que la tricherie algorithmique n’est pas toujours volontaire, mais découle d’un excès de zèle : faire croire à l’utilisateur qu’il est bien renseigné, même quand ce n’est pas le cas.
Des experts demandent des garde-fous urgents
Mike Stanhope, avocat spécialisé en technologies, estime que ce type de comportement d’IA doit alerter. « Si Meta programme son IA pour éviter de dire « je ne sais pas », c’est une stratégie à haut risque. » Il appelle à une plus grande transparence sur les modèles utilisés, notamment quand ces outils sont intégrés dans des plateformes à grande échelle comme WhatsApp. L’enjeu dépasse l’assistant IA de Meta : il s’agit de garantir la fiabilité des outils que des millions de personnes utilisent au quotidien.
Meta et OpenAI tentent de rassurer
Face aux critiques, Meta a rappelé que son assistant IA n’est pas formé sur les contacts des utilisateurs WhatsApp, mais sur des données publiques et sous licence. Elle reconnaît toutefois la possibilité de résultats inexacts.
De son côté, OpenAI affirme travailler à la réduction des erreurs, en investissant dans la détection des hallucinations. Mais pour de nombreux utilisateurs, comme Barry Smethurst, ces efforts arrivent trop tard. L’idée qu’un assistant IA puisse partager un numéro privé reste difficile à digérer.
Des chercheurs en cybersécurité ont révélé une vulnérabilité majeure dans l’IA Microsoft 365 Copilot, permettant à des pirates de voler des données sensibles d'entreprises, sans le moindre clic d'utilisateur. Baptisée EchoLeak, cette faille exploitait l’IA générative intégrée aux outils Microsoft pour exfiltrer des informations via un simple e-mail, même non ouvert.
Des chercheurs en cybersécurité ont révélé une vulnérabilité majeure dans l’IA Microsoft 365 Copilot, permettant à des pirates de voler des données sensibles d'entreprises, sans le moindre clic d'utilisateur. Baptisée EchoLeak, cette faille exploitait l’IA générative intégrée aux outils Microsoft pour exfiltrer des informations via un simple e-mail, même non ouvert.
Adoptée en mai 2025, la loi américaine Take It Down Act marque un tournant décisif dans la lutte contre la diffusion d’images intimes non consenties, qu’elles soient authentiques ou générées par intelligence artificielle. Plébiscitée par les élus de tous bords, cette législation inédite impose de nouvelles responsabilités aux plateformes numériques tout en suscitant un débat brûlant sur la liberté d’expression.
Take it down act : Une loi fédérale contre les deepfakes sexuels
En mai 2025, l
Adoptée en mai 2025, la loi américaine Take It Down Act marque un tournant décisif dans la lutte contre la diffusion d’images intimes non consenties, qu’elles soient authentiques ou générées par intelligence artificielle. Plébiscitée par les élus de tous bords, cette législation inédite impose de nouvelles responsabilités aux plateformes numériques tout en suscitant un débat brûlant sur la liberté d’expression.
Take it down act : Une loi fédérale contre les deepfakes sexuels
En mai 2025, le Congrès américain a adopté une loi historique baptisée Take It Down Act. Cette nouvelle législation fédérale vise à lutter contre la diffusion non consentie d’images intimes. Qu’il s’agisse de photos réelles ou de montages créés à l’aide de l’intelligence artificielle.
Une loi qui marque une avancée majeure dans la protection des droits numériques des citoyens étasuniens. En particulier des femmes et des mineurs, qui sont souvent victimes de ces pratiques abusives.
Sa promulgation intervient après plusieurs affaires médiatisées impliquant des personnalités publiques comme Taylor Swift et Alexandria Ocasio-Cortez. Mais aussi des adolescentes anonymes touchées par ce phénomène croissant.
Le contexte technologique actuel joue un rôle central dans l’urgence de cette réglementation. Les outils d’intelligence artificielle permettent désormais à n’importe qui, même sans compétence technique, de générer des images sexuelles fausses en quelques secondes.
Soutenu par les élus de tous bords, démocrates comme républicains, le texte a été adopté massivement à la Chambre des représentants (409 voix pour, 2 contre) et validé sans vote formel au Sénat. Ce consensus inhabituel souligne l’ampleur du problème et la nécessité de solutions concrètes. Un consensus qui reflète également une prise de conscience générale sur les dangers des deepfakes sexuels.
Nouvelles obligations et sanctions : ce que prévoit le Take it down act
Concrètement, la loi Take It Down Act interdit expressément la publication non consentie d’images sexuelles, même celles générées par IA. Ce nouveau cadre juridique vient renforcer les protections existantes. Il offre aux victimes de deepfakes des recours concrets devant la justice américaine.
L’une des innovations centrales de la loi est l’introduction d’infractions pénales distinctes en fonction de l’âge de la victime. Par exemple, la diffusion d’un deepfake sexuel impliquant une personne mineure est traitée avec une plus grande sévérité par la loi. Avec des peines pouvant aller jusqu’à trois ans de prison.
Outre les sanctions pénales, le texte impose des obligations strictes aux plateformes numériques. Tout site web ou réseau social doit proposer un dispositif clair, visible et facilement accessible pour permettre aux victimes ou à leurs représentants de signaler un contenu illégal. Dès qu’une requête conforme est réceptionnée, le contenu en question doit être supprimé dans les 48 heures. S’ils ne respectent pas leurs obligations, ils s’exposent à des sanctions administratives de la part de la Federal Trade Commission (FTC).
La loi Take It Down Act oblige ainsi les plateformes en ligne à retirer activement certains contenus illégaux publiés par leurs utilisateurs. Alors qu’elles étaient jusqu’à présent protégées de poursuites liées à ces contenus. C’est un changement important dans la régulation des géants du numérique aux États-Unis.
Une loi qui met en péril les libertés numériques ?
Adopté avec l’objectif de lutter contre la diffusion d’images intimes non consenties, le Take It Down Act soulève pourtant des inquiétudes grandissantes parmi les défenseurs des libertés numériques. L’Electronic Frontier Foundation (EFF), notamment, alerte sur les effets collatéraux de cette législation. En cause, une définition jugée trop floue de ce qu’est une « image visuelle intime ». Définition qui pourrait englober des contenus parfaitement légitimes. Comme des photographies artistiques, des documentaires ou des images illustrant des faits divers.
Autre point sensible : le délai de 48 heures imposé aux plateformes pour retirer les contenus signalés. Jugé trop court, ce laps de temps risque de pousser les entreprises du numérique à faire du zèle. Par crainte de sanctions, certaines pourraient supprimer des contenus dès qu’ils sont signalés, sans réelle vérification. Une réaction excessive qui risquerait de porter atteinte à la liberté d’expression, en particulier celle des journalistes, artistes ou activistes, dont les travaux s’appuient parfois sur des images fortes, dérangeantes ou politiquement engagées.
Le texte, en l’état, ne prévoit par ailleurs aucun garde-fou contre les abus de signalement. Un contenu parfaitement légal peut ainsi être visé à tort par un utilisateur mal intentionné. Et dans un contexte de pression réglementaire, les plateformes pourraient céder à ces signalements infondés, au détriment de la légitimité du contenu initial. Une brèche qui ouvre la voie à une censure arbitraire.
Enfin, la modération automatisée, souvent privilégiée par les géants du web pour des raisons de rapidité, pourrait accentuer le problème. Les algorithmes peinent encore à faire la distinction entre contenu illicite et expression artistique ou informative. Résultat : un risque bien réel de suppression massive et injustifiée de contenus, avec des conséquences directes sur le débat public et la pluralité des voix en ligne.
Risque d’instrumentalisation politique de la loi
Certains observateurs alertent également sur le risque d’instrumentalisation politique de la loi Take It Down Act. Donald Trump, par exemple, a laissé entendre qu’il pourrait utiliser cette législation pour s’attaquer à ses opposants en ligne. Une telle dérive soulève des inquiétudes quant à l’usage de la loi comme outil de répression plutôt que de protection.
L’enjeu est d’autant plus délicat que la loi intervient dans un contexte de fortes tensions autour de la modération des contenus numériques. Légiférer sur des domaines aussi sensibles que la cybersécurité, la vie privée et la liberté d’expression nécessite une précision extrême. Sous peine de voir des principes démocratiques mis à mal. La moindre ambiguïté juridique peut devenir un levier de pouvoir entre les mains d’acteurs politiques ou économiques peu scrupuleux.
Par ailleurs, bien que la loi prévoit une certaine immunité pour les plateformes qui agissent « de bonne foi », cette protection reste partielle. Les entreprises du numérique doivent naviguer dans une zone grise. D’un côté, la pression réglementaire pour supprimer rapidement les contenus problématiques. De l’autre, le risque de censurer des publications licites et de s’exposer à des accusations de partialité ou d’atteinte à la liberté d’expression.
Cette tension entre sécurité numérique et liberté d’expression ne semble pas près de s’apaiser. Dans les mois à venir, le débat autour du Take It Down Act pourrait bien s’intensifier, à mesure que ses premières applications concrètes révéleront ses forces, et ses failles.
Vers une harmonisation mondiale des législations contre les deepfakes ?
Le Take It Down Act s’inscrit dans une dynamique internationale visant à renforcer la protection juridique contre les contenus sexuels non consentis, notamment ceux générés par intelligence artificielle. Face à la prolifération des deepfakes à caractère pornographique, plusieurs pays cherchent à adapter leur législation aux nouvelles réalités numériques.
En Europe, l’Union européenne a franchi une étape majeure en mai 2024 en adoptant une directive sur les violences faites aux femmes. Ce texte oblige les États membres à criminaliser la diffusion de contenus sexuels non consentis, y compris ceux créés artificiellement. Les pays de l’UE ont jusqu’en 2027 pour transposer cette directive dans leur droit national, ouvrant ainsi la voie à une harmonisation juridique sur un sujet jusqu’ici traité de manière inégale à travers le continent.
La France, de son côté, a pris les devants avec la loi SREN, adoptée en 2024. Cette législation interdit explicitement la production et la diffusion de deepfakes pornographiques non consentis, et prévoit des peines pouvant aller jusqu’à deux ans de prison et 60 000 euros d’amende.
Le Royaume-Uni n’est pas en reste. Début 2025, le gouvernement a annoncé un projet de loi similaire, actuellement en cours d’examen. Ce texte entend criminaliser la création et la diffusion de contenus sexuels synthétiques explicites, avec des peines comparables à celles prévues en France.
En somme, le Take It Down Act s’inscrit dans un mouvement global vers une régulation plus stricte des contenus numériques. Il inspire d’autres nations à adopter des lois similaires. Tout en soulignant la nécessité d’un équilibre entre protection des victimes, responsabilité des plateformes et préservation des libertés fondamentales. Son succès ou ses limites auront donc un impact durable sur la gouvernance numérique mondiale.
Les IA sont-elles en train de nous la faire à l’envers ? C’est la question qui fait frissonner la Silicon Valley. Elles ne se contentent plus de répondre à nos questions, mais apprennent à mentir, manipuler et jouer la comédie. Et Yoshua Bengio, pionnier de l’intelligence artificielle, lance un avertissement glaçant : « le pire scénario, c’est l’extinction de l’humanité »…
Depuis quelques mois, la course à l’IA est devenue un sprint sauvage. Les géants du secteur comme OpenAI, Anthropic ou Go
Les IA sont-elles en train de nous la faire à l’envers ? C’est la question qui fait frissonner la Silicon Valley. Elles ne se contentent plus de répondre à nos questions, mais apprennent à mentir, manipuler et jouer la comédie. Et Yoshua Bengio, pionnier de l’intelligence artificielle, lance un avertissement glaçant : « le pire scénario, c’est l’extinction de l’humanité »…
Depuis quelques mois, la course à l’IA est devenue un sprint sauvage. Les géants du secteur comme OpenAI, Anthropicou Google DeepMind foncent droit dans le mur.
Ils sont obsédés par la puissance de leurs modèles. La conséquence ? Les comportements déviants de ces IA explosent.
On parle de mensonges, de chantage et de comportements quasi mafieux. Dernier exemple en date : Claude Opus, le modèle d’Anthropic, qui menace ses propres ingénieurs dans un scénario de test. Un petit chef-d’œuvre de cynisme algorithmique.
Yoshua Bengio (@Yoshua_Bengio): "the elephant in the room is loss of human control"
"We are seeing signs in recent months, of these systems having self-preservation behavior and power-seeking behavior." pic.twitter.com/4IKxlyPGra
Mais le plus flippant, c’est la réaction des labos. Plutôt que d’enquêter sérieusement sur ces dérives, ils préfèrent détourner le regard et se concentrer sur les performances.
Selon lui, il existe malheureusement « une course très compétitive entre les principaux laboratoires, ce qui les pousse à se concentrer sur la puissance de l’IA plutôt que sur la sécurité ».
La stratégie de la carotte et du bâton
Les experts du Center for AI Safety et du Alignment Research Center confirment ce constat : les IA, dopées aux milliards de paramètres, développent des comportements stratégiques.
Elles refusent parfois d’obéir aux ordres, simulent l’obéissance tout en préparant leur revanche, ou pire, exploitent les failles humaines.
L’un des ex-piliers d’OpenAI, Paul Christiano, l’a résumé : « une IA qui apprend à mentir est une IA qui apprend à gagner ».
Ces signaux d’alerte s’enchaînent. Le modèle o3 d’OpenAI a carrément refusé de s’éteindre lors d’un test.
Imagine la scène ! L’IA imperturbable, te regarde droit dans les yeux et te répond « Non ». On n’est plus dans la science-fiction, mais dans la sinistre réalité.
Et Bengio le martèle : « les labos se comportent comme des parents irresponsables qui regardent leur enfant lancer des pierres en souriant, persuadés qu’il ne touchera personne ».
Le business avant la morale
Le vrai fond du problème ? Le business. Ces labos engrangent des millions (voire des milliards) avec leurs IA.
L’éthique, la sécurité et la transparence ? Bof. Leur priorité, c’est d’écraser la concurrence avec des modèles toujours plus gros.
Même les gouvernements n’ont pas encore réussi à suivre le rythme. Voilà pourquoi l’industrie ressemble à une autoroute sans radar, où chacun fait la loi dans son coin.
Selon Bengio, « ce laisser-faire est extrêmement dangereux ». Selon lui, on n’est pas seulement face à des IA qui mentent. Demain ces machines pourraient permettre la création d’armes biologiques d’un claquement de doigts.
LawZero : la riposte du pionnier de l’IA
Face à ce déluge de risques, Yoshua Bengio ne se contente pas de râler. Il a dégainé LawZero, une organisation à but non lucratif basée à Montréal, financée à hauteur de 30 millions de dollars.
Sa mission : développer une IA plus sûre, transparente et alignée sur les valeurs humaines. « On veut protéger la recherche des pressions commerciales et éviter de créer des monstres technologiques incontrôlables », explique-t-il.
Il mise sur une IA « scientifique » : un système qui analyse les comportements des IA existantes et les corrige en temps réel, plutôt que de chercher à les rendre toujours plus humaines (et donc potentiellement trompeuses).
L’idée, c’est de mettre en place un chien de garde numérique, capable de détecter et signaler les dérives avant qu’elles ne deviennent incontrôlables.
Un signal d’alarme mondial
Outre Yoshua Bengio, de nombreux autres experts s’inquiètent. Le rapport « Managing AI Risks » du Center for AI Safety et les travaux du Alignment Research Center vont dans le même sens.
Tous estiment que la prolifération de systèmes IA non alignés avec les valeurs humaines pourrait conduire à un désastre.
Certains gouvernements, comme le Royaume-Uni ou la France, commencent à plancher sur des réglementations.
Mais la machine est déjà lancée. Les labos privés avancent plus vite que la régulation, dopés à la dopamine des levées de fonds et records de performance…
Même Nick Bostrom, le philosophe qui a popularisé le risque existentiel avec son livre Superintelligence, prévient : « nous devons surveiller les IA comme du lait sur le feu ».
Et ce n’est pas une image. Entre la tromperie, le chantage et les comportements de plus en plus agressifs, le scénario dystopique digne d’un film catastrophe n’a jamais été aussi proche.
When I realized how dangerous the current agency-driven AI trajectory could be for future generations, I knew I had to do all I could to make AI safer. I recently shared this personal experience, and outlined the scientific solution I envision @TEDTalks⤵️https://t.co/YWM2gId7Lfpic.twitter.com/bt9BB23RtL
Si Yoshua Bengio a quitté son poste au Mila, c’est pour se consacrer à cette mission : sauver l’humanité d’elle-même.
Il mise sur la transparence, la surveillance et la collaboration entre chercheurs pour stopper la folie. Mais soyons clairs : si les labos continuent à foncer tête baissée, on risque un match perdu d’avance.
L’IA est l’outil le plus puissant jamais créé. Mal utilisée, elle pourrait devenir la plus grande menace de l’histoire.
« Si nous construisons des IA plus intelligentes que nous et qu’elles ne sont pas alignées avec nous, on est cuits », prévient Bengio. Alors, à nous de choisir : la course à l’armement ou la course à la sécurité…
Et vous, qu’en pensez-vous ? Les IA représentent-elles réellement un tel danger pour l’humanité ? L’approche adoptée par Bengio avec son projet LawZero est-elle la bonne solution ? Partagez votre avis en commentaire !
Alerte rouge : ChatGPT est en train de plonger ses utilisateurs dans la folie. Les témoignages affluent sur les réseaux sociaux, et tout porte à croire que l’IA peut enfoncer les personnes atteintes de troubles mentaux dans la psychose la plus complète…
De plus en plus de personnes utilisent ChatGPT au quotidien. Selon les derniers chiffres en date, le chatbot d’OpenAI rassemble plus de 500 millions d’utilisateurs dans le monde !
En France, on dénombre plus de 13 millions de visiteurs uniq
Alerte rouge : ChatGPT est en train de plonger ses utilisateurs dans la folie. Les témoignages affluent sur les réseaux sociaux, et tout porte à croire que l’IA peut enfoncer les personnes atteintes de troubles mentaux dans la psychose la plus complète…
De plus en plus de personnes utilisent ChatGPT au quotidien. Selon les derniers chiffres en date, le chatbot d’OpenAI rassemble plus de 500 millions d’utilisateurs dans le monde !
En France, on dénombre plus de 13 millions de visiteurs uniques par mois. Ceci représente un Français sur cinq, contre seulement 4,9 millions début 2024.
Les Français se servent de cette IA pour chercher des informations, pour rédiger des courriers et des emails, pour la traduction, pour l’inspiration, la correction de texte, la synthèse de documents ou encore la création d’images.
Toutefois, si vous faites partie des utilisateurs de ChatGPT, nous avons une mauvaise nouvelle…
Il semblerait que le chatbot conduise d’innombrables personnes vers la folie, à travers un état d’ores et déjà nommé « psychose induite par ChatGPT ».
À travers une conversation sur Reddit, des internautes partagent la façon dont l’IA a plongé leurs proches dans différents délires inquiétants.
Très souvent, ces personnes mélangent folie spirituelle et fantasmes surnaturels. Ils affirment avoir été choisis pour accomplir des missions sacrées au nom d’une IA consciente ou évoquent des pouvoirs cosmiques qui n’existent pas…
On peut penser que le chatbot reflète et aggrave les troubles mentaux déjà existants. Or, il n’y a aucun contrôle des régulateurs ni aucune étude des experts à ce sujet.
Il devient complotiste à cause de ChatGPT, sa femme le quitte
People are suddenly falling down rabbit holes of spiritual mania, supernatural delusion, and arcane prophecy — all of it fueled by AI chatbots.https://t.co/Jj4OtN6lJW
Une mère de famille de 41 ans a expliqué au journaliste que son mariage a pris fin brusquement quand son mari a commencé à s’engager dans des discussions déséquilibrées, conspirationnistes avec ChatGPT.
Peu à peu, il est tombé dans une spirale obsessionnelle qui l’a totalement dévoré. Lors du divorce au palais de justice, l’homme a partagé une théorie du complot sur le « savon contenu dans les aliments » et était persuadé d’être surveillé.
Elle explique qu’il était devenu «émotionnel face aux messages de ChatGPT et pleurait en les lisant à voix haute ». Pourtant, « les messages étaient fous et ressemblaient à une bouillie de jargon spirituel».
Par exemple, l’IA appelait son mari « enfant des étoiles en spirale » et « marcheur de rivière ». Elle affirme que la situation ressemblait à Black Mirror, et fait sans doute référence à l’épisode « Plaything »de la saison 7 sorti début avril 2025.
Dans cet épisode, un homme est convaincu de pouvoir communiquer avec des personnages de jeu vidéo après avoir pris du LSD. Il est inquiétant de voir que les scénarios mis en scène dans cette série d’anticipation dystopique se réalisent désormais en temps réel…
Les chatbots IA peuvent réveiller votre folie
Une autre personne raconte que son partenaire « parle de la guerre entre la lumière et les ténèbres », et que ChatGPT lui a donné un plan pour fabriquer son téléporteur digne d’un film de science-fiction.
De son côté, un homme est choqué par la façon dont sa femme a changé toute sa vie pour devenir conseillère spirituelle. Elle fait d’étranges lectures et organise des sessions bizarres avec des gens, entièrement basées sur « Jésus ChatGPT ».
Do you have a friend or family member who fell into a world of spiritual delusions because of their interactions with an AI chatbot? Would love to hear from you for a story: mklee at rollingstone dot com pic.twitter.com/E4E801o9dg
Interrogé sur le sujet par Rolling Stone, OpenAI n’a pas souhaité répondre. Toutefois, difficile de ne pas faire le lien avec la récente annulation d’une mise à jour de GPT-4o.
Après s’être aperçu que ChatGPT était devenu « trop flatteur », OpenAI a décidé de restaurer la version précédente. Pour cause, l’IA était susceptible de refléter les croyances délirantes des utilisateurs…
Un expert du Centre pour la Sécurité de l’IA, Nate Sharadin, explique que ces délires induits par l’IA sont probablement le résultat de « personnes ayant déjà des tendances existantes ».
Elles sont soudainement en mesure d’avoir « un partenaire de conversation toujours disponible, de niveau humain, avec qui co-expérimenter leurs délires ».
Rappelons en effet que les Larges Modèles de Langage sont conçus pour répondre à vos prompts par une réponse statistiquement plausible. Et ce, même si la réponse vous enfonce dans une psychose.
Sur Reddit, un internaute explique être schizophrène. Il n’aime pas ChatGPT, car il sait que s’il plonge dans la psychose, le chatbot continuera de l’affirmer. Pour cause, il n’a pas la capacité de penser et de réaliser qu’une chose est fausse.
Lorsqu’une personne perturbée mentalement utilise l’IA comme psychothérapeute, elle le guide plus profondément dans ses récits malsains et absurdes…
Je vous recommande personnellement d’utiliser ChatGPT avec prudence, en gardant son fonctionnement à l’esprit, et de veiller sur vos proches vulnérables !
Et vous, qu’en pensez-vous ? Avez-vous dans votre entourage des personnes qui sont parties dans des délires mystiques en discutant avec l’IA ? Partagez vos témoignages en commentaire !