C'est terminé pour deux usines à fakes. La plateforme YouTube a enfin pris des mesures radicales à l'encontre de Screen Culture et de KH Studio, deux chaînes qui cumulaient des milliards de vues. Comment ? En trompant les internautes et les médias avec de fausses bandes-annonces, créées par IA.
C'est terminé pour deux usines à fakes. La plateforme YouTube a enfin pris des mesures radicales à l'encontre de Screen Culture et de KH Studio, deux chaînes qui cumulaient des milliards de vues. Comment ? En trompant les internautes et les médias avec de fausses bandes-annonces, créées par IA.
Le 3 décembre 2025, NewsGuard a publié une enquête sur le nouvel outil de génération d’images de Google, NanoBanana Pro. L’entreprise américaine, qui évalue la fiabilité des sites d’information, a voulu tester la capacité de cet outil à participer à des campagnes de désinformation… et les résultats sont édifiants.
Le 3 décembre 2025, NewsGuard a publié une enquête sur le nouvel outil de génération d’images de Google, NanoBanana Pro. L’entreprise américaine, qui évalue la fiabilité des sites d’information, a voulu tester la capacité de cet outil à participer à des campagnes de désinformation… et les résultats sont édifiants.
Absents en France, les résumés IA (AI Overviews) de Google sont mal perçus en Allemagne par la presse et les éditeurs. Ceux-ci ont décidé de déposer une plainte contre cette fonctionnalité, en mobilisant la récente réglementation européenne du DSA sur les services numériques.
Absents en France, les résumés IA (AI Overviews) de Google sont mal perçus en Allemagne par la presse et les éditeurs. Ceux-ci ont décidé de déposer une plainte contre cette fonctionnalité, en mobilisant la récente réglementation européenne du DSA sur les services numériques.
Personne n'est totalement immunisé face aux images générées par IA. Même Elon Musk. Mais c'est un souci quand on retweete un visuel factice d'un évènement politique en pensant visiblement que c'est une vraie actualité.
Personne n'est totalement immunisé face aux images générées par IA. Même Elon Musk. Mais c'est un souci quand on retweete un visuel factice d'un évènement politique en pensant visiblement que c'est une vraie actualité.
Le crash d'avion survenu en Inde le 12 juin 2025, qui a causé la mort de près de 270 personnes, a mis en lumière le principal défaut de l'IA générative : l'hallucination. Dans les résultats de Google, une information erronée a circulé, générée par IA. Elle affirmait que l'avion impliqué dans la catastrophe était un Airbus, au lieu d'un Boeing.
Le crash d'avion survenu en Inde le 12 juin 2025, qui a causé la mort de près de 270 personnes, a mis en lumière le principal défaut de l'IA générative : l'hallucination. Dans les résultats de Google, une information erronée a circulé, générée par IA. Elle affirmait que l'avion impliqué dans la catastrophe était un Airbus, au lieu d'un Boeing.
La Russie cible désormais les outils d'intelligence artificielle en tentant des les nourrir avec des campagnes de propagande. Une enquête révèle comment ces modèles relaient et amplifient des récits pro-Kremlin.
La Russie cible désormais les outils d'intelligence artificielle en tentant des les nourrir avec des campagnes de propagande. Une enquête révèle comment ces modèles relaient et amplifient des récits pro-Kremlin.
Lors de l'événement Cyber Humanum Est, l'armée a mis à l'épreuve les futurs experts en cybersécurité avec des scénarios impliquant des campagnes de désinformation générées par l'intelligence artificielle. L’objectif : les préparer à contrer les menaces numériques dans un contexte géopolitique complexe.
Lors de l'événement Cyber Humanum Est, l'armée a mis à l'épreuve les futurs experts en cybersécurité avec des scénarios impliquant des campagnes de désinformation générées par l'intelligence artificielle. L’objectif : les préparer à contrer les menaces numériques dans un contexte géopolitique complexe.
Avec Aurora, un nouveau modèle conçu pour générer des images réalistes, xAI pourrait proposer l'alternative la plus crédible à Midjourney et à Dall-e. Le modèle est capable de générer de fausses images indiscernables de la réalité, sans la moindre limite légale. Il peut parfaitement usurper une identité ou jouer avec l'image d'une marque.
Avec Aurora, un nouveau modèle conçu pour générer des images réalistes, xAI pourrait proposer l'alternative la plus crédible à Midjourney et à Dall-e. Le modèle est capable de générer de fausses images indiscernables de la réalité, sans la moindre limite légale. Il peut parfaitement usurper une identité ou jouer avec l'image d'une marque.
Une vidéo produite par une IA montre des géants en train de construire des pyramides égyptiennes. Elle aurait pu rester au rang de la blague, mais le web étant ce qu'il est, cette vidéo est un prétexte pour questionner les faux créés par IA.
Une vidéo produite par une IA montre des géants en train de construire des pyramides égyptiennes. Elle aurait pu rester au rang de la blague, mais le web étant ce qu'il est, cette vidéo est un prétexte pour questionner les faux créés par IA.
La toute nouvelle Bugatti Tourbillon aurait été achetée plus de 4,5 millions d'euros par le couple Zelensky. Il s'agit bien sûr d'une fake news, pilotée depuis la Russie et relayée en masse sur les réseaux.
La toute nouvelle Bugatti Tourbillon aurait été achetée plus de 4,5 millions d'euros par le couple Zelensky. Il s'agit bien sûr d'une fake news, pilotée depuis la Russie et relayée en masse sur les réseaux.
Des experts en cybersécurité ont noté plusieurs opérations de désinformations menées par un groupe russe. Une vidéo autour d'un faux meurtre de militant palestinien a notamment été détournée avec l'aide de l'IA.
Des experts en cybersécurité ont noté plusieurs opérations de désinformations menées par un groupe russe. Une vidéo autour d'un faux meurtre de militant palestinien a notamment été détournée avec l'aide de l'IA.
Un nouveau rapport de l’UNESCO met en lumière les dangers potentiels de l’IA générative sur la préservation et la transmission de la mémoire de l’Holocauste. Publié en collaboration avec le Centre juif mondial ce 18 juin à l’occasion de la Journée internationale de la lutte contre les discours de haine, il alerte sur la capacité de l’IA à propager des discours antisémites et sur la menace croissante de désinformation et de manipulation historique qu’elle représente.
Alors que ces derniers mois,
Un nouveau rapport de l’UNESCO met en lumière les dangers potentiels de l’IA générative sur la préservation et la transmission de la mémoire de l’Holocauste. Publié en collaboration avec le Centre juif mondial ce 18 juin à l’occasion de la Journée internationale de la lutte contre les discours de haine, il alerte sur la capacité de l’IA à propager des discours antisémites et sur la menace croissante de désinformation et de manipulation historique qu’elle représente.
Alors que ces derniers mois, nous assistons à une recrudescence des propos et des actes antisémites, Audrey Azoulay, Directrice générale de l’UNESCO, prévient :
“Si nous permettons que les faits terribles de l’Holocauste soient dilués, déformés ou falsifiés par une utilisation irresponsable de l’IA, nous risquons une propagation fulgurante de l’antisémitisme et une diminution de notre compréhension des causes et des conséquences de ces atrocités. Il est urgent de mettre en œuvre la Recommandation de l’UNESCO sur l’éthique de l’IA afin que les jeunes générations se nourrissent de faits avérés et non fabriqués”.
Les dangers de la désinformation et des “hallucinations” de l’IA
Les modèles d’IA générative, lorsqu’ils manquent de données suffisantes, tendent à “halluciner”, c’est-à-dire, à inventer des événements ou des faits historiques inexacts. Le rapport souligne que des IA comme ChatGPT et Gemini, le modèle que Google avait d désactiver en février dernier après qu’il ait généré des images de Nazis noirs, ont déjà produit de fausses informations sur l’Holocauste. Par exemple, ChatGPT a créé de toutes pièces un récit sur des “campagnes de noyade” perpétrées par les nazis, tandis que Gemini a fabriqué des citations de témoins inexistants.
D’autre part, les IA ont tendance à simplifier à l’extrême les faits complexes, en se concentrant sur un nombre limité de sources et d’événements. Par exemple, dans les moteurs de recherche utilisant l’IA, une majorité des images affichées concernent uniquement Auschwitz-Birkenau, négligeant d’autres aspects et expériences de l’Holocauste.
Une propagation incontrôlée de la désinformation
Le rapport montre que les jeunes, de plus en plus dépendants des outils d’IA pour leurs recherches et leurs devoirs, sont particulièrement vulnérables à cette désinformation. Selon une étude de l’ONU, quatre jeunes sur cinq âgés de 10 à 24 ans utilisent l’IA plusieurs fois par jour. L’absence de supervision rigoureuse et l’entraînement des IA sur des données potentiellement biaisées ou trompeuses augmentent le risque de propagation de contenus négationnistes.
Les deepfakes, un outil de radicalisation
Les deepfakes représentent un outil puissant pour les acteurs malveillants. Ces contenus, souvent convaincants, peuvent falsifier des témoignages ou des archives historiques, trompant ainsi le public. Le rapport mentionne des deepfakes impliquant des figures historiques nazies et même des personnalités contemporaines comme Emma Watson lisant Mein Kampf, ayant été vus des millions de fois sur les réseaux sociaux.
Erosion de la confiance publique
Le rapport met en garde contre une possible érosion de la confiance du public dans les faits historiques, du fait de la difficulté croissante à distinguer les contenus générés par IA des informations véridiques. Cette méfiance pourrait s’étendre aux témoignages des survivants de l’Holocauste et aux preuves historiques réelles.
Appel à une action collective
Pour contrer ces risques, l’UNESCO appelle les entreprises technologiques à assumer leurs responsabilités. Elles doivent s’assurer que leurs outils respectent les principes éthiques tels que l’équité, la transparence et les droits humains. Le rapport recommande également une collaboration étroite avec la communauté juive, les survivants de l’Holocauste, les éducateurs et les historiens pour élaborer des modèles d’IA fiables et respectueux de la mémoire historique.
Elle encourage les gouvernements à suivre la Recommandation sur l’éthique de l’intelligence artificielle, adoptée par ses 193 États membres en 2021 et invite les enseignants à défendre l’histoire de l’Holocauste en sensibilisant les jeunes à un usage responsable des technologies, en développant leur esprit critique, et en leur fournissant une compréhension approfondie de ce génocide.
Pour retrouver le rapport : “AI and the Holocaust: rewriting history? The impact of artificial intelligence on understanding the Holocaust”, cliquer ici
Plusieurs comptes sur X ont publié par erreur des consignes données en langue russe à ChatGPT pour produire automatiquement des arguments en faveur de Trump. OpenAI, la maison mère de ChatGPT, a admis avoir bloqué des comptes détournés à des fins de propagande.
Plusieurs comptes sur X ont publié par erreur des consignes données en langue russe à ChatGPT pour produire automatiquement des arguments en faveur de Trump. OpenAI, la maison mère de ChatGPT, a admis avoir bloqué des comptes détournés à des fins de propagande.
Tom Cruise, narrateur d'un documentaire sur la corruption des JO ? Ce n'est pas une vraie production Netflix, mais une opération de déstabilisation Russe, d'après Microsoft. Le faux documentaire, visionné des dizaines de milliers de fois sur Telegram, rencontre cependant un important succès.
Tom Cruise, narrateur d'un documentaire sur la corruption des JO ? Ce n'est pas une vraie production Netflix, mais une opération de déstabilisation Russe, d'après Microsoft. Le faux documentaire, visionné des dizaines de milliers de fois sur Telegram, rencontre cependant un important succès.
Dans un rapport, l'entreprise déclare avoir déjoué des campagnes d'influence menées par plusieurs pays. Cependant, d'après elle, l'utilisation de ChatGPT ne les aurait pas particulièrement aidés, et ces opérations n'auraient pas rencontré un grand succès.
Dans un rapport, l'entreprise déclare avoir déjoué des campagnes d'influence menées par plusieurs pays. Cependant, d'après elle, l'utilisation de ChatGPT ne les aurait pas particulièrement aidés, et ces opérations n'auraient pas rencontré un grand succès.
Une photo ultra-réaliste créée par IA a été partagée sur Reddit. Bien que des internautes aient pu repérer des bizarreries en l'analysant de près, ce cliché constitue un nouvel avertissement : il devient de plus en plus difficile de repérer les visuels factices.
Une photo ultra-réaliste créée par IA a été partagée sur Reddit. Bien que des internautes aient pu repérer des bizarreries en l'analysant de près, ce cliché constitue un nouvel avertissement : il devient de plus en plus difficile de repérer les visuels factices.
Twitter, devenu X, expérimente actuellement une nouvelle section nommée « Explore », à la place des TT (Trending Topics). Il s'agit d'un résumé de quatre actualités par Grok, l'intelligence artificielle générative d'Elon Musk. Plus personne ne verra les mêmes tendances.
Twitter, devenu X, expérimente actuellement une nouvelle section nommée « Explore », à la place des TT (Trending Topics). Il s'agit d'un résumé de quatre actualités par Grok, l'intelligence artificielle générative d'Elon Musk. Plus personne ne verra les mêmes tendances.
Midjourney songe sérieusement à interdire pendant un temps la possibilité de créer des images politiques par intelligence artificielle. En ligne de mire, le futur choc entre Donald Trump et Joe Biden lors de l'élection présidentielle américaine de 2024, et le risque d'une désinformation incontrôlable.
Midjourney songe sérieusement à interdire pendant un temps la possibilité de créer des images politiques par intelligence artificielle. En ligne de mire, le futur choc entre Donald Trump et Joe Biden lors de l'élection présidentielle américaine de 2024, et le risque d'une désinformation incontrôlable.
Des publicités sur Facebook détournent la voix de Kylian Mbappé ainsi que des présentateurs de journaux télévisés. Le but ? Faire la promotion d'application de jeux en ligne. Les escrocs utilisent des outils de clonage de voix par intelligence artificielle.
Des publicités sur Facebook détournent la voix de Kylian Mbappé ainsi que des présentateurs de journaux télévisés. Le but ? Faire la promotion d'application de jeux en ligne. Les escrocs utilisent des outils de clonage de voix par intelligence artificielle.
Elections présidentielles en Russie, aux Etats-Unis, législatives en Inde, européennes en France… En 2024, environ la moitié de la population mondiale sera concernée par un scrutin électoral, ce qui pourrait accélérer la désinformation qui connait une forte hausse avec l’essor de la GenAI. Pour réduire cette menace, OpenAI travaille à sécuriser ChatGPT et DALL-E 3.
Le Forum Economique Mondial, qui se déroule en ce moment à Davos, estime dans son “Rapport sur les risques mondiaux” que la désinfor
Elections présidentielles en Russie, aux Etats-Unis, législatives en Inde, européennes en France… En 2024, environ la moitié de la population mondiale sera concernée par un scrutin électoral, ce qui pourrait accélérer la désinformation qui connait une forte hausse avec l’essor de la GenAI. Pour réduire cette menace, OpenAI travaille à sécuriser ChatGPT et DALL-E 3.
Le Forum Economique Mondial, qui se déroule en ce moment à Davos, estime dans son “Rapport sur les risques mondiaux” que la désinformation sera la préoccupation majeure de ces deux prochaines années. OpenAI y participe, tout comme son associé Microsoft, dont le PDG, Satya Nadella a d’ailleurs déclaré :
“Ce n’est pas comme si c’était la première élection où la désinformation, la mésinformation ou l’ingérance seront un réel défi que nous devons affronter”.
OpenAI rappelle dans son blog intitulé “Comment OpenAI aborde les élections mondiales de 2024”, qu’il travaille depuis des années sur des outils permettant d’améliorer la précision des faits, de réduire les biais et de refuser certaines demandes. DALL-E, qui ne génère pas d’images de personnes réelles, ne le fera donc pas pour les candidats.
OpenAI revoit ses politiques d’utilisation
La société travaille à prévenir les abus, comme les “deepfakes” ou les campagnes d’influence. Elle interdit les chatbots prétendant être de vraies personnes ou des institutions, les applications à des fins de campagne politique et de lobbying et celles incitant à ne pas voter ou donnant de fausses informations sur le vote.
Les utilisateurs sont encouragés à signaler des violations potentielles via de nouveaux GPT.
Plus de transparence pour le contenu généré par l’IA
OpenAI déclare travailler sur la transparence de la provenance des images “Au début de l’année, nous mettrons en œuvre les justificatifs d’identité numériques, une approche qui encode les détails sur la provenance du contenu à l’aide de la cryptographie, pour les images générées par DALL· E 3″. Il s’agit d’une norme standardisée par la Coalition for Content Provenance and Authenticity, dont fait partie Microsoft.
OpenAI annonce également un classificateur de provenance, un nouvel outil de détection des images générées par DALL-E 3, assurant “Nos tests internes ont montré des résultats préliminaires prometteurs, même lorsque les images ont été soumises à des types de modifications courants“. Il prévoit de le rendre accessible à un premier groupe de testeurs, comprenant des journalistes, des plateformes, et des chercheurs, afin d’obtenir des commentaires.
ChatGPT dirigera ses utilisateurs vers CanIVote.org, un site Web faisant autorité sur les informations électorales américaines, lorsqu’on lui posera certaines questions liées à la procédure électorale, par exemple, où voter ou comment s’inscrire
Nouvelles politiques, nouveaux outils OpenAI se prépare aux élections 2024
Le Forum de Davos s’est ouvert lundi dernier dans un contexte de tensions géopolitiques, mais également d’incertitudes économiques et de réchauffement climatique. Cette année, il y sera beaucoup question de l’IA, de ses opportunités mais également des menaces auxquelles elle peut concourir, notamment la cybercriminalité et la désinformation.
En marge du Sommet de Davos, le Forum Economique Mondial a publié le 10 janvier dernier, un “Rapport sur les risques mondiaux” qui met en garde contre les r
Le Forum de Davos s’est ouvert lundi dernier dans un contexte de tensions géopolitiques, mais également d’incertitudes économiques et de réchauffement climatique. Cette année, il y sera beaucoup question de l’IA, de ses opportunités mais également des menaces auxquelles elle peut concourir, notamment la cybercriminalité et la désinformation.
En marge du Sommet de Davos, le Forum Economique Mondial a publié le 10 janvier dernier, un “Rapport sur les risques mondiaux” qui met en garde contre les risques potentiels associés à l’IA, soulignant l’importance d’une réglementation efficace, de la gouvernance mondiale et de la prévention des inégalités numériques.
L’utilisation de l’IA générative est identifiée comme une source de préoccupation, car elle pourrait permettre à des acteurs non étatiques et étatiques de développer des outils potentiellement dangereux pour la sécurité, tels que des logiciels malveillants et des armes biologiques.
Le risque mondial le plus grave prévu au cours des deux prochaines années, dont pourrait tirer parti les acteurs étrangers et nationaux, serait l’utilisation de la mésinformation et de la désinformation pour creuser davantage les divisions sociétales et politiques. Ce mardi, Ursula von der Leyen, a évoqué ce sujet, mais elle a davantage souligné l’opportunité significative apportée par l’IA lorsqu’elle est utilisée de manière responsable.
Le rapport du Forum souligne la nécessité pour les chefs d’entreprise de faire de la cybersécurité une priorité absolue pour l’année à venir. Les répondants des secteurs public et privé ont ainsi placé les cyberattaques à la cinquième place de leurs préoccupations, 39% d’entre eux les classant même parmi les 3 principales appréhensions.
La hausse de la cybercriminalité
Dans son rapport “Board Perspectives 2023” , Proofpoint, une société américaine de cybersécurité de premier plan, révélait déjà la prise de conscience croissante des chefs d’entreprise dans le monde. En France, 80% des membres de conseils d’administration se sentent menacés par une cyberattaque majeure au cours des 12 prochains mois.
Ils classent, en tête de leurs préoccupations les logiciels malveillants (48 %), le smishing/vishing (40 %) et la fraude par courriel/BEC (38 %).
Les cyberattaquants redoublent d’inventivité et adoptent de nouvelles tactiques, telles que les attaques par téléphone et l’utilisation de proxys pour contourner l’authentification multifactorielle. Ces techniques autrefois assez ciblées sont aujourd’hui déployées à grande échelle.
Selon Loïc Guézo, Directeur de la stratégie cyber pour l’Europe chez Proofpoint :
“On assiste aujourd’hui à une recrudescence des campagnes d’hameçonnage sophistiquées et multi-plateformes dans lesquelles les acteurs de la menace orchestrent des conversations prolongées pour gagner la confiance de leurs cibles. Des campagnes qui sont généralement menées par des groupes de cybercriminels issus d’États-nations ou désireux d’aller au-delà de la simple compromission de courriels d’entreprise (BEC)”.
Une accélération de la désinformation
Alors que des élections importantes auront lieu en 2024, notamment les élections présidentielles en Russie ou aux Etats-Unis, la vitesse, le volume et la crédibilité des attaques augmentent de façon significative. En 2023, plusieurs personnalités publiques et politiques ont ainsi été victimes d’usurpation d’identité, à l’instar de François Hollande, trompé par le duo comique russe Vovan et Lexus, dénommé “TA 499” par les chercheurs de Proofpoint.
Ce duo avait commencé par duper des personnalités comme Elton John, mais s’est ensuite attaqué à des politiques comme Angela Merkel ou François Hollande dans le but de leur arracher des informations sensibles ou leur faire dire des choses compromettantes.
Loïc Guézo, conclut :
“D’un point de vue défensif, l’IA, la technologie et l’humain doivent fusionner pour établir une stratégie de cybersécurité robuste. Les contrôles basés sur l’IA fournirontune analyse cruciale pour identifier les menaces, nous permettant de minimiser les risques d’attaque. La rapidité et l’adaptabilité dont font preuve les cybercriminels surpassent l’analyse manuelle et l’IA doit permettre de répondre rapidement aux nouvelles menaces qui par ailleurs ne cesseront d’évoluer en 2024“.
Forum de Davos la désinformation et la cybercriminalité au coeur des préoccupations internationales