Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Le ménage commence : YouTube fait tomber les rois des faux trailers Marvel et Star Wars

fake trailer doomsday

C'est terminé pour deux usines à fakes. La plateforme YouTube a enfin pris des mesures radicales à l'encontre de Screen Culture et de KH Studio, deux chaînes qui cumulaient des milliards de vues. Comment ? En trompant les internautes et les médias avec de fausses bandes-annonces, créées par IA.

C’est la fin de la preuve par l’image : l’outil Google Nano Banana Pro génère d’incroyables fake news à la chaîne

Le 3 décembre 2025, NewsGuard a publié une enquête sur le nouvel outil de génération d’images de Google, NanoBanana Pro. L’entreprise américaine, qui évalue la fiabilité des sites d’information, a voulu tester la capacité de cet outil à participer à des campagnes de désinformation… et les résultats sont édifiants.

Elon Musk diffuse une image générée par IA présentée comme une actu politique

IA manifestation Londres arc de triomphe

Personne n'est totalement immunisé face aux images générées par IA. Même Elon Musk. Mais c'est un souci quand on retweete un visuel factice d'un évènement politique en pensant visiblement que c'est une vraie actualité.

Crash d’avion en Inde : voilà que l’IA de Google a confondu Airbus et Boeing

Air India 787

Le crash d'avion survenu en Inde le 12 juin 2025, qui a causé la mort de près de 270 personnes, a mis en lumière le principal défaut de l'IA générative : l'hallucination. Dans les résultats de Google, une information erronée a circulé, générée par IA. Elle affirmait que l'avion impliqué dans la catastrophe était un Airbus, au lieu d'un Boeing.

« L’absence d’innovation mène à la perte » : comment l’armée forme des jeunes à combattre les menaces de l’IA

Lors de l'événement Cyber Humanum Est, l'armée a mis à l'épreuve les futurs experts en cybersécurité avec des scénarios impliquant des campagnes de désinformation générées par l'intelligence artificielle. L’objectif : les préparer à contrer les menaces numériques dans un contexte géopolitique complexe.

Grok 2, l’intelligence artificielle d’Elon Musk, génère de fausses photos de célébrités gratuitement

Avec Aurora, un nouveau modèle conçu pour générer des images réalistes, xAI pourrait proposer l'alternative la plus crédible à Midjourney et à Dall-e. Le modèle est capable de générer de fausses images indiscernables de la réalité, sans la moindre limite légale. Il peut parfaitement usurper une identité ou jouer avec l'image d'une marque.

Tout est faux dans cette vidéo sur les pyramides d’Égypte avec des géants

Une vidéo produite par une IA montre des géants en train de construire des pyramides égyptiennes. Elle aurait pu rester au rang de la blague, mais le web étant ce qu'il est, cette vidéo est un prétexte pour questionner les faux créés par IA.

  • ✇ActuIA
  • Rapport de l’UNESCO : les dangers de l’IA générative pour une transmission fidèle de l’histoire de l’Holocauste
    Un nouveau rapport de l’UNESCO met en lumière les dangers potentiels de l’IA générative sur la préservation et la transmission de la mémoire de l’Holocauste. Publié en collaboration avec le Centre juif mondial ce 18 juin à l’occasion de la Journée internationale de la lutte contre les discours de haine, il alerte sur la capacité de l’IA à propager des discours antisémites et sur la menace croissante de désinformation et de manipulation historique qu’elle représente. Alors que ces derniers mois,

Rapport de l’UNESCO : les dangers de l’IA générative pour une transmission fidèle de l’histoire de l’Holocauste

20 juin 2024 à 14:00

Un nouveau rapport de l’UNESCO met en lumière les dangers potentiels de l’IA générative sur la préservation et la transmission de la mémoire de l’Holocauste. Publié en collaboration avec le Centre juif mondial ce 18 juin à l’occasion de la Journée internationale de la lutte contre les discours de haine, il alerte sur la capacité de l’IA à propager des discours antisémites et sur la menace croissante de désinformation et de manipulation historique qu’elle représente.

Alors que ces derniers mois, nous assistons à une recrudescence des propos et des actes antisémites, Audrey Azoulay, Directrice générale de l’UNESCO, prévient :

“Si nous permettons que les faits terribles de l’Holocauste soient dilués, déformés ou falsifiés par une utilisation irresponsable de l’IA, nous risquons une propagation fulgurante de l’antisémitisme et une diminution de notre compréhension des causes et des conséquences de ces atrocités. Il est urgent de mettre en œuvre la Recommandation de l’UNESCO sur l’éthique de l’IA afin que les jeunes générations se nourrissent de faits avérés et non fabriqués”.

Les dangers de la désinformation et des “hallucinations” de l’IA

Les modèles d’IA générative, lorsqu’ils manquent de données suffisantes, tendent à “halluciner”, c’est-à-dire, à inventer des événements ou des faits historiques inexacts. Le rapport souligne que des IA comme ChatGPT et Gemini, le modèle que Google avait d désactiver en février dernier après qu’il ait généré des images de Nazis noirs, ont déjà produit de fausses informations sur l’Holocauste. Par exemple, ChatGPT a créé de toutes pièces un récit sur des “campagnes de noyade” perpétrées par les nazis, tandis que Gemini a fabriqué des citations de témoins inexistants.

D’autre part, les IA ont tendance à simplifier à l’extrême les faits complexes, en se concentrant sur un nombre limité de sources et d’événements. Par exemple, dans les moteurs de recherche utilisant l’IA, une majorité des images affichées concernent uniquement Auschwitz-Birkenau, négligeant d’autres aspects et expériences de l’Holocauste.

Une propagation incontrôlée de la désinformation

Le rapport montre que les jeunes, de plus en plus dépendants des outils d’IA pour leurs recherches et leurs devoirs, sont particulièrement vulnérables à cette désinformation. Selon une étude de l’ONU, quatre jeunes sur cinq âgés de 10 à 24 ans utilisent l’IA plusieurs fois par jour. L’absence de supervision rigoureuse et l’entraînement des IA sur des données potentiellement biaisées ou trompeuses augmentent le risque de propagation de contenus négationnistes.

Les deepfakes, un outil de radicalisation

Les deepfakes représentent un outil puissant pour les acteurs malveillants. Ces contenus, souvent convaincants, peuvent falsifier des témoignages ou des archives historiques, trompant ainsi le public. Le rapport mentionne des deepfakes impliquant des figures historiques nazies et même des personnalités contemporaines comme Emma Watson lisant Mein Kampf, ayant été vus des millions de fois sur les réseaux sociaux.

Erosion de la confiance publique

Le rapport met en garde contre une possible érosion de la confiance du public dans les faits historiques, du fait de la difficulté croissante à distinguer les contenus générés par IA des informations véridiques. Cette méfiance pourrait s’étendre aux témoignages des survivants de l’Holocauste et aux preuves historiques réelles.

Appel à une action collective

Pour contrer ces risques, l’UNESCO appelle les entreprises technologiques à assumer leurs responsabilités. Elles doivent s’assurer que leurs outils respectent les principes éthiques tels que l’équité, la transparence et les droits humains. Le rapport recommande également une collaboration étroite avec la communauté juive, les survivants de l’Holocauste, les éducateurs et les historiens pour élaborer des modèles d’IA fiables et respectueux de la mémoire historique.

Elle encourage les gouvernements à suivre la Recommandation sur l’éthique de l’intelligence artificielle, adoptée par ses 193 États membres en 2021 et invite les enseignants à défendre l’histoire de l’Holocauste en sensibilisant les jeunes à un usage responsable des technologies, en développant leur esprit critique, et en leur fournissant une compréhension approfondie de ce génocide.

Pour retrouver le rapport : “AI and the Holocaust: rewriting history? The impact of artificial intelligence on understanding the Holocaust”, cliquer ici

ia-generative-unesco

Tom Cruise critique les JO dans un docu Netflix monté de toutes pièces par la Russie

Tom Cruise, narrateur d'un documentaire sur la corruption des JO ? Ce n'est pas une vraie production Netflix, mais une opération de déstabilisation Russe, d'après Microsoft. Le faux documentaire, visionné des dizaines de milliers de fois sur Telegram, rencontre cependant un important succès.

ChatGPT est nul pour les opérations d’influence, selon OpenAI

Dans un rapport, l'entreprise déclare avoir déjoué des campagnes d'influence menées par plusieurs pays. Cependant, d'après elle, l'utilisation de ChatGPT ne les aurait pas particulièrement aidés, et ces opérations n'auraient pas rencontré un grand succès.

Cet accident de voiture Tesla n’a jamais eu lieu

voiture factice une midjourney

Une photo ultra-réaliste créée par IA a été partagée sur Reddit. Bien que des internautes aient pu repérer des bizarreries en l'analysant de près, ce cliché constitue un nouvel avertissement : il devient de plus en plus difficile de repérer les visuels factices.

Elon Musk remplace les tendances Twitter par des actualités non vérifiées

Twitter, devenu X, expérimente actuellement une nouvelle section nommée « Explore », à la place des TT (Trending Topics). Il s'agit d'un résumé de quatre actualités par Grok, l'intelligence artificielle générative d'Elon Musk. Plus personne ne verra les mêmes tendances.

Bannir toutes les images de Joe Biden et Donald Trump sur Midjourney devient inévitable

Midjourney songe sérieusement à interdire pendant un temps la possibilité de créer des images politiques par intelligence artificielle. En ligne de mire, le futur choc entre Donald Trump et Joe Biden lors de l'élection présidentielle américaine de 2024, et le risque d'une désinformation incontrôlable.

Kylian Mbappé qui fait la promo d’un jeu de casino en ligne ? C’est une arnaque en deepfake

Des publicités sur Facebook détournent la voix de Kylian Mbappé ainsi que des présentateurs de journaux télévisés. Le but ? Faire la promotion d'application de jeux en ligne. Les escrocs utilisent des outils de clonage de voix par intelligence artificielle.

  • ✇ActuIA
  • Nouvelles politiques, nouveaux outils : OpenAI se prépare aux élections 2024
    Elections présidentielles en Russie, aux Etats-Unis, législatives en Inde, européennes en France… En 2024, environ la moitié de la population mondiale sera concernée par un scrutin électoral, ce qui pourrait accélérer la désinformation qui connait une forte hausse avec l’essor de la GenAI. Pour réduire cette menace, OpenAI travaille à sécuriser ChatGPT et DALL-E 3. Le Forum Economique Mondial, qui se déroule en ce moment à Davos, estime dans son “Rapport sur les risques mondiaux” que la désinfor

Nouvelles politiques, nouveaux outils : OpenAI se prépare aux élections 2024

18 janvier 2024 à 12:30

Elections présidentielles en Russie, aux Etats-Unis, législatives en Inde, européennes en France… En 2024, environ la moitié de la population mondiale sera concernée par un scrutin électoral, ce qui pourrait accélérer la désinformation qui connait une forte hausse avec l’essor de la GenAI. Pour réduire cette menace, OpenAI travaille à sécuriser ChatGPT et DALL-E 3.

Le Forum Economique Mondial, qui se déroule en ce moment à Davos, estime dans son “Rapport sur les risques mondiaux” que la désinformation sera la préoccupation majeure de ces deux prochaines années. OpenAI y participe, tout comme son associé Microsoft, dont le PDG, Satya Nadella a d’ailleurs déclaré :

“Ce n’est pas comme si c’était la première élection où la désinformation, la mésinformation ou l’ingérance seront un réel défi que nous devons affronter”.

OpenAI rappelle dans son blog intitulé “Comment OpenAI aborde les élections mondiales de 2024”, qu’il travaille depuis des années sur des outils permettant d’améliorer la précision des faits, de réduire les biais et de refuser certaines demandes. DALL-E, qui ne génère pas d’images de personnes réelles, ne le fera donc pas pour les candidats.

OpenAI revoit ses politiques d’utilisation

La société travaille à prévenir les abus, comme les “deepfakes” ou les campagnes d’influence. Elle interdit les chatbots prétendant être de vraies personnes ou des institutions, les applications à des fins de campagne politique et de lobbying et celles incitant à ne pas voter ou donnant de fausses informations sur le vote.

Les utilisateurs sont encouragés à signaler des violations potentielles via de nouveaux GPT.

Plus de transparence pour le contenu généré par l’IA

OpenAI déclare travailler sur la transparence de la provenance des images “Au début de l’année, nous mettrons en œuvre les justificatifs d’identité numériques, une approche qui encode les détails sur la provenance du contenu à l’aide de la cryptographie, pour les images générées par DALL· E 3″. Il s’agit d’une norme standardisée par la Coalition for Content Provenance and Authenticity, dont fait partie Microsoft.

OpenAI annonce également un classificateur de provenance, un nouvel outil de détection des images générées par DALL-E 3, assurant “Nos tests internes ont montré des résultats préliminaires prometteurs, même lorsque les images ont été soumises à des types de modifications courants“. Il prévoit de le rendre accessible à un premier groupe de testeurs, comprenant des journalistes, des plateformes, et des chercheurs, afin d’obtenir des  commentaires.

ChatGPT dirigera ses utilisateurs vers CanIVote.org, un site Web faisant autorité sur les informations électorales américaines, lorsqu’on lui posera certaines questions liées à la procédure électorale, par exemple, où voter ou comment s’inscrire

Nouvelles politiques, nouveaux outils OpenAI se prépare aux élections 2024
  • ✇ActuIA
  • Forum de Davos : la désinformation et la cybercriminalité au cœur des préoccupations internationales
    Le Forum de Davos s’est ouvert lundi dernier dans un contexte de tensions géopolitiques, mais également d’incertitudes économiques et de réchauffement climatique. Cette année, il y sera beaucoup question de l’IA, de ses opportunités mais également des menaces auxquelles elle peut concourir, notamment la cybercriminalité et la désinformation. En marge du Sommet de Davos, le Forum Economique Mondial a publié le 10 janvier dernier, un “Rapport sur les risques mondiaux” qui met en garde contre les r

Forum de Davos : la désinformation et la cybercriminalité au cœur des préoccupations internationales

17 janvier 2024 à 13:30

Le Forum de Davos s’est ouvert lundi dernier dans un contexte de tensions géopolitiques, mais également d’incertitudes économiques et de réchauffement climatique. Cette année, il y sera beaucoup question de l’IA, de ses opportunités mais également des menaces auxquelles elle peut concourir, notamment la cybercriminalité et la désinformation.

En marge du Sommet de Davos, le Forum Economique Mondial a publié le 10 janvier dernier, un “Rapport sur les risques mondiaux” qui met en garde contre les risques potentiels associés à l’IA, soulignant l’importance d’une réglementation efficace, de la gouvernance mondiale et de la prévention des inégalités numériques.

L’utilisation de l’IA générative est identifiée comme une source de préoccupation, car elle pourrait permettre à des acteurs non étatiques et étatiques de développer des outils potentiellement dangereux pour la sécurité, tels que des logiciels malveillants et des armes biologiques.

Le risque mondial le plus grave prévu au cours des deux prochaines années, dont pourrait tirer parti les acteurs étrangers et nationaux, serait l’utilisation de la mésinformation et de la désinformation pour creuser davantage les divisions sociétales et politiques. Ce mardi, Ursula von der Leyen, a évoqué ce sujet, mais elle a davantage souligné l’opportunité significative apportée par l’IA lorsqu’elle est utilisée de manière responsable.

Le rapport du Forum souligne la nécessité pour les chefs d’entreprise de faire de la cybersécurité une priorité absolue pour l’année à venir. Les répondants des secteurs public et privé ont ainsi placé les cyberattaques à la cinquième place de leurs préoccupations, 39% d’entre eux les classant même parmi les 3 principales appréhensions.

La hausse de la cybercriminalité

Dans son rapport “Board Perspectives 2023” , Proofpoint, une société américaine de cybersécurité de premier plan, révélait déjà la prise de conscience croissante des chefs d’entreprise dans le monde. En France, 80% des membres de conseils d’administration se sentent menacés par une cyberattaque majeure au cours des 12 prochains mois.

Ils classent, en tête de leurs préoccupations les logiciels malveillants (48 %), le smishing/vishing (40 %) et la fraude par courriel/BEC (38 %).

Les cyberattaquants redoublent d’inventivité et adoptent de nouvelles tactiques, telles que les attaques par téléphone et l’utilisation de proxys pour contourner l’authentification multifactorielle. Ces techniques autrefois assez ciblées sont aujourd’hui déployées à grande échelle.

Selon Loïc Guézo, Directeur de la stratégie cyber pour l’Europe chez Proofpoint :

“On assiste aujourd’hui à une recrudescence des campagnes d’hameçonnage sophistiquées et multi-plateformes dans lesquelles les acteurs de la menace orchestrent des conversations prolongées pour gagner la confiance de leurs cibles. Des campagnes qui sont généralement menées par des groupes de cybercriminels issus d’États-nations ou désireux d’aller au-delà de la simple compromission de courriels d’entreprise (BEC)”.

Une accélération de la désinformation

Alors que des élections importantes auront lieu en 2024, notamment les élections présidentielles en Russie ou aux Etats-Unis, la vitesse, le volume et la crédibilité des attaques augmentent de façon significative. En 2023, plusieurs personnalités publiques et politiques ont ainsi été victimes d’usurpation d’identité, à l’instar de François Hollande, trompé par le duo comique russe Vovan et Lexus, dénommé “TA 499” par les chercheurs de Proofpoint.

Ce duo avait commencé par duper des personnalités comme Elton John, mais s’est ensuite attaqué à des politiques comme Angela Merkel ou François Hollande dans le but de leur arracher des informations sensibles ou leur faire dire des choses compromettantes.

Loïc Guézo, conclut :

“D’un point de vue défensif, l’IA, la technologie et l’humain doivent fusionner pour établir une stratégie de cybersécurité robuste. Les contrôles basés sur l’IA fourniront une analyse cruciale pour identifier les menaces, nous permettant de minimiser les risques d’attaque. La rapidité et l’adaptabilité dont font preuve les cybercriminels surpassent l’analyse manuelle et l’IA doit permettre de répondre rapidement aux nouvelles menaces qui par ailleurs ne cesseront d’évoluer en 2024.

Forum de Davos la désinformation et la cybercriminalité au coeur des préoccupations internationales
❌
❌