Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Telegram lance Cocoon, un réseau d'IA décentralisé et confidentiel sur la blockchain TON, comme alternative plus privée et plus rentable aux services informatiques d'IA centralisés

Telegram lance Cocoon, un réseau d'IA décentralisé et confidentiel sur la blockchain TON, comme alternative plus privée et plus rentable aux services informatiques d'IA centralisés

Telegram a récemment lancé un réseau informatique d'IA décentralisé et confidentiel sur la blockchain TON, appelé Cocoon. Le projet est présenté comme une alternative plus confidentielle et plus rentable aux services informatiques centralisés d'IA proposés par des fournisseurs tels que Microsoft et Amazon qui, selon le...

Nouvelles sur l’IA de octobre 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Des nouveautés sur la génération de vidéos

OpenAI publie Sora 2, son modèle de génération de vidéo, qui produit des scènes d’environ dix secondes à partir d’un prompt textuel. Cette publication pose deux questions : celle des deepfakes, et celle du copyright.

Sur les deepfakes, OpenAI a annoncé bloquer la génération de vidéos impliquant des personnalités publiques, sauf si ces dernières s’inscrivent sur une liste acceptant cet usage (vous pouvez par exemple générer une vidéo contenant Sam Altman, qui s’est inscrit sur cette liste).

Sur la propriété intellectuelle, la logique est inversée : initialement, les ayants droits étaient appelés à « se rapprocher d’OpenAI » pour que leur création ne puisse pas être réutilisée par Sora. C’était un pari très audacieux : si le consensus juridique se dirige sur le caractère légal (« fair use ») d’utiliser des données publiques pour entraîner une IA, réutiliser la propriété intellectuelle d’autrui entre dans le cadre des œuvres dérivées, bien plus contraignant ; la plupart des commentateurs s’accordent qu’il y a peu de chances qu’OpenAI puisse gagner une bataille juridique sur ce terrain, si certains ayants droits décident d’aller en justice. OpenAI semble avoir réalisé la même chose, faisant marche arrière une semaine après le lancement ; les ayants droits peuvent maintenant s’inscrire pour accepter que des éléments (personnages, lieux…) de leurs œuvres soient réutilisables par Sora, avec dans le futur un système de rémunération des ayants droit.

En se fondant sur ce modèle Sora 2, OpenAI décide de lancer un réseau social du même nom. L’idée est de partager vos créations avec vos connaissances, en particulier d’utiliser la capacité de Sora de mettre en scène des personnes pour créer des vidéos vous mettant en scène, vous et vos connaissances.

Meta lance également une offre similaire avec Vibes, xAI suit le mouvement (sans la partie « réseau social ») avec Grok Imagine

OpenAI obtient le feu vert pour son casse du siècle

Résumé rapide de l’affaire :

  • OpenAI a été fondé en 2015 et tant qu’organisation à but non lucratif, avec pour mission de « développer l’Intelligence Artificielle Générale pour le bénéfice de l’humanité ». Rappelons nous qu’en 2015 les larges modèle de langage sont un jouet pour chercheur, que le Winograd schema challenge est l’horizon indépassable pour la compréhension du langage naturel.
  • Afin de pouvoir recevoir des fonds d’investisseurs, en 2019 OpenAI restructure son organisation. OpenAI LLC (peu ou prou l’équivalent d’une SARL) est créé pour recevoir les financements et est l’organisation principale des opérations au jour le jour. L’organisation à but non lucratif existe toujours, et a le contrôle total de l’entreprise.
  • L’entreprise possède une caractéristique assez particulière, "capped for-profit", ce qui signifie que la quantité de profits reçus par les investisseurs est plafonnée (à un certain multiple, négocié au cas par cas, de l’investissement). Tout profit supplémentaire appartient légalement à l’organisation à but non lucratif.

C’est ce dernier point qui ennuie beaucoup les dirigeants d’OpenAI et les potentiels investisseurs aujourd’hui. Fin décembre 2024, l’entreprise déclare vouloir prendre son indépendance vis-à-vis de l’organisation à but non lucratif. Sur papier, cela est possible : l’entreprise peut racheter le contrôle auprès de l’organisation à but non lucratif, à condition que le prix soit juste (sinon, c’est il s’agit tout simplement d’abus de biens sociaux). Problème : comment évaluer le juste prix ? Celui-ci est composé de deux parties :

  • Le pouvoir de contrôle sur l’entreprise en elle-même, de décider de sa politique (par exemple, en rapport à la sécurité des modèles). Bien intangible, mais qu’il faut bien valoriser.
  • Plus compliqué : le prix aujourd’hui de la totalité des profits futurs après remboursement des investisseurs.

En 2024, le bruit courait d’une offre à 40 milliards, ce qui a rapidement donné lieu à une levée de boucliers, et l’utilisation par Zvi de l’expression « greatest theft in human history » (que j’ai traduite par « casse du siècle »). En mai 2024, OpenAI annonce renoncer à cette tentative, mais reprend en septembre 2024.

Aujourd’hui, après avoir négocié avec les procureurs généraux des états du Delaware (là où l’organisation à but non lucratif est incorporée) et de Californie (pour le siège de l’entreprise), OpenAI annonce avoir reçu le feu vert pour une restructuration.

Dans les grandes lignes :

  • Le pouvoir de contrôle sur l’entreprise reste entièrement dans les mains de l’organisation à but non lucratif.
  • La structure de profits de l’entreprise disparaît (et l’entreprise elle-même, se muant en PBC) pour suivre le modèle plus courant de parts sociales. L’organisation à but non-lucratif obtient 26% de ces parts (à comparer au plus gros investisseurs, Microsoft, qui obtient 27%).

Est-ce un juste prix ? Zvi défend que non, en nous offrant ces chiffres :

  • Le journaliste d’affaires Matt Levine estime à 272 milliards le plafond de profits allant aux investisseurs.
  • Un chiffre de 1000 milliards de valuation à l’introduction en bourse est utilisé (se référant à celui rapporté par Reuters).
  • Ce qui donne 260 milliards pour l’organisation à but non lucratif dans le nouveau système. Dans l’ancien, le chiffre aurait été plus proche de 500-750 milliards.

Il faut également prendre en compte que l’objectif d’OpenAI (que ce soit l’organisation ou l’entreprise) reste d’atteindre l’intelligence artificielle générale (AGI). Dans l’hypothèse où cet objectif est atteint, les profits seraient probablement un ou plusieurs ordres de magnitude plus grands (on peut citer ce papier de l’université de Virginie), ce qui élargit encore plus le gouffre entre l’ancien système et le nouveau — dans l’ancien, la quasi totalité des profits appartiendrait au final à l’organisation à but non lucratif, dans le nouveau, 26%.

Affaire close ? Pas nécessairement : d’autres parties que les procureurs généraux peuvent se saisir de la justice pour contester cette décision. Elon Musk en particulier a déjà dans le passé saisi la justice sur ce sujet, et pourrait encore le faire dans un futur proche.

En vrac

DeepMind présente Dreamer 4, un agent capable d’apprendre à naviguer dans un environnement avec très peu de données d’entraînement, en « imaginant » des interactions synthétiques — avec pour objectif d’appliquer cette méthode à la robotique.

OpenAI publie GPDval, un benchmark cherchant à mesurer au plus près les capacités économiques de l’IA, en se concentrant sur la question de quelles tâches économiquement productives l’IA peut se charger. Sur les tâches sélectionnées (avec pour critère : bien définies, avec un périmètre clair et un contexte simple, dans divers domaines), l’IA reste pour l’instant derrière l’humain, mais plus très loin derrière : la meilleure IA, Opus 4.1, gagne 47.6% (s’acquitte mieux de la tâche) du temps contre un professionnel du domaine.

Le FLI (Future of Life Institute) publie une lettre ouverte « Statement on Superintelligence » (« Communiqué sur la superintelligence »), trois courtes phrases : « We call for a prohibition on the development of superintelligence, not lifted before there is 1. broad scientific consensus that it will be done safely and controllably, and 2. strong public buy-in. » (« Nous appelons à une interdiction du développement de la superintelligence, qui ne devra être levée qu'après : 1) un large consensus scientifique établissant que cela peut être fait de manière sûre et contrôlable, et 2) une forte adhésion du public »). Parmi les signatures, de nombreux noms de tous horizons : académie, industrie, politique et gouvernement, et même du monde religieux.

OpenAI lance son propre navigateur, Atlas (pour l’instant, uniquement disponible sous MacOS), intégrant ChatGPT à la plupart des niveaux : autocomplétion dans la barre d’adresse, fonctionnalité « ouvrir une conversation avec le site actuel », emboîtant le pas à Perplexity Comet. Il est fortement probable que les attaques de type « injection de prompt » s’appliquent également, donc prudence.

DeepSeek publie une mise à jour incrémentale de son IA, DeepSeek 3.2. Essentiellement les mêmes performances que la version précédente, mais à un coût bien plus faible.

DeepSeek publie également DeepSeek-OCR. Une bestiole difficile à décrire : contrairement à ce que ce nom indique, ce n’est pas un simple OCR (même s’il peut s’acquitter de cette tâche très honorablement), mais une piste de recherche, opérationnaliser « un bon croquis vaut mieux qu’un long discours ». Plus précisément, DeepSeek essaie avec ce système de compresser n (par exemple 10) tokens textuels en 1 token de vision (pour une compression 1:10). Les résultats semblent bons, avec 90% de précision avec une compression 1 pour 10.

Anthropic étudie la capacité d’introspection de ses modèles, et trouve un résultat positif. Par exemple, les développeurs peuvent identifier un circuit associé à un certain concept (par exemple, « piano »), l’activer, et demander au modèle « À quoi penses-tu actuellement ? » (sans que le concept soit explicitement mentionné dans le prompt) ; le modèle est généralement capable de mentionner le concept.

DeepMind, en collaboration avec l’université de Yale, publie un modèle open-weight spécialisé dans l’analyse cellulaire. Le modèle semble capable de faire des découvertes inédites.

Nouvelle confrontation sur le droit d’auteur : Disney met en demeure Character AI.

Anthropic libère sur github un outil d’évaluation dans le cadre de la sécurité des modèles, utilisé notamment pour évaluer des comportements problématiques comme la flagornerie ou la tromperie.

Epoch AI publie une visualisation quelques données économiques sur les grands acteurs du secteur.

Des chercheurs publient une nouvelle méthode pour spécialiser un LLM à un usage précis, sans avoir accès privilégié aux paramètres du modèle lui-même. Cela permet de spécialiser des modèles propriétaires.

Que se passe-t-il lorsque l’on applique une phase d’apprentissage par renforcement sur des tâches de type « créer de l’engagement sur les réseaux sociaux » ou « augmenter les ventes d’un produit » ? Un papier explore la question, et montre qu’un tel entraînement supplémentaire encourage les modèles à mentir ou répandre de la désinformation, et que l’effet ne disparaît pas en demandant au modèle de ne pas utiliser de telles méthodes dans son « prompt système ».

Autre papier d’Anthropic sur la sécurité des modèles, montrant qu’il est possible d’« empoisonner » l’entraînement des modèles (c’est-à-dire l’entraîner à donner une réponse spécifique à une entrée ésotérique) à l’aide d’un faible nombre de documents (relativement à la taille du corpus d’entraînement total).

Du mouvement sur le financement du développement de l’IA : OpenAI est évalué à $500 milliards ; xAI fait une levée de fonds pour $20 milliards ; AMD investit dans OpenAI, ainsi que Nvidia. Un article intéressant fait le parallèle avec certains montages pendant la bulle dot-com, notant également des différences importantes.

En Janvier, OpenAI annonçait que Microsoft ne serait plus leur fournisseur unique d’infrastructure, citant un manque de capacités. The Information (paywall) révèle que Microsoft craint que les demandes de capacités de OpenAI soient injustifiées et que les satisfaire conduise à terme à mettre en place des capacités qui ne seront pas utilisées.

Un nouveau benchmark, AutumnBench, assez similaire à ARC-AGI, où l’IA reste loin derrière les performances humaines.

Un billet de blog intéressant sur les efforts de lobbying de l’industrie de l’IA.

METR ajoute Sonnet 4.5 à son évaluation, qui arrive pile poil sur la ligne de tendances.

L’IA (plus précisément : GPT-5 et Gemini 2.5 Pro) obtient un score de médaille d’or sur les Olympiades Internationales d’Astronomie et d’Astrophysique.

Envie d’apprendre comment fonctionne l’IA ? Andrey Karpathy publie en open-source nanochat, pour entraîner soi-même un modèle minimal, de A à Z.

ChatGPT se dote d’un système de contrôle parental.

xAI lance une encyclopédie générée par son IA, Grok, nommée Grokipedia. Elle fait partie de la croisade d’Elon Musk contre ce qu’il considère des biais de gauche sur Wikipedia.

Un papier étudie en détails la capacité des modèles à résister au jailbreak ou plutôt leur incapacité : aucun modèle ne résiste à un attaquant humain déterminé.

Anthropic publie son modèle "léger" (moins cher, plus rapide, moins performant), Haiku 4.5.

Cursor, l’assistant de code propriétaire, développe son propre modèle, Composer.

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Classement des meilleurs modèles IA pour créer des images

Avec la profusion de nouveautés en matière d’intelligence artificielle, ce n’est pas forcément facile de s’y retrouver. Chaque jour, il y a des nouveaux modèles qui sortent pour générer du texte, des images, des vidéos, de la musique et etc … L’actualité autour de l’IA est très riche et cela peut parfois devenir difficile de ... Lire la suite

L’article Classement des meilleurs modèles IA pour créer des images est apparu en premier sur ZoneTuto.

Des chercheurs de Microsoft développent un modèle d'IA hyper-efficace qui peut fonctionner sur les CPU, BitNet b1.58 2B4T, le plus grand modèle d'IA à 1 bit à ce jour avec 2 milliards de paramètres

Des chercheurs de Microsoft développent un modèle d'IA hyper-efficace qui peut fonctionner sur les CPU, BitNet b1.58 2B4T, le plus grand modèle d'IA à 1 bit à ce jour avec 2 milliards de paramètres

Des chercheurs de Microsoft affirment avoir mis au point le plus grand modèle d'IA à 1 bit, également connu sous le nom de « bitnet », à ce jour. Baptisé BitNet b1.58 2B4T, il est disponible sous licence MIT et peut fonctionner sur des CPU, y compris le M2 d'Apple. Les bitnets sont essentiellement des...

OpenAI publie Codex CLI, un agent de codage local open-source dans les environnements de terminal qui transforme le langage naturel en code de travail

OpenAI publie Codex CLI, un agent de codage local open-source dans les environnements de terminal qui transforme le langage naturel en code de travail

Dans le but d'injecter l'IA dans une plus grande partie du processus de programmation, OpenAI lance Codex CLI, un "agent" de codage conçu pour fonctionner localement à partir d'un logiciel terminal. Annoncé en même temps que les nouveaux modèles d'IA d'OpenAI, o3 et o4-mini, Codex CLI relie les modèles d'OpenAI au code local et aux tâches...

Anthropic pourrait lancer un nouveau modèle d'IA "hybride" doté d'un raisonnement avancé, le modèle permettra aux développeurs d'équilibrer la vitesse et la puissance de calcul à l'aide d'une échelle mobile

Anthropic pourrait lancer un nouveau modèle d'IA "hybride" doté d'un raisonnement avancé, le modèle permettra aux développeurs d'équilibrer la vitesse et la puissance de calcul à l'aide d'une échelle mobile

Anthropic s'apprêterait à sortir un nouveau modèle d'IA dans les semaines à venir. The Information a décrit le prochain modèle d'Anthropic comme un « hybride » capable de passer d'un « raisonnement profond » à des réponses rapides via son grand modèle de langage (LLM) lorsque cela est...

L'intégration de modèles d'IA générative rend les poupées sexuelles « plus réactives et interactives », selon WMDoll qui s'attend à une augmentation de ses ventes de 30 %

L'intégration de modèles d'IA générative rend les poupées sexuelles « plus réactives et interactives », selon WMDoll
qui s'attend à une augmentation de ses ventes de 30 %

En 2025, l'industrie des poupées sexuelles connaît un véritable essor, avec une augmentation marquée des ventes, notamment en Chine. Cette hausse est en grande partie attribuée aux progrès significatifs réalisés dans l'intégration de l'intelligence artificielle (IA), rendant ces poupées plus réactives et interactives. Liu...

La startup française d'IA Mistral lance l'application mobile Le Chat pour iPhone et Android, et introduit également les niveaux de service Pro et Team, ainsi qu'un niveau Enterprise en avant-première privée

La startup française d'IA Mistral lance l'application mobile Le Chat pour iPhone et Android, et introduit également les niveaux de service Pro et Team, ainsi qu'un niveau Enterprise en avant-première privée.

Mistral AI, la startup française considérée comme étant à la pointe du développement de l'IA en Europe, a lancé une application de chatbot IA appelée Le Chat pour les appareils iOS et Android. L'application Le Chat est la version mobile de l'assistant d'IA de Mistral AI qui porte le même nom....

Un nouveau projet de loi californien oblige les entreprises d'IA à informer les enfants que les chatbots ne sont pas des humains, afin de les protéger des "aspects addictifs, isolants et influents" de l'IA

Un nouveau projet de loi californien oblige les entreprises d'IA à informer les enfants que les chatbots ne sont pas des humains, afin de les protéger des "aspects addictifs, isolants et influents" de l'IA.

Un nouveau projet de loi californien exige que les entreprises d'IA rappellent aux enfants que les chatbots sont des intelligences artificielles et non des humains. Les entreprises d'IA doivent soumettre des rapports au gouvernement concernant les pensées suicidaires des enfants et...

Les vidéos de deepfake deviennent étonnamment bonnes : l'IA chinoise OmniHuman-1 peut générer les vidéos de deepfake les plus réalistes à ce jour, parlant, chantant et bougeant, à partir d'une seule photo

Les vidéos de deepfake deviennent étonnamment bonnes : l'IA chinoise OmniHuman-1 peut générer les vidéos de deepfake les plus réalistes à ce jour, parlant, chantant et bougeant, à partir d'une seule photo.

Des chercheurs de ByteDance, propriétaire de TikTok, ont fait la démonstration d'un nouveau système d'IA, OmniHuman-1, capable de générer les vidéos deepfake les plus réalistes à ce jour. Le modèle n'a besoin que d'une seule image de référence et d'un son pour générer un clip vidéo. OmniHuman...

Le Texas interdit l'IA chinoise DeepSeek : "Le Texas ne permettra pas au Parti communiste chinois d'infiltrer l'infrastructure critique de notre État par le biais de l'IA et des applications de médias sociaux"

Le Texas interdit l'IA chinoise DeepSeek : "Le Texas ne permettra pas au Parti communiste chinois d'infiltrer l'infrastructure critique de notre État par le biais de l'IA et des applications de médias sociaux."

Le gouverneur du Texas, Greg Abbott, a annoncé qu'il interdisait aux fonctionnaires d'utiliser DeepSeek, Xiaohongshu (RedNote) et Lemon8 sur les appareils fournis par l'État. Les préoccupations en matière de confidentialité des données et de sécurité nationale ont déjà incité plusieurs...

Un sénateur américain propose d'infliger une peine de 20 ans de prison pour l'utilisation de DeepSeek avec une amende d'un million de dollars pour les particuliers, et 100 millions pour les entreprises

Un sénateur américain propose d'infliger une peine de 20 ans de prison pour l'utilisation de DeepSeek avec une amende d'un million de dollars pour les particuliers
et 100 millions pour les entreprises

Le sénateur Josh Hawley (R-MO) attire l'attention avec un projet de loi qui propose des mesures à l'encontre des Américains utilisant les technologies d'IA chinoises. Il vise à interdire aux ressortissants des États-Unis de « développer des capacités d'IA en Chine, et à d'autres fins ». Il pourrait...

Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza, l'entreprise avait affirmé ne travailler qu'avec des ministères civils

Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza,
l'entreprise avait affirmé ne travailler qu'avec des ministères civils

Des documents internes obtenus par le Washington Post révèlent que Google a collaboré directement avec l'armée israélienne pour fournir des outils d'intelligence artificielle (IA) après l'invasion de la bande de Gaza par Israël. Cette collaboration a eu lieu malgré les déclarations publiques...

Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza, l'entreprise avait affirmé ne travailler qu'avec des ministères civiles

Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza,
l'entreprise avait affirmé ne travailler qu'avec des ministères civiles

Des documents internes obtenus par le Washington Post révèlent que Google a collaboré directement avec l'armée israélienne pour fournir des outils d'intelligence artificielle (IA) après l'invasion de la bande de Gaza par Israël. Cette collaboration a eu lieu malgré les déclarations publiques...

Pour étudier les dirigeants mondiaux, la CIA discute avec leurs clones IA, en utilisant les renseignements recueillis par les espions pour créer des profils IA pouvant prédire les comportements des dirigeants

Pour étudier les dirigeants mondiaux, la CIA discute avec leurs clones IA, en utilisant les renseignements recueillis par les espions pour créer des profils IA pouvant prédire les comportements des dirigeants

Au cours des deux dernières années, la CIA a développé un chatbot IA pour aider les analystes à créer des profils détaillés de dirigeants étrangers, renforçant ainsi les capacités technologiques de l'agence.

La Central Intelligence Agency (CIA) est un service civil de renseignement extérieur...

Le nouveau jailbreak des LLM exploite leurs capacités d'évaluation pour les contourner, les chercheurs de Palo Alto exploitent l'échelle de Likert pour contourner les LLM

Le nouveau jailbreak des LLM exploite leurs capacités d'évaluation pour les contourner,
les chercheurs de Palo Alto exploitent l'échelle de Likert pour contourner les LLM

Le phénomène des jailbreaks des grands modèles de langage (LLM) illustre les défis croissants liés à la gestion des systèmes d'intelligence artificielle, en particulier lorsqu'ils sont confrontés à des tentatives d'exploitation. L'une des méthodes récentes, baptisée « Bad Likert Judge », a mis en lumière une approche sophistiquée...

Il est facile d'injecter de nouvelles informations médicales erronées dans les LLM, il suffit de modifier 0,001 % des données d'entrée pour rendre l'IA moins précise

Il est facile d'injecter de nouvelles informations médicales erronées dans les LLM, il suffit de modifier 0,001 % des données d'entrée pour rendre l'IA moins précise.

Une nouvelle étude évalue les menaces en simulant une attaque par empoisonnement des données contre The Pile, un ensemble de données populaire utilisé pour le développement des LLM. Les chercheurs ont constaté que le remplacement de seulement 0,001 % des jetons d'entraînement par des informations médicales erronées donne lieu à des...

Les courriels de phishing générés par l'IA deviennent très efficaces pour cibler les cadres, les courriels hyper-personnalisés utilisent une immense quantité de données récupérées

Les courriels de phishing générés par l'IA deviennent très efficaces pour cibler les cadres, les courriels hyper-personnalisés utilisent une immense quantité de données récupérées

eBay et Beazley seraient la cible d'escroqueries par hameçonnage générées par l'IA. Ces escroqueries par hameçonnage seraient personnalisées à l'aide de systèmes d'IA qui auraient récupéré des données sur les employés. L'IA facilite la cybercriminalité et serait utilisée pour rédiger des courriels de phishing "parfaits".

Le...

Les logiciels pour utiliser l’intelligence artificielle en local

Que le temps passe vite, cela faisait bien longtemps que je ne vous avais pas écrit un petit article sur l’intelligence artificielle. Ce n’est pas par manque d’envie, mais malheureusement encore une fois par manque de moments disponible pour vous écrire ici. Rassurez-vous je ne suis jamais très loin et j’essaie de garder le rythme ... Lire la suite

L’article Les logiciels pour utiliser l’intelligence artificielle en local est apparu en premier sur ZoneTuto.

Google Deepmind présente Veo 2, un nouvel outil de génération de vidéos par l'IA pour créer des "vidéos d'une qualité incroyable", dans le but de battre Sora d'OpenAI et d'être le meilleur modèle IA vidéo

Google Deepmind présente Veo 2, un nouvel outil de génération de vidéos par l'IA pour créer des "vidéos d'une qualité incroyable" dans le but de battre Sora d'OpenAI et d'être le meilleur modèle IA vidéo

Google Deepmind a présenté Veo 2, un nouvel outil de génération de vidéos par intelligence artificielle (IA) qui s'appuie sur le Veo original et crée des "vidéos d'une qualité incroyable". Cette annonce intervient après le lancement de la version officielle de Sora, le modèle...

La version 1.96 de Visual Studio Code est disponible, apportant des améliorations à l'éditeur, aux traitements des langages, aux tests, ainsi qu'à l'assistant d'IA Github Copilot

La version 1.96 de Visual Studio Code est disponible, apportant des améliorations à l'éditeur, aux traitements des langages, aux tests, ainsi qu'à l'assistant d'IA Github Copilot.

Microsoft annonce la disponibilité de la version de novembre 2024 (1.96) de Visual Studio Code. Cette version apporte de nombreuses mises à jour, notamment à l'éditeur, aux traitements de langage, aux tests, ainsi qu'au plan de travail. Cette version comporte également des améliorations à l'assistant d'IA Github Copilot.

Parmi...

Chameleon : un modèle d'IA capable de vous protéger de la reconnaissance faciale grâce à un masque numérique sophistiqué, l'outil vise à empêcher la formation de l'IA générative sur des images personnelles

Chameleon : un modèle d'IA capable de vous protéger de la reconnaissance faciale grâce à un masque numérique sophistiqué
l'outil vise à empêcher la formation de l'IA générative sur des images personnelles

Un groupe de chercheurs a mis au point un système d'IA capable de protéger les utilisateurs contre la reconnaissance faciale indésirable par des acteurs malveillants. Baptisé Chameleon, le modèle d'IA utilise une technologie spéciale de masquage pour générer un masque qui dissimule les visages...

C’EST PAS DE L’IA

Quand on entend parler d’intelligence artificielle, c’est l’histoire d’un mythe moderne qui nous est racontée. Celui d’une IA miraculeuse qui doit sauver le monde, ou d’une l’IA douée de volonté qui voudrait le détruire. Pourtant derrière cette « IA » fantasmée se trouve une réalité matérielle avec de vraies conséquences. Cette thématique sera centrale dans notre travail en 2025, voilà pourquoi nous commençons par déconstruire ces fantasmes : non, ce n’est pas de l’IA, c’est l’exploitation de la nature, l’exploitation des humains, et c’est l’ordonnancement de nos vies à des fins autoritaires ciblant toujours les personnes les plus vulnérables.

Pour faire vivre notre combat contre le numérique autoritaire, capitaliste et écocide, et poursuivre notre travail de proposition positive pour un numérique libre, émancipateur et fédérateur, nous avons besoin de votre soutien !

C’est pas de l’IA, c’est de l’exploitation dernier cri

L’IA est le prolongement direct des logiques d’exploitation capitalistes. Si cette technologie a pu émerger, c’est du fait de l’accaparement de nombreuses ressources par le secteur de la tech : d’abord nos données personnelles, puis d’immenses capitaux financiers et enfin les ressources naturelles, extraites en reposant sur le colonialisme ainsi que sur le travail humain nécessaires à l’entraînement des modèles d’IA. Une fois déployée dans le monde professionnel et le secteur public, l’IA aggrave la précarisation et la déqualification des personnes au nom d’une course effrénée à la productivité.

Faire un don

C’est pas de l’IA, c’est une immense infrastructure écocide

L’essor de l’IA repose sur l’extraction de minerais rares afin de fabriquer les puces électroniques indispensables à ses calculs. Elle conduit aussi à la multiplication des data centers par les multinationales de la tech, des équipements gigantesques et coûteux en énergie qu’il faut en permanence refroidir. Partout sur la planète, des communautés humaines se voient ainsi spoliées de leur eau, tandis qu’on rallume des centrales à charbons pour produire l’électricité nécessaire à leur fonctionnement. Derrière les discours de greenwashing des entreprises, les infrastructures matérielles de l’IA génèrent une augmentation effrayante de leurs émissions de gaz à effet de serre.

C’est pas de l’IA, c’est l’automatisation de l’État policier

Que ce soit au travers de la police prédictive ou de la vidéosurveillance algorithmique, l’IA amplifie la brutalité policière et renforce les discriminations structurelles. Derrière un vernis prétendument scientifique, ces technologies arment la répression des classes populaires et des militant·es politiques. Elles rendent possible une surveillance systématique de l’espace public urbain et, ce faisant, participent à l’avènement d’un monde où le moindre écart à la norme peut être détecté puis puni par l’État.

C’est pas de l’IA, c’est la chasse aux pauvres informatisée

Sous couvert de « rationalisation », l’IA envahit les administrations sociales à travers le développement d’algorithmes auto-apprenants visant à détecter de potentiels fraudeurs. Allocations Familiales, Assurance Maladie, Assurance Vieillesse, Mutualité Sociale Agricole : ces systèmes sont aujourd’hui déployés dans les principales administrations de l’« État providence ». Associant un « score de suspicion » à chacune d’entre nous pour sélectionner les personnes à contrôler, nos recherches montrent qu’ils ciblent délibérément les personnes les plus précaires .

C’est pas de l’IA, c’est la mise aux enchères de notre temps de cerveau disponible

L’accaparement de nos données personnelles permet de nourrir les IA de profilage publicitaire, qui associent en temps réel des publicités à nos « profils » vendus aux plus offrants. Cette marchandisation de notre attention a aussi pour effet de façonner les réseaux sociaux centralisés, régulés par des IA de recommandation de contenus qui les transforment en lieux de radicalisation binaire des camps politiques. Enfin, pour développer des produits comme ChatGPT, les entreprises du secteur doivent amasser d’immenses corpus de textes, de sons et d’images, s’appropriant pour ce faire le bien commun qu’est le Web.

Faire un don

Pourquoi nous faire un don cette année ?

Pour boucler le budget de l’année qui vient, nous souhaitons récolter 260 000 € de dons, en comptant les dons mensuels déjà existants, et tous les nouveaux dons mensuels ou ponctuels.

À quoi servent concrètement vos dons ?

L’association a une fantastique équipe de membres bénévoles, mais elle a aussi besoin d’une équipe salariée.
Les dons recueillis servent principalement à payer les salaires des permanentes de l’association (75 % des dépenses). Les autres frais à couvrir sont le loyer et l’entretien du local, les déplacements en France et à l’étranger (en train uniquement), les frais liés aux campagnes et aux évènements ainsi que les divers frais matériels propres à toute activité militante (affiches, stickers, papier, imprimante, t-shirts, etc.).

Pour vous donner une idée, quand on ventile nos dépenses de 2024 (salaires inclus) sur nos campagnes, en fonction du temps passé par chacun·e sur les sujets de nos luttes, ça ressemble à ça :
Algos : 13 %, Technopolice : 10 %, VSA : 11 %, Chiffrement : 3,45 %, GAFAM : 3 %, IA : 5 %, Surveillance & fichage : 4 %, Surveillance des militants : 4 %, Numérique & écologie : 6 %, Plateformes : 4 %, Communauté : 20% (relations avec d’autres associations, rencontres publiques, week-ends de travail avec des bénévoles, participation à des festivals et au chos communication Camp (CCC)), Vie de l’association : 17,44 % (réunions internes, AG, temps de réflexion stratégique, coordination de l’association, campagne de dons, achat et envoi des contreparties)

Quelles sont nos sources de financement ?

L’association ne touche aucun argent public, mais reçoit des soutiens, à hauteur de 40 % de son budget, de la part de diverses fondations philanthropiques : la Fondation pour le progrès de l’Homme, la fondation Un monde par tous, Open Society Foundations, la Limelight Foundation et le Digital Freedom Fund.
Le reste de notre budget provient de vos dons. Alors si vous le pouvez, aidez-nous !
Attention, comme nous l’expliquons dans la FAQ de notre site, les dons qui sont faits à La Quadrature ne sont pas déductibles des impôts, les services fiscaux nous ayant refusé cette possibilité à deux reprises.

Comment donner ?

Vous pouvez faire un don par CB, par chèque, ou par virement bancaire.
Et si vous pouvez faire un don mensuel — même un tout petit ! — n’hésitez pas, ce sont nos préférés : en nous assurant des rentrées d’argent tout au long de l’année, ils nous permettent de travailler avec plus de confiance dans la pérennité de nos actions.
En plus, le cumul de vos dons vous donne droit à des contreparties (sac, t-shirt, sweat). Attention, l’envoi n’est pas automatique, il faut vous connecter et faire la demande sur votre page personnelle de donateur/donatrice. Et si les contreparties tardent un peu à arriver, ce qui n’est pas rare, c’est parce qu’on est débordé·es, ou qu’on attend le réassort dans certaines tailles, et aussi parce qu’on fait tout ça nous-mêmes avec nos petites mains. Mais elles finissent toujours par arriver !

Merci encore pour votre générosité, et merci beaucoup pour votre patience <3 Faire un don

La startup française d'IA Mistral a publié ses premiers modèles d'IA générative "Les Ministraux" conçus pour être exécutés sur des appareils périphériques, ils seraient plus performants que Llama et Gemma

La startup française Mistral AI annonce la sortie de Large 2, son nouveau LLM phare avec 123 milliards de paramètres, qui serait meilleur pour générer du code, des mathématiques et du raisonnement.

Mistral AI annonce la sortie de Mistral Large 2, la nouvelle génération de son grand modèle de langage. Par rapport à son prédécesseur, Mistral Large 2 est nettement plus performant en matière de génération de code, de mathématiques et de raisonnement. Il offre également un support multilingue beaucoup...

Les LLM réduisent le partage des connaissances publiques sur les plateformes de questions-réponses en ligne : il y a moins de contenu valable pour former les IA, qui finissent donc par s'auto-empoisonner

Stack Overflow est la victime de ChatGPT avec baisse du trafic de 14 %,
alors que ChatGPT a attiré 1,6 milliard de visites en mars et 920,7 millions au cours de la première quinzaine d'avril

Dans un billet de blog publié le 19 avril, David F. Carr, Senior Manager au sein de l'équipe Similarweb, présente l'impact de ChatGPT, un chatbot basé sur l'intelligence artificielle, sur le trafic de Stack Overflow, un site web communautaire pour les développeurs. Pour étayer ses déclarations, explique que...

Zoom va lancer des avatars IA, vos « jumeaux numériques », pour assister à des réunions à votre place et communiquer avec vos collaborateurs en entreprise en votre nom

Le fondateur de Zoom, Eric Yuan, envisage d'intégrer des clones d'IA, ou « jumeaux numériques », dans les réunions,
pour représenter les utilisateurs et prendre des décisions en leur nom

Eric Yuan, PDG et fondateur de Zoom, envisage d'intégrer des clones d'intelligence artificielle (IA), ou « jumeaux numériques », dans les réunions pour représenter les utilisateurs et prendre des décisions en leur nom. Ayant fondé Zoom après avoir travaillé chez Cisco, Yuan a simplifié la vidéoconférence et vu...

«Les étudiants qui utilisent l'IA comme béquille n'apprennent rien», d'après Ethan Mollick. Il estime que cela conduit à une paresse intellectuelle affectant leur capacité à réfléchir aux problèmes complexes

Le Directeur de la formation et de la recherche de SciencesPo interdit aux étudiants d'utiliser le chatbot ChatGPT
A l'exception d'un usage pédagogique encadré par un enseignant

Ce qu'on sait de cette intelligence artificielle de l'entreprise OpenAI est qu'il s'agit d'un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. Certains la qualifient même de remplaçant de Google. D'ailleurs, Microsoft et OpenAI seraient lancés sur une version du moteur de recherche Bing...

Canvas d'OpenAI peut traduire le code d'un langage de programmation à un autre en quelques clics, mais des défis subsistent comme la qualité du code généré, une dépendance à l'IA ou la sécurité des données

Que vaut vraiment ChatGPT en matière de codage informatique ? Une étude confirme que les entreprises exagèrent sur les capacités de l'IA
Et surtout sur son aptitude à remplacer les humains dans la filière

Une remarque clé ressort de cette étude : ChatGPT peut s'avérer très bon à résoudre des problèmes de codage qui existaient sur la plateforme LeetCode avant 2021. Passé cette période, ChatGPT fait montre de piètres performances en raison de la qualité du jeu de données d'entraînement. Grosso modo,...

Microsoft annonce la version stable de la bibliothèque officielle OpenAI pour .NET, afin de permettre aux développeurs d'intégrer des services Azure OpenAI de modèles d'IA avancés dans leurs applications .NET

Microsoft annonce la version stable de la bibliothèque officielle OpenAI pour .NET, afin de permettre aux développeurs d'intégrer des services Azure OpenAI de modèles d'IA avancés dans leurs applications .NET

Microsoft a lancé en juin dernier la première version bêta de la bibliothèque OpenAI pour .NET, permettant aux développeurs d'intégrer des modèles d'intelligence artificielle (IA) avancés dans leurs applications. Ce 1er octobre 2024, Microsoft annonce que la version stable de la bibliothèque...

Des étudiants de Harvard ajoutent la reconnaissance faciale aux lunettes connectées Ray-Ban de Meta pour identifier les inconnus en temps réel, la démonstration met en évidence le côté obscur de ces gadgets

Des étudiants de Harvard ajoutent la reconnaissance faciale aux lunettes connectées Ray-Ban de Meta pour identifier les inconnus en temps réel
la démonstration met en évidence le côté obscur de ces gadgets

Deux étudiants de Harvard ont créé une démonstration inquiétante de la façon dont les lunettes connectées peuvent faire appel à la reconnaissance faciale pour obtenir instantanément l'identité, le numéro de téléphone et l'adresse d'une personne. Leur démonstration utilise des technologies actuelles...

Pour ou contre de telles mesures ? Michel Barnier envisage de généraliser la vidéosurveillance algorithmique en France et y matérialiser la fiction Big Brother de 1984 comme c'est le cas en Chine

Pour ou contre de telles mesures ? Michel Barnier envisage de généraliser la vidéosurveillance algorithmique en France
Et y matérialiser la fiction Big Brother de 1984 comme c'est le cas en Chine

C'est au terme du premier trimestre de l'année précédente que l'assemblée nationale française a approuvé l'utilisation de caméras de vidéosurveillance assistées par l'intelligence artificielle. L'objectif : assurer la sécurité des derniers Jeux olympiques de Paris. Les groupes de défense des droits de l'Homme...

Plus un modèle de langage IA est étendu avec plus d'instructions et d'entraînements, plus il manque de fiabilité et produit des réponses avec confiance mais incorrectes

Plus le modèle de langage de l'IA est étendu avec plus d'instructions et d'entraînements à l'alignement, plus les modèles manquent de fiabilité et produisent des réponses avec confiance mais incorrectes.

Une étude confirme que plus un modèle de langage d'IA est mis à l'échelle avec plus d'instructions et de formations d'alignement, plus les modèles deviennent peu fiables, produisant des réponses avec confiance mais incorrectes. Ces résultats soulignent la nécessité d'un changement fondamental dans...

❌