Le 26 mars 2026, Meta a dévoilé TRIBE v2, un modèle open source capable de prédire « la réaction du cerveau humain à presque tous les sons et images ». Son objectif : reproduire, sans passer par un scanner, les schémas d’activité cérébrale déclenchés par des contenus visuels, sonores ou textuels.
Dix ans après avoir sécurisé WhatsApp, le créateur du protocole Signal, Moxie Marlinspike, récidive. Son nouveau projet, Confer, va s'intégrer à Meta AI pour garantir que vos échanges avec l'intelligence artificielle restent strictement privés, même pour Mark Zuckerberg.
Meta continue d’alimenter son IA avec du contenu premium. Le groupe de Mark Zuckerberg vient de signer un accord de licence avec News Corp. Ainsi, Meta utilisera les archives et les articles de Wall Street Journal et d’autres médias pour améliorer les réponses de son chatbot Meta AI et entraîner ses futurs modèles.
Depuis plusieurs mois, les géants de la tech multiplient les accords avec les médias. Ils veulent nourrir leurs modèles avec des sources fiables et structurées. Meta, lui, vient de s’associer avec News Corp, un groupe qui possède notamment le Wall Street Journal.
Selon les informations publiées par le quotidien économique, l’accord pourrait atteindre 50 millions de dollars par an pendant trois ans. Cette somme importante donnera à Meta le droit d’utiliser les contenus éditoriaux du groupe pour améliorer son IA.
Meta veut nourrir son IA avec des sources fiables comme le Wall Street Journal
L’accord permet donc à Meta d’utiliser le contenu du Wall Street Journal et d’autres médias appartenant à News Corp dans deux cas précis. D’abord pour entraîner ses modèles d’intelligence artificielle. Les systèmes d’IA générative ont besoin d’énormes volumes de texte pour apprendre à comprendre le langage. Et aussi pour analyser des faits et produire des réponses cohérentes.
Ensuite pour alimenter directement les réponses du chatbot Meta AI. Cela signifie que certaines réponses pourront s’appuyer sur des informations issues de ces publications.
Pour Meta, l’enjeu est d’améliorer la qualité et la crédibilité de son assistant conversationnel. Les IA génératives sont souvent critiquées pour leurs approximations ou leurs informations datées. Ainsi, intégrer des sources journalistiques reconnues augmentera la fiabilité des réponses.
Meta Platforms has signed a multiyear AI content licensing deal with News Corp that will pay the Wall Street Journal owner up to $50 million a year https://t.co/6vAMfvebwI
Dans une déclaration précédente sur sa stratégie, Meta expliquait vouloir intégrer davantage de sources d’information variées. L’entreprise veut offrir des contenus plus pertinents et plus actuels à ses utilisateurs.
Les détails officiels restent discrets, mais d’après les informations du Wall Street Journal, Meta pourrait payer jusqu’à 50 millions de dollars par an, pour un engagement de trois ans. L’accord couvrirait les contenus de plusieurs marques de News Corp aux États-Unis et au Royaume-Uni.
Les groupes de presse disposent d’un avantage avec des millions d’articles structurés, vérifiés et couvrant des décennies d’actualité. Pour les développeurs d’IA, ce type de contenu représente une matière première particulièrement précieuse.
Les médias passent de la confrontation au partenariat
Pendant longtemps, les relations entre entreprises d’IA et médias ont été tendues. Plusieurs rédactions accusent les modèles d’avoir été entraînés sur leurs contenus sans autorisation. Mais, News Corp adopte désormais une approche très claire face à cette situation. Son PDG Robert Thomson parle d’“une stratégie mêlant “persuasion et poursuites”.
News Corp CEO Robert Thomson warns AI companies scraping without paying: ‘We’re coming for you’
Meta will pay News Corp up to $50m per year for at least three years under a new licensing deal https://t.co/3j142NgMnf
Les entreprises technologiques ont donc deux choix. Négocier un accord de licence ou risquer une bataille judiciaire. Les groupes de médias veulent être rémunérés si leurs contenus servent à entraîner des modèles d’IA. Ces derniers pourront ensuite générer des réponses ou des articles.
Et cette position commence à porter ses fruits. Meta a déjà signé des accords similaires avec plusieurs médias, dont CNN, Fox News, USA Today ou encore People. Pour les plateformes, payer pour ces contenus peut aussi réduire les risques juridiques qui entourent encore l’entraînement des modèles d’IA.
Pourquoi la qualité des données compte pour entraîner une IA ?
Les modèles d’IA progressent rapidement, mais leur performance dépend directement des données utilisées pour les entraîner. Les entreprises qui contrôlent les meilleures sources d’information disposent donc d’une longueur d’avance.
Les archives d’un média comme le Wall Street Journal représentent des décennies d’analyses économiques, de reportages et d’enquêtes. Pour un système d’IA, c’est une base d’apprentissage extrêmement riche.
Dans le même temps, les groupes de presse cherchent de nouveaux modèles économiques. Puisque les revenus publicitaires et les abonnements sont sous pression. Les licences accordées aux entreprises d’IA pourraient devenir une nouvelle source de revenus pour le journalisme.
Par ailleurs, je pense que l’accord entre Meta et le propriétaire de Wall Street Journal n’est probablement qu’une étape. Les entreprises d’IA vont continuer à chercher des contenus fiables, récents et vérifiés pour améliorer leurs modèles. Les médias, eux, vont tenter de monétiser ces archives qui prennent soudain une valeur stratégique.
Toutefois, ils devront analyser jusqu’où les plateformes pourront-elles intégrer du contenu journalistique dans leurs assistants ? Et comment s’assurer que les médias restent visibles si les utilisateurs obtiennent directement les réponses via un chatbot ?
Ce qui est sûr c’est que l’IA devient un nouvel intermédiaire de l’information. Et les archives journalistiques deviennent l’un des carburants les plus précieux de l’économie numérique.
Disponible sur le Google Play Store, l'application « Nearby Glasses », développée par un amateur, attire l’attention. Elle permet à ses utilisateurs d’être avertis si des personnes à proximité portent des lunettes « intelligentes », comme les lunettes Ray-Ban de Meta.
Ce 23 février 2026, Summer Yue est au centre des discussions tech sur X. La responsable de l’alignement IA chez Meta a raconté comment son agent autonome OpenClaw lui a désobéi, supprimant sans autorisation des emails de sa boîte Gmail. Un incident qui soulève de sérieuses questions sur la fiabilité des agents IA.
Le groupe américain Meta vient d’annoncer le rachat de Manus, une startup fondée en Chine et spécialisée dans le pilotage d’agents d’IA généralistes. Si les spéculations autour du montant de la transaction font les gros titres, cette acquisition en dit long sur les ambitions de la société de Mark Zuckerberg, mais aussi sur l’orientation prise par l’industrie de l’IA dans son ensemble. On en a discuté avec le chatbot qui, précisément, n’a pas pour vocation à bavarder.
Dans la guerre de l’IA, Meta ne parie plus sur des prototypes mais sur des combattants déjà rentables. En rachetant Manus pour 2 milliards de dollars, Mark Zuckerberg met la main sur une startup d’agents IA qui génère déjà plus de 100 millions de dollars par an. Un choix stratégique qui dit beaucoup de l’état réel du marché fin 2025: l’ère des démos spectaculaires touche à sa fin, place aux IA capables de travailler… et de payer leurs factures.
Dans l’arène de l’intelligence artificielle, les discours ne suffisent plus. Les démonstrations spectaculaires non plus. Ce qui compte désormais, ce sont les combattants capables de rentrer vivants au vestiaire avec autre chose que des promesses.
En déboursant 2 milliards de dollars pour racheter Manus, Meta ne fait pas qu’ajouter une ligne à son portefeuille. Il désigne un champion. Et surtout, il envoie un message très clair au marché.
Depuis deux ans, Mark Zuckerberg a fait tapis sur l’IA. Infrastructures colossales, data centers énergivores, recrutements agressifs. Le problème, c’est que cette stratégie coûte cher, très cher.
Environ 60 milliards de dollars engagés, pendant que les investisseurs commencent à se demander quand la machine va enfin cracher autre chose que des slides PowerPoint.
Manus arrive précisément à ce moment-là, comme une preuve vivante que l’IA peut faire plus que brûler du cash.
Manus, un agent qui travaille plutôt qu’un modèle qui impressionne
Manus n’est pas un modèle de plus dans un zoo déjà bien rempli. C’est un produit. Un système d’agents capables de mener des tâches de bout en bout, sans supervision constante, du tri de candidatures à l’analyse de portefeuilles financiers en passant par la planification de projets.
Lors de son lancement, la startup n’avait pas hésité à se comparer à OpenAI Deep Research, affirmant faire mieux sur certains scénarios concrets. Une audace qui avait fait lever quelques sourcils, mais aussi attirer très vite des investisseurs de premier plan.
En quelques mois, Manus a accumulé des millions d’utilisateurset franchi un seuil que beaucoup de startups IA regardent encore de loin: plus de 100 millions de dollars de revenus récurrents annuels.
Autrement dit, un outil qui n’existe pas seulement pour impressionner des ingénieurs, mais pour être utilisé, payé et intégré dans des workflows réels. Pour Meta, c’est de l’or en barre.
Pourquoi Meta a préféré acheter plutôt que construire
Excited to announce that @ManusAI has joined Meta to help us build amazing AI products!
The Manus team in Singapore are world class at exploring the capability overhang of today’s models to scaffold powerful agents.
La décision de racheter plutôt que de développer en interne en dit long. Meta dispose de talents, de modèles maison et de ressources presque illimitées.
Mais le temps est devenu un facteur critique. Pendant que les concurrents avancent, attendre qu’un projet interne atteigne ce niveau de maturité aurait coûté des années.
Avec Manus, Meta gagne immédiatement une traction utilisateur, une crédibilité commerciale et un raccourci stratégique vers l’IA agentique à grande échelle.
Les agents de Manus sont destinés à être intégrés dans Facebook, Instagram et WhatsApp, là où Meta AI existe déjà, mais reste encore largement cantonnée à un rôle d’assistant généraliste.
Un rachat sous haute tension géopolitique
Reste un point sensible, impossible à ignorer. Les fondateurs de Manus sont d’origine chinoise et avaient créé leur maison-mère, Butterfly Effect, à Pékin avant de déplacer leurs activités à Singapour.
Dans le contexte actuel, ce détail n’en est pas un. À Washington, certains élus surveillent de près les flux de capitaux et de technologies liés à la Chine. Le sénateur John Cornyn, figure bien connue des faucons sur ces sujets, avait déjà critiqué l’implication de fonds américains dans la startup.
Meta a rapidement dégainé un pare-feu politique. La société assure qu’après l’acquisition, Manus n’aura plus aucun lien avec des investisseurs chinois et cessera toute activité en Chine.
Une position confirmée publiquement à Nikkei Asia. Message sous-jacent: ce gladiateur combattra sous bannière américaine, sans zone grise possible.
Ce que Meta achète vraiment avec 2 milliards de dollars
Avec ce rachat, Meta n’achète pas seulement une startup prometteuse. Elle achète une narration.
Celle d’une IA qui rapporte déjà, d’une technologie prête à être déployée à l’échelle mondiale, et d’un contre-argument face aux critiques sur ses dépenses massives.
Elle envoie aussi un signal clair aux autres acteurs du secteur: l’époque des IA vitrines touche à sa fin.
Après Manus, combien de survivants dans l’arène
La vraie question, désormais, n’est pas de savoir si Manus valait 2 milliards sur le papier. C’est de savoir combien d’autres gladiateurs restent encore dans l’arène, suffisamment solides pour intéresser les géants avant d’être balayés. Une chose est sûre: dans la guerre de l’IA, Meta ne veut plus regarder le combat depuis les gradins.
Et vous, qu’en pensez-vous ? S’agit-il d’un bon investissement stratégique de la part de Meta ? Manus peut-il l’aider à gagner la guerre de l’IA ? Partagez votre avis en commentaire !
2025 aura été l’année où Mark Zuckerberg a transformé Meta en pari géant sur la « superintelligence », en misant notamment sur de nouvelles têtes d’affiche comme Alexandr Wang. Problème : selon le Financial Times, la collaboration entre les deux hommes tangue déjà fortement. Des rumeurs qui viennent une nouvelle fois fragiliser la crédibilité stratégique du créateur de Facebook.
Plus de 11 millions d’images ont servi à l’entraînement du modèle Meta SAM3 / SAM3D. Cette base prépare un saut qualitatif pour l’interprétation automatique du monde visuel. Je vous propose de découvrir pourquoi ces deux technologies constituent une véritable innovation.
Que sont les Meta SAM3 / SAM3D ?
L’annonce faite par le géant technologique Meta mi-novembre 2025 marque un tournant décisif. Cette nouvelle architecture d’intelligence artificielle fait beaucoup plus qu’analyser des pixels bruts. Elle fusionne deux capacités distinctes au sein d’un même système performant. Concrètement :
SAM3 (Segment Anything Model) est un modèle d’IA capable de découper n’importe quel objet d’une image ou d’une vidéo. Vous pouvez le pointer du doigt (littéralement, en un clic) et il tracera les contours de l’objet pour l’isoler instantanément. Cet outil n’a même pas besoin d’un entraînement spécifique sur ce type d’objet.
SAM3D étend la capacité de segmentation de n’importe quoi en trois dimension à partir de photos réelles. Il utilise des données 3D, comme celles qui proviennent de scans LiDAR ou de la vision par ordinateur multi-caméras, pour comprendre et isoler des objets dans un espace physique.
Quelques détails technologiques pour signer l’innovation
Les versions précédentes de ces technologies d’isolation d’éléments d’une image ou vidéo nécessitaient une intervention humaine. Il fallait cliquer sur un objet pour que l’IA le détecte. Le temps du data labelling (annotation manuelle) est désormais révolu puisque la barrière entre le texte et le visuel disparaît totalement. Avant Meta SAM3/SAM3D, l’utilisateur écrit une description et le système s’exécute. Cette évolution vers une interface en langage naturel démocratise l’accès aux outils de pointe.
Forte de son approche unifiée, ces modèles IA de Mark Zuckeberg traitent les images fixes et les flux vidéo avec la même logique. Au delà de plusieurs algorithmes collés ensemble, c’est une structure cohérente qui partage une « colonne vertébrale » unique. Cette ingénierie optimise les ressources de calcul et assure une fluidité impressionnante. Sur le plan de la reconstruction spatiale, l’avancée est tout aussi spectaculaire.
Quelles sont les fonctionnalités de Meta SAM3 / SAM3D?
La fonctionnalité phare de Meta SAM3 / SAM3D se nomme Promptable Concept Segmentation (PCS). Ce terme désigne la capacité du logiciel à réagir à des phrases nominales. Vous pouvez demander au système d’isoler « tous les bus jaunes ». Il comprendra le concept de « bus » et l’attribut « jaune », mais ignorera les autres véhicules sans hésitation.
Cette précision s’étend au suivi temporel dans les vidéos. L’IA utilise des masklets pour maintenir l’identité d’un objet dans le temps. Si un chat passe derrière un canapé, le système ne perd pas sa trace. Il « sait » que le chat est toujours là. Cette persistance est vitale pour le montage vidéo automatisé ou la gestion de la vidéo surveillance.
Le volet tridimensionnel se divise en deux outils spécialisés. SAM 3D Objects gère les objets inanimés du quotidien. Il transforme une image plate en un maillage texturé manipulable. Il gère parfaitement les occultations partielles. Si une tasse cache une partie d’un vase, l’IA devine la forme manquante du vase grâce à une logique de « bon sens ».
Pour les êtres vivants, SAM 3D Body prend le relais. Il introduit un nouveau format de représentation corporelle. Ce modèle distingue le squelette de la chair et des vêtements. Il invite à analyser des poses humaines complexes avec une finesse anatomique inédite. Les avatars numériques gagnent ainsi en naturel et en fluidité.
Quelles sont les véritables innovations de Meta SAM3 / SAM3D?
L’innovation technique majeure réside dans le mécanisme de validation. Les ingénieurs ont intégré un presence token au cœur du système. Ce jeton agit comme un gardien. Il vérifie si le concept demandé existe réellement dans l’image avant de lancer la segmentation. Cela réduit considérablement les erreurs et les « hallucinations » visuelles fréquentes chez les concurrents.
La création d’un Data Engine colossal constitue une autre prouesse. Pour entraîner ce modèle, l’entreprise a dû annoter des millions d’images. Elle a utilisé une boucle vertueuse où l’IA pré-annote et l’humain corrige. Ce processus est cinq fois plus rapide que l’annotation manuelle classique.
D’ailleurs, le cycle à donné naissance au benchmark SA-Co. Ce jeu de données contient quatre millions de concepts uniques annotés. C’est une ressource scientifique d’une richesse inégalée. Elle donne au modèle la capacité d’apprendre des distinctions subtiles, comme la différence entre une « roue avant » et une « roue arrière ».
L’architecture unifiée introduit aussi une généralisation « Zero-Shot ». Le modèle peut identifier des objets qu’il n’a jamais vus durant son entraînement. Il applique sa compréhension générale des formes et du langage à des situations nouvelles. Cette polyvalence le rend utile aussi bien en biologie marine qu’en astronomie.
Quels usages quotidiens pour Meta SAM3 / SAM3D ?
Le commerce en ligne vit une transformation immédiate. Facebook Marketplace intègre déjà ces technologies via la fonction View in Room. Un vendeur prend une photo de sa chaise. L’algorithme la convertit instantanément en objet virtuel. L’acheteur projette ensuite cette chaise dans son salon grâce à la réalité augmentée.
La création de contenu sur les réseaux sociaux change également de dimension. L’application Instagram va bientôt proposer des outils de montage contextuels. Un créateur pourra dire « floute l’arrière-plan » ou « mets le ciel en noir et blanc ». L’application Edits exécutera ces commandes complexes en une fraction de seconde.
Dans le domaine scientifique, des partenaires comme Conservation X Labs utilisent l’outil pour la surveillance de la faune. Les pièges photographiques génèrent des milliers d’heures de vidéo. L’analyse manuelle est impossible à cette échelle. Le modèle automatise le tri et l’identification des espèces rares avec une fiabilité élevée.
Le domaine de la robotique bénéficie enfin d’une perception accrue. Les robots next gen doivent saisir des objets variés sans les casser. La compréhension géométrique fournie par l’IA leur donne la capacité de calculer le point de prise idéal. Ils peuvent naviguer dans des environnements désordonnés et interagir avec des objets inconnus sur simple commande vocale.
SAM3/SAM3D apportent de nouveaux effets graphiques sur Instagram
Quel est le prix de Meta SAM3 / SAM3D?
La stratégie de distribution est agressive. Les poids des modèles sont accessibles gratuitement pour la recherche. Ils sont téléchargeables sur des plateformes populaires comme Hugging Face. Cette ouverture vise à imposer ce standard technologique face aux solutions fermées.
Cependant, la gratuité du code ne signifie pas gratuité d’usage. L’inférence demande une puissance de calcul considérable. Pour obtenir des résultats en temps réel (environ 30 millisecondes par image), il faut des processeurs graphiques de pointe comme le H200. Ce type de matériel est réservé aux professionnels ou aux centres de données.
Le coût pour un usage commercial direct reste complexe. Il existe une licence spécifique nommée « SAM License ». Si l’usage est libre pour la science, l’intégration dans des produits vendus peut nécessiter des accords particuliers. Les entreprises doivent lire les conditions juridiques avec une grande attention.
Pour le grand public, l’accès se fait via le cloud computing. Le Segment Anything Playground autorise à tester l’outil gratuitement sur le web. Mais pour une intégration industrielle, les coûts de serveurs et de consommation énergétique seront élevés. La technologie est « gratuite » mais son carburant est onéreux.
Quelles sont les limites de Meta SAM3 / SAM3D ?
Malgré ses prouesses, le système n’est pas infaillible. La qualité des textures générées en 3D reste parfois modérée. Les détails fins comme les cheveux ou les grillages peuvent apparaître lissés ou flous. La résolution de sortie exclut encore une utilisation pour le cinéma haute définition sans retouches.
Une limite physique importante persiste. Le modèle « voit » les formes mais ne comprend pas la matière. Il ignore les lois de la gravité ou de la solidité. Un objet reconstruit peut traverser le sol ou s’interpénétrer avec un autre. L’absence de moteur physique intégré oblige les animateurs à corriger ces aberrations manuellement.
Les hallucinations visuelles, bien que réduites, existent encore. Dans des scènes très encombrées, le suivi vidéo peut décrocher. Si deux objets se ressemblent trop, l’IA peut les confondre. La validation par un opérateur humain reste nécessaire pour les applications critiques de sécurité ou de médecine. Pour aller plus loin, lisez l’article intitulé « On ne peut pas stopper les hallucinations de l’IA, mais les limiter. »
Enfin, la gourmandise en mémoire vidéo (VRAM) est un frein. Faire tourner ces modèles sur un appareil mobile est pour l’instant impossible. Cela limite les usages embarqués autonomes. La dépendance à une connexion internet robuste pour accéder aux serveurs de calcul est une contrainte forte.
Quelles alternatives à Meta SAM3 / SAM3D ?
La concurrence est féroce dans ce secteur stratégique. Google DeepMind propose une approche différente avec Gemini 3. Ce modèle mise sur une multimodalité native totale. Il excelle dans le raisonnement logique et l’analyse de documents complexes, là où la solution de Mark Zuckerberg se focalise sur la géométrie pure.
Du côté d’OpenAI, les modèles comme Sora 2 dominent la génération de vidéo. Leur compréhension de la physique et du mouvement est supérieure pour créer des scènes ex nihilo. Le modèle de raisonnement o3-mini offre aussi des capacités logiques que ne possède pas un outil de segmentation pur.
Pour les besoins industriels de vitesse pure, YOLO (You Only Look Once) reste la référence. Cet algorithme est beaucoup plus léger et rapide. Il fonctionne parfaitement sur des petits processeurs embarqués. Si l’objectif est simplement de compter des voitures sur une route, il reste le choix le plus rationnel et économique.
Dans le secteur médical, des modèles spécialisés comme MedSAM gardent l’avantage. Ils sont entraînés spécifiquement sur des images d’IRM ou de scanner. Les médecins préfèrent souvent ces outils dédiés et certifiés plutôt que des modèles généralistes. La spécialisation reste un rempart contre l’hégémonie des modèles de fondation globaux.
À l'occasion de l'événement AI Pulse à Paris, en présence de Xavier Niel, le scientifique français Yann LeCun a fait sa première apparition publique depuis l'annonce de son départ de Meta. Si la rupture semble consommée avec Mark Zuckerberg, Yann LeCun maintient son discours contre la « hype » de l'IA générative : pour lui, les modèles actuels n'iront nulle part sans de nouvelles découvertes.
Coup dur pour celles et ceux qui utilisent ChatGPT et Copilot dans WhatsApp. La maison mère de la messagerie instantanée change les règles pour interdire ces chatbots.
Le nom de Yann LeCun circule partout depuis quelques jours. Et pour une fois, ce n’est pas pour parler de Llama ou du dernier débat technique sur X. Le chercheur à l’énergie infatigable prépare une sortie silencieuse, portée par un rêve très différent des ambitions actuelles de Meta.
Ce départ tient à une seule conviction : les grands modèles de langage ne mèneront pas à une intelligence proche de la nôtre. LeCun croit à une autre voie. Une voie centrée sur ce qu’il appelle les « modèles du monde ». Son idée centrale ? Un cube flottant
Yann LeCun et Meta
Les discussions autour du départ de LeCun n’étonnent pas ceux qui suivent ses prises de position. Cela fait des années qu’il affirme que les modèles textuels montrent leurs limites.
Pour lui, un système qui lit des milliards de phrases ne possède pas l’expérience sensorielle d’un enfant. Les déclarations du scientifique ont pris un ton plus tranchant ces derniers mois, au point de créer un fossé avec l’approche interne de Meta.
La situation a évolué à partir de l’arrivée de nouveaux responsables IA chez Meta. Alexandr Wang a pris la direction stratégique à seulement 28 ans. Son enthousiasme total pour les LLM a créé une hiérarchie inattendue.
LeCun s’est retrouvé sous la supervision directe d’un partisan opposé à sa vision. Cette configuration a renforcé la distance entre les ambitions de Meta et celles du chercheur.
Un autre élément a nourri le malaise : le recrutement de Shengjia Zhao. Meta a présenté son arrivée comme une percée sur les modèles à grande échelle. Pour LeCun, cette surenchère autour du gigantisme informatique n’apporte aucune réponse aux limites profondes des LLM. Il répète depuis des mois que le passage à l’échelle est une impasse théorique et pratique.
La structure interne de Meta a aggravé le flou. Le département IA fonctionne comme un puzzle mal assemblé, avec plusieurs groupes et titres qui se superposent. Les licenciements massifs du mois dernier ont confirmé que la maison était en plein rééquilibrage. Cette période a renforcé la volonté de LeCun de tourner la page.
C’est quoi cette histoire de cube flottant ?
Amazing how the Ray-Ban Meta glasses can help the visually impaired. https://t.co/w3ZxCFtTlE
LeCun utilise depuis longtemps une expérience mentale simple pour illustrer sa vision. Il demande à chacun d’imaginer un cube en suspension. Puis de lui donner une rotation. Cette scène se forme sans effort dans notre esprit. Un LLM, lui, ne possède aucune représentation interne permettant de manipuler cet objet dans un espace cohérent.
Ce constat mène à une idée centrale : l’intelligence passe par une compréhension physique du monde, pas seulement par l’étude du langage. Selon LeCun, un chat domestique possède une vue plus fine de son environnement qu’un LLM entraîné sur des milliards de mots. Le chat manipule des objets, prévoit des trajectoires et anticipe des effets. Un modèle textuel ne peut que deviner des corrélations.
Dans son discours à Paris en février, LeCun a détaillé sa vision. Pour lui, un modèle du monde doit intégrer une représentation interne de l’état actuel d’une scène. Cette dernière doit permettre de prédire l’état suivant après une série d’actions. On s’éloigne des chaînes de tokens, au profit d’un raisonnement lié aux transformations du réel.
Cette approche demande des volumes de données sensorimotrices que les LLM ne possèdent pas. Un enfant de quatre ans a déjà assimilé une quantité gigantesque d’images, d’odeurs, de contacts, de sons. Ces données valent bien plus que les années de lecture condensée dans l’entraînement d’un modèle textuel. LeCun en conclut que les LLM ne peuvent pas atteindre une intelligence cohérente.
La démonstration du cube rotatif n’est pas un simple clin d’œil. C’est le symbole d’une IA qui apprendrait comme un être vivant : en interagissant avec le monde, pas en avalant du texte.
Donc maintenant, il va créer une IA qui pense le monde ?
Selon de nombreuses sources, LeCun prépare une start-up centrée sur ces modèles du monde. Rien d’officiel. Mais tout indique un départ orienté vers un projet très personnel. Le chercheur a déjà travaillé sur plusieurs prototypes chez Meta, dont une présentation vidéo construite autour du fameux cube.
Dans sa vision, une IA du futur doit analyser un état présent, chercher un état possible et déterminer un chemin efficace pour y arriver. Cela rappelle les méthodes classiques d’optimisation, sauf que la machine devra manipuler des représentations abstraites de scènes entières. LeCun parle d’une fonction d’énergie mesurant la cohérence entre deux états du monde.
Selon lui, une telle IA serait plus fiable, car ses mécanismes internes seraient transparents. Les systèmes actuels produisent du texte sans exposition de leur raisonnement. Le modèle du monde pourrait inclure des contrôles intégrés dès sa conception. Une structure plus explicite permettrait de réduire les comportements décalés.
LeCun ne promet rien. Les défis sont gigantesques. Construire un modèle du monde demande des moyens financiers vertigineux et des années de recherche. Même ainsi, rien n’assure un résultat concret. Pourtant, plusieurs chercheurs pensent que cette piste pourrait ouvrir une nouvelle génération d’interactions entre humains et machines.
L’IA révolutionne les métiers en offrant des opportunités et des perspectives innovantes pour le futur.
L’IA est omniprésente et représente l’avenir des métiers, mais est-ce une tendance passagère ou une voie sans issue ? L’intelligence artificielle bouleverse les métiers à l’ère de la révolution numérique. Les offres d’emploi se multiplient dans le domaine de l’informatique et de l’IA, cette technologie révolutionnaire promettant des changements majeurs dans tous les secteurs d’activité. Bien que l’IA en soit encore à ses débuts, elle suscite déjà un fort engouement. Zoom sur les métiers émergents grâce à l’IA.
Un aperçu des métiers liés à l’IA : comment les décrire ?
Un cursus en intelligence artificielle ouvre les portes à de nombreux métiers, qui sont eux-mêmes liés à divers domaines. Par conséquent, l’employabilité dans le domaine de l’IA est en constante expansion. Par ailleurs, d’autres possibilités de carrière s’ouvrent aux diplômés d’un Mastère 2 en Intelligence Artificielle.
Ils peuvent notamment devenir expert en apprentissage automatique, responsable de la gouvernance des données, architecte cloud, spécialiste en traitement du langage naturel ou chercheur en IA. De plus, l’IA offre des perspectives de carrière variées avec de nombreux projets à explorer. Elle offre également la possibilité d’intégrer des entreprises innovantes ou de grande envergure.
L’analyste de données
Le data analyst, l’un des métiers de l’IA, est étroitement lié au data scientist. Cependant, ses responsabilités sont souvent plus restreintes, se concentrant sur un type spécifique de données. En tant qu’architecte et administrateur de bases de données, il crée et assure le bon fonctionnement des bases nécessaires à l’entreprise.
Le data analyst participe également à la modélisation et à la segmentation des données pour une analyse approfondie. Son rôle ne se limite pas à cela, car il explore les données, identifie les problèmes de qualité et garantit la cohérence des données. En tant que professionnel du Big Data, il joue un rôle clé en tant que consultant, tout en restant à jour avec les nouvelles technologies pour améliorer les analyses.
Chief Data Officer
Le CDO, également connu sous le nom de Chief Data Officer, occupe une position clé dans certaines entreprises. Responsable de la collecte et du stockage des datas, il doit également les utiliser de manière efficace. Il est également confronté à des réglementations de protection des données de plus en plus strictes. Par ailleurs, les données revêtent une importance capitale dans la prise de décision en entreprise.
Ainsi, le métier de Chief Data Officer est promis à un avenir florissant. Afin de répondre à la demande croissante en gestion des données, le CDO assume la responsabilité de diriger une équipe. Cette équipe est composée de data miners, de développeurs et de cogniticiens.
En tant que manager de haut niveau, il est indispensable pour relever les défis et saisir les opportunités dans ce domaine. Dans un avenir proche, des équipes spécialisées dans la gestion des données soutiendront davantage le rôle du CDO. Des départements dédiés à cette tâche sont également prévus.
Ethicien en intelligence artificielle
Spécialiste de l’éthique et de la responsabilité sociétale liées au développement, à l’utilisation et à la fin de vie de l’intelligence artificielle, il définit des normes éthiques et promeut des pratiques responsables. En France, les éthiciens en IA peuvent bénéficier d’une fourchette salariale annuelle moyenne de 45 000 à 100 000 euros.
Ils ont également la possibilité d’intervenir en freelance pour conseiller les entreprises sur ces enjeux. Leur expertise contribue ainsi à garantir une utilisation éthique et responsable de l’IA dans les différents domaines d’application.
Métiers de l’IA : cogniticien
Le cogniticien, aussi connu sous le nom d’ingénieur spécialisé en sciences cognitives, joue un rôle de détective dans le domaine de l’IA. Il explore nos comportements, raisonnements et processus de pensée pour améliorer les systèmes informatiques. Responsable de la conception et du développement de systèmes d’IA tels que des assistants vocaux ou des algorithmes d’apprentissage automatique, il recueille les données, observe les modes de raisonnement, analyse et collabore avec les équipes techniques.
Les cogniticiens sont essentiels pour rendre les interfaces homme-machine conviviales, intuitives et adaptées aux utilisateurs. Ils répondent ainsi à un enjeu majeur de l’IA. Ce métier est voué à se développer en conséquence.
Data scientist
Le data scientist occupe une place centrale dans les métiers de l’IA en analysant les données massives, le Big data. Il allie des compétences en statistiques et en informatique, avec une spécialisation dans la gestion des bases de données. Son rôle essentiel est de concevoir des programmes pour acquérir, stocker, traiter et exploiter ces données. À la différence du data analyst, le data scientist travaille avec diverses sources de données.
Dans le domaine de l’intelligence artificielle, son rôle prépondérant est crucial, car la diversité des données est essentielle pour assurer l’efficacité de l’apprentissage artificiel. De plus, c’est l’un des métiers les plus demandés dans le domaine en pleine expansion des métiers de l’IA.
Architecte cloud
Au-delà de l’engouement médiatique pour le data scientist, il ne faut pas sous-estimer l’importance de la gestion et du stockage des données. C’est là que l’architecte cloud, ou data architecte, entre en jeu. Chargé de choisir parmi les différentes technologies de stockage, il doit posséder une expertise technique approfondie.
En tant qu’ingénieur spécialisé dans le cloud et les réseaux, il garantit également la durabilité de la solution mise en place. Par ailleurs, l’architecte cloud peut se voir offrir des rémunérations exceptionnelles sur le marché. Ce métier clé présente de vastes opportunités professionnelles.
Chef de projet chatbot
Au sein des métiers de l’IA, le chef de projet chatbot joue un rôle essentiel. Il identifie les besoins en IA conversationnelle d’une entreprise ou d’un client. Travaillant en collaboration avec les parties prenantes (équipes de développement, conformité, marketing, etc.), il propose, déploie et supervise la performance des agents conversationnels (chatbots).
Les rémunérations varient en fonction des profils professionnels, de la localisation, du secteur d’activité et de la taille des entreprises. Le chef de projet chatbot est un acteur clé dans la réussite de l’implémentation de ces solutions conversationnelles, contribuant ainsi à l’évolution des métiers de l’IA.
Analyste financier spécialisé dans l’IA
L’utilisation croissante de l’intelligence artificielle (IA) dans l’analyse financière est remarquable. Les métiers de l’IA permettent d’identifier des modèles et des tendances essentiels pour éclairer les décisions financières. L’IA automatise des tâches telles que l’analyse de données, la modélisation financière et la prédiction des tendances du marché. Ainsi, les entreprises recherchent des experts en IA capables d’optimiser leur rentabilité.
Les métiers de l’IA dans l’analyse financière jouent un rôle clé en comprenant les performances financières, les tendances du marché et les prévisions économiques. L’IA révolutionne le domaine en apportant des solutions avancées et une compréhension approfondie des enjeux financiers.
Ingénieur programmation Linguistique
Parmi les métiers de l’IA, l’ingénieur TAL (Traitement Automatique du Langage) ou le Computational linguist se distinguent. Ces professionnels créent des programmes informatiques capables de comprendre et d’utiliser le langage naturel. De plus, ils travaillent sur des projets tels que les assistants vocaux, la traduction automatique, la reconnaissance de la parole, l’analyse des sentiments et la génération automatique de texte.
Leur objectif principal est de développer des logiciels favorisant une interaction plus naturelle et efficace avec les humains. En raison de la demande croissante pour les technologies TAL, ces métiers sont en plein essor. Les assistants vocaux, la traduction automatique, la rédaction automatique, la reconnaissance vocale et les appareils connectés sont tous des domaines nécessitant des fonctionnalités TAL avancées.
Ingénieur en robotique
Le domaine de la robotique est un secteur en pleine expansion qui s’avère crucial pour le développement de systèmes autonomes et intelligents. L’ingénieur en robotique devient ainsi l’un des métiers de l’IA les plus recherchés. Sa mission consiste à concevoir, programmer et tester des robots capables d’interagir avec leur environnement ou d’exécuter des tâches spécifiques. Ce professionnel allie expertise en mécanique, électronique et intelligence artificielle pour créer des machines qui peuvent apprendre et s’adapter à des situations variées.
Les ingénieurs en robotique travaillent dans des secteurs divers, tels que l’industrie manufacturière, la logistique, la santé et même l’agriculture. Ils développent des robots d’assistance, des drones et des systèmes automatisés. Avec l’essor de l’automatisation et des technologies intelligentes, la demande pour ces experts ne cesse de croître.
En outre, les avancées en IA, comme l’apprentissage profond, permettent de concevoir des robots plus autonomes et performants. Les entreprises recherchent des ingénieurs en robotique capables de maîtriser des compétences en programmation, en machine learning et en systèmes embarqués. Les perspectives salariales sont attractives, et ce métier est prometteur. Ce qui fait de l’ingénieur en robotique un acteur clé dans la transformation numérique et industrielle de demain.
Les opportunités de l’IA dans le secteur de la santé
L’impact de l’IA sur la santé n’est plus une simple tendance. C’est une réalité profonde et structurelle en 2025. Le secteur de la e-Santé, ou santé numérique, est en pleine effervescence. Il crée une vague d’opportunités professionnelles inédites.
L’un des domaines les plus bouleversés est le diagnostic assisté par IA. C’estl’exemple du stéthoscope intelligent mis au point en août 2025 par des chercheurs à l’Imperial College de Londres. Il est capable, en seulement 15 secondes, de diagnostiquer des pathologies cardiaques comme une insuffisance cardiaque, des anomalies des valvules ou des troubles du rythme.
Un autre pilier de cette révolution est la médecine prédictive. Grâce aux données génétiques et aux dossiers patients informatisés, l’IA peut repérer très tôt les facteurs de risque. Cette avancée fait exploser la demande pour des bio-informaticiens et des data scientists en santé, chargés de développer des traitements toujours plus personnalisés.
Le Delphi-2M en est la preuve. Présenté en septembre 2025 par l’EMBL, il s’agit d’une IA capable d’estimer la prédisposition d’un individu à plus de 1 000 maladies. Parfois des décennies à l’avance. Validé sur d’immenses bases de données britanniques et danoises, cet outil illustre parfaitement le potentiel du prédictif dans la médecine de demain.
Enfin, l’IA propulse la robotique chirurgicale et la télémédecine. Les robots chirurgicaux sont de plus en plus autonomes. Cependant, ils demandent toujours l’expertise d’ingénieurs et de chirurgiens formés aux nouvelles interfaces. La télémédecine, quant à elle, utilise l’IA pour le suivi à distance et la personnalisation des soins. Ce qui garantit l’accès aux soins même dans les zones reculées.
Qui recrute pour les métiers de l’IA ?
L’industrie technologique attire fortement et recrute activement des professionnels de l’IA, tels que Microsoft, Google, Meta, Intel, Apple, Amazon, et bien d’autres encore. D’autres secteurs tels que la santé, la médecine, l’industrie automobile, la banque et les médias offrent également de nombreuses opportunités pour les praticiens de l’IA.
Consultez notre article dédié pour découvrir les débouchés possibles après un Master en IA. Malgré l’apogée évidente de l’IA, il est essentiel de plonger dans ce domaine en tenant compte des considérations éthiques liées à son évolution.
Quelles formations pour se spécialiser en intelligence artificielle ?
Pour devenir analyste de données, il faut un niveau Bac + 4 ou Bac + 5 en informatique, management, statistique ou marketing. Des formations à Bac + 3 en informatique ou en décisionnel permettent d’accéder à des postes d’assistants. Au niveau Bac + 5, il existe des masters en méthodes informatiques appliquées à la gestion d’entreprise. D’autres spécialisations incluent les données et systèmes connectés, l’intelligence embarquée et le big data. Pour devenir ingénieur cognicien, il faut un Bac + 5 en sciences cognitives, informatique ou mathématiques appliquées, avec une compétence en sciences humai
L’école Microsoft IA offre une spécialisation en IA pour devenir développeur Data IA, accessible aux personnes connaissant l’algorithme. L’école Microsoft IA propose une spécialisation en intelligence artificielle pour les développeurs Data IA. Cette formation est accessible aux personnes ayant des connaissances en algorithmie. L’intelligence artificielle est intégrée aux formations en ressources humaines. Le Conservatoire national des arts et métiers propose une formation spécifique en digital et intelligence artificielle.
Enfin, des MOOC gratuits sont disponibles pour s’initier à l’IA et découvrir ses opportunités, y compris l’apprentissage automatique et l’apprentissage profond. Ces formations ouvrent des perspectives professionnelles dans divers secteurs, favorisant l’interaction entre les humains et les machines.
FAQ
Quels sont les métiers les plus demandés dans l’IA aujourd’hui ?
Les postes les plus recherchés sont data scientist, data analyst, ingénieur en robotique, architecte cloud, spécialiste en traitement du langage naturel et chef de projet chatbot. Les entreprises cherchent aussi des éthiciens en IA, un métier en pleine montée.
Faut-il forcément être très bon en mathématiques pour travailler dans l’IA ?
Pas toujours. Certains métiers, comme le data scientist ou l’ingénieur en apprentissage automatique, demandent une solide base mathématique. D’autres, comme chef de projet chatbot ou éthicien en IA, reposent davantage sur la gestion, la communication ou les sciences sociales.
Quels secteurs recrutent des profils spécialisés en IA ?
Le secteur tech reste le plus actif. Google, Microsoft, Meta ou Amazon sont en première ligne. Mais l’IA explose aussi dans la santé, la finance, l’industrie, l’automobile, la logistique ou les médias.
Considéré par ses pairs comme l'un des inventeurs de l'intelligence artificielle dans le sens moderne, Yann Le Cun aurait informé ses collaborateurs de son intention de quitter Meta pour fonder sa propre startup dans les prochains mois. Ce n'est pas vraiment une surprise : sous l'impulsion de Mark Zuckerberg, son équipe « IA » était concurrencée par une équipe « superintelligence ».
Intégré à l'application Meta AI, le réseau social Vibes permet de visionner des vidéos générées par l'intelligence artificielle du groupe de Mark Zuckerberg. Il accompagne d'autres nouveautés IA déployées dans Messenger, Instagram et WhatsApp.
Les États-Unis en ont déjà fait l’expérience. C’est au tour de l’Europe de passer au révélateur. Meta Vibes s’invite en France et dans d’autres pays européens avec la promesse d’apporter plus de fun.
Meta l’a officiellement annoncé jeudi. Vibes fait son entrée en Europe, y compris en France, via l’application Meta AI. Les Français peuvent désormais tester ce nouveau flux de vidéos courtes générées par IA. Le lancement intervient six semaines à peine après le déploiement aux États-Unis. Donc, juste après qu’OpenAI ait lancé Sora, sa propre plateforme sociale dédiée à la vidéo IA. La guerre du divertissement génératif est officiellement ouverte.
Vibes en France : la promesse de l’IA et ses travers
Meta explique que le flux se personnalise automatiquement selon les goûts. Comme sur TikTok, mais version hallucination numérique. Plus vous restez, plus on vous sert des contenus calibrés pour vous.
Côté création, les options sont plutôt larges. D’abord, vous pouvez générer une vidéo à partir de suggestions. Il vous est aussi possible de remixer une vidéo existante. La plateforme permet même de changer de style ou encore d’ajouter de la musique, des effets et des visuels.
Certes, Meta parle d’une expérience de création sociale et collaborative. Et bien sûr, l’entreprise pousse la diffusion maximale. Car vous pouvez poster dans Vibes. Mais aussi vous avez la possibilité d’envoyer en message privé ou de republier en Stories Instagram et Reels Facebook. Toutes ces fonctionnalités sont disponibles dans la version de Vibes en France.
Mais la réception ?
Pas aussi chaleureuse que l’enthousiasme de Meta de lancer Vibes en France. Parce que lors de l’annonce initiale en septembre, Mark Zuckerberg a vu son post se faire littéralement démonter.
Sous sa publication, on retrouvait des commentaires assez directs du genre « Personne n’en veut. » et « Le mec publie des inepties sur sa propre app. » Ou encore : « Je pense parler au nom de tout le monde en disant : Quoi…? »
Cette réaction est tout à fait normale. Puisque depuis des mois, les plateformes sont déjà saturées de contenus IAde faible qualité. Tellement que YouTube, par exemple, tente activement de limiter ces contenus non originaux.
Et c’est là qu’on se frotte aux contradictions. Meta avait justement annoncé vouloir valoriser la création authentique et les histoires personnelles. Mais aujourd’hui, la firme pousse Vibes, qui semble l’inverse.
Alors, Vibes peut-il trouver son public en France ? Difficile à dire. Pour les créateurs qui aiment expérimenter, ça peut devenir un terrain de jeu décomplexé.
Pour les spectateurs, c’est un nouveau type de divertissement instantané, sans filtre, sans logique, et parfois drôle. Mais pour ceux qui regrettent déjà l’époque où les réseaux sociaux racontaient quelque chose, ça ne va clairement pas s’arranger.
Le géant de Menlo Park vient de faire ce que beaucoup redoutaient ! Apparemment, Meta va remplacer ses employés par l’IA. Plus de RH, plus de discussions, juste une note interne signée progrès technologiques.
Chez Meta, la révolution n’attend plus personne. Le géant mené par Mark Zuckerberg vient d’annoncer une vague de suppressions de postes dans sa division de gestion des risques, remplacés par des IA maison. Une décision radicale qui résume parfaitement la mentalité du groupe. Tout ce qui peut être automatisé le sera.
Meta préfère utiliser la machine
Mark Zuckerberg adore les paris risqués. Après avoir misé des milliards sur le métavers, Meta s’attaque maintenant à ses propres employés. Selon une note interne, il va supprimer plusieurs postes dans sa division de gestion des risques à cause de l’automatisation.
Michael Protti, responsable de la conformité chez Meta, a confirmé que la firme avait désormais mis en place un système de gestion des risques automatisé. Ainsi, des IA s’occuperont dorénavant de surveiller les menaces internes et externes à l’entreprise.
« Nous n’avons plus besoin d’autant de postes dans certains domaines », écrit-il froidement dans son message interne. Aucun chiffre officiel n’a été communiqué, mais Protti parle de progrès significatifs dans les contrôles techniques globaux.
Dernièrement, je me souviens bien que Meta a aussi licencié près de 600 employés de son laboratoire de superintelligence artificielle. Et cela, malgré les milliards investis dans le projet. Cette décision montre à quel point le groupe veut rationaliser, quitte à frôler la contradiction. C’est de créer de l’IA tout en supprimant les gens censés la superviser.
Meta layoff 600 employees from its Superintelligence Labs division (AI division).
This is due to advancements in the company’s internal automation and compliance technologies, which can now handle routine risk-related decisions.
Dans une entreprise, la gestion des risques, c’est un peu la tour de contrôle. Identifier les menaces, anticiper les problèmes, protéger les actifs… Et confier tout ça à une IA, je trouve que c’est osé, même pour Meta.
D’autant que les IA ont encore tendance à buguer sévère. Des exemples récents montrent même que l’automatisation totale peut vite tourner à la catastrophe. Le cas de Klarna, par exemple, dont le service client IA a multiplié les erreurs, reste dans toutes les têtes.
Et l’ironie ultime, c’est que l’IA elle-même est devenue un grand risque pour les gestionnaires de risques. Avec un taux d’échec estimé à 95 % dans les entreprises, elle apporte de nouvelles vulnérabilités comme la cybersécurité, la manipulation, les fuites de données, etc.
Qu’on le veuille ou non, la remplaçabilité est lancée. Chez Meta, même ceux qui inventent les IA ne sont plus à l’abri de leur propre création.
C’est l’accusation la plus improbable — et la plus gênante — qu’ait connue la Silicon Valley depuis longtemps. Meta aurait téléchargé des milliers de films pornographiques pour entraîner son IA vidéo. En face, Mark Zuckerberg plaide la bonne foi : il ne s’agirait pas d’un projet secret d’IA adulte, mais de la consommation privée de quelques employés. Que mangent vraiment nos IA… et qui contrôle leur régime ?
Imaginez la scène : le FBI du porno débarque chez Meta. Strike 3 Holdings, un studio connu autant pour ses films X que pour ses poursuites contre les téléchargeurs, accuse le géant de Menlo Park d’avoir torrenté plus de 2 400 vidéos protégées par copyright depuis 2018.
Et pas n’importe comment. La plainte, repérée par TorrentFreak et Ars Technica, décrit un « réseau furtif» de 2 500 adresses IP cachées utilisé pour télécharger et redistribuer ses films.
Selon Strike 3, on parle de contenus « hautement humains ». Comprenez : des corps, des mouvements, des angles rares… « idéaux pour entraîner une IA à comprendre l’anatomie et la physique des gestes ».
Autrement dit, Meta aurait dopé son IA au porno pour la rendre plus fluide. L’entreprise réclame jusqu’à 350 millions de dollars de dommages.
Le porno, nouvelle protéine des IA génératives
La théorie a de quoi faire rougir les datacenters. Les modèles vidéo modernes, comme Sora d’OpenAI ou Movie Gen de Meta, nécessitent des milliards d’imagespour apprendre à reproduire les mouvements humains, la lumière, la texture de la peau.
Or, les contenus explicites sont, par essence, riches en postures, en corps en mouvement, en interactions physiques. Pour Strike 3, l’équation est simple : plus de porno = meilleure compréhension visuelle.
Mais cette vision « biologique » du dataset choque autant qu’elle fascine. Car si les IA de demain apprennent à animer un visage ou une main, c’est peut-être grâce à des sources que personne n’oserait citer dans un white paper.
Meta se défend : pas de complot, juste du plaisir coupable
Chez Meta, on étouffe un rire nerveux. Lundi dernier, la firme a déposé une requête de rejet en qualifiant la plainte d’« absurde et sans fondement ».
Les avocats affirment que Strike 3 « n’apporte aucune preuve concrète », et rappellent que les téléchargements remontent à avant 2022, soit plusieurs années avant les recherches sur les modèles vidéo.
« Quelques dizaines de films par an, épars, sans coordination: tout indique des usages personnels, pas un entraînement d’IA », écrit Meta dans sa défense.
Traduction : si certains employés ont craqué pour un torrent au bureau, ce n’était pas un plan global de recherche… juste un moment de plaisir solitaire pour décompresser.
La firme souligne même que ses conditions d’utilisation interdisent toute production de contenu sexuel, ce qui rend « incohérent » l’idée qu’elle aurait délibérément intégré de la pornographie à son IA.
Espionnage ou simple embouteillage d’IP ?
Le point le plus croustillant, et le plus confus, reste cette histoire de 2 500 IP cachées. Strike 3 affirme que Meta aurait utilisé un réseau parallèle pour dissimuler ses activités torrent.
Meta, elle, parle d’un contresens : si l’entreprise voulait vraiment cacher quelque chose, pourquoi laisser 47 adresses IP publiques télécharger ouvertement des fichiers ?
Les ingénieurs réseau rappellent que chez Meta, entre les employés, sous-traitants, visiteurs et outils internes, des milliers de connexions transitent chaque jour.
Une IP « Meta » ne prouve pas qu’un salarié de Menlo Park était derrière le clic. Le téléchargement pourrait aussi bien venir d’un consultant, d’un réparateur ou d’un invité Wi-Fi un peu trop curieux.
Derrière la blague : un vrai débat sur les datasets « sales »
L’affaire amuse les réseaux, mais elle met surtout le doigt sur un malaise profond : le manque total de transparence sur les données qui entraînent nos IA.
Depuis deux ans, les modèles génératifs sont accusés de s’appuyer sur des contenus protégés (livres, images, musiques) sans consentement. Le porno, jusqu’ici, restait un tabou : personne n’en parle, tout le monde sait qu’il circule.
Les grands acteurs comme OpenAI, Google ou Meta jurent qu’ils filtrent le NSFW, mais les datasets ouverts comme LAION-5B ou Common Crawl en regorgent.
Et si des algorithmes en venaient malgré eux à apprendre des corps nus, qui serait responsable ? L’entreprise, l’ingénieur, ou le dataset lui-même ?
Zuck lave plus blanc que propre (en attendant le verdict)
Pour l’instant, Meta cherche surtout à étouffer l’affaire. Le groupe réclame le rejet pur et simple de la plainte, qualifiant Strike 3 de « copyright troll » : une société qui multiplie les actions pour soutirer des règlements financiers.
Mais la justice américaine pourrait exiger que Meta dévoile certaines traces réseau, voire une partie de ses sources d’entraînement. Ce serait un précédent majeur : la première incursion légale dans les dessous des datasets d’IA.
En attendant, Zuckerberg joue profil bas. « Nous ne voulons pas ce type de contenu, et nous prenons des mesures pour l’éviter », a déclaré un porte-parole à Ars Technica.
Alors que Meta AI a déjà créé la polémique en parlant de flirt et de romance à des enfants, ce nouveau scandale pourrait faire perdre encore des places à Meta dans la course à l’IA…
Et vous, qu’en pensez-vous ? Faut-il nourrir les IA avec du porno ? Seriez-vous intéressé par une IA capable de générer des films X sur demande ? Partagez votre avis en commentaire !
Meta fait le ménage dans ses équipes d’intelligence artificielle. Environ 600 employés des unités de recherche et d’infrastructure IA viennent d’apprendre qu’ils devront plier bagage.
Voilà qui est étonnant. Oui parce que le géant américain continue de recruter pour son tout nouveau laboratoire de superintelligence. Le TBD Lab, dédié aux modèles de langage les plus puissants de son écosystème.
Licenciement massif chez Meta
Axios a révélé en premier ces suppressions de postes, qui touchent la division de recherche fondamentale FAIR ainsi que les équipes dédiées aux produits et à l’infrastructure IA. Le nouveau laboratoire de Meta, baptisé TBD Lab, échappe en revanche à ces coupes. Selon une note interne partagée par le directeur de l’IA, Alexandr Wang, les salariés concernés sont invités à postuler à d’autres fonctions au sein du groupe. La plupart devront toutefois retrouver un poste ailleurs dans l’entreprise.
Basée à Menlo Park, Meta continue d’ailleurs de recruter activement pour le TBD Lab, chargé de concevoir les derniers modèles de langage avancés de la société. Ces modèles constituent le cœur même des technologies qui propulsent ChatGPT chez OpenAI, Gemini chez Google et Llama chez Meta.
Contrairement à ses rivaux, Meta a choisi une voie plus ouverte en rendant Llama accessible gratuitement. Ce modèle open source permet à d’autres entreprises ou chercheurs de l’utiliser et de modifier certaines parties du code. Un pari audacieux, mais qui a permis à la firme de séduire de nombreux acteurs du secteur.
Le groupe affirme aujourd’hui que plus d’un milliard de personnes interagissent chaque mois avec ses produits intégrant l’IA. Malgré ces chiffres impressionnants, Meta est encore perçue comme un acteur un peu en retrait face à OpenAI et Google, qui dominent la course à la popularisation des grands modèles de langage auprès du grand public.
Meta, la maison-mère de Facebook, Instagram et WhatsApp, a annoncé le 22 octobre 2025 se séparer de 600 employés de son unité dédiée à l’IA. Une coupe d’effectifs qui traduit un changement de stratégie clair chez la firme de Mark Zuckerberg.
Meta et OpenAI franchissent une nouvelle étape en utilisant les discussions des utilisateurs pour peaufiner leurs algorithmes de recommandation et de publicité. Un choix qui, selon la région du monde, n’offre pas toujours de réelle alternative.
Meta va utiliser l’historique de vos discussions avec son IA, non pas pour vous juger, mais pour vous servir des pubs encore plus ciblées. Chaque mot échangé pourrait donc devenir une opportunité publicitaire.
La pub est le cœur du modèle économique de Meta, et le dernier bilan le prouve. L’entreprise se gave déjà, mais elle pourrait en gagner encore plus. Pour Mark Zuckerberg, l’IA est la clé de ce succès. Rien de surprenant donc à voir Meta tout miser sur cette technologie, quitte à bousculer le marché.
Meta prépare des pubs encore plus ciblées dans votre fil d’actu
Beaucoup d’entre nous ont pris l’habitude d’utiliser l’outil Meta AI pour discuter. Ça, il n’y a rien d’étonnant. L’outil est pratique, réactif et sait répondre à toutes sortes de questions.
Mais ne vous méprenez pas, vos discussions ne restent pas totalement privées. Meta y a accès et profitera de cette nouvelle source de données pour en tirer un maximum de bénéfices. L’objectif ? Transformer chaque discussion en une opportunité de pub ciblée.
Comment ? Chaque fois que vous utilisez l’IA de Meta, que ce soit sur sur WhatsApp, Instagram ou Facebook, ceque vous lui confiez est analysé. L’information sert ensuite à adapter les publicités et les contenus que vous verrez circuler sur vos autres applications.
Si vous demandez par exemple à Meta AI des conseils pour une randonnée sur WhatsApp, alors votre fil Facebook pourra montrer des groupes de randonnée. Vous verrez aussi plus de publications Instagram de vos amis parlant de sentiers. Et vous recevrez des pubs pour des chaussures de randonnée sur Threads.
Meta a toutefois fixé des limites pour le ciblage publicitaire. Certains sujets restent protégés, dont les discussions portant sur les opinions religieuses et l’orientation sexuelle. Mais aussi les opinions politiques, la santé, l’origine raciale ou ethnique. Les croyances philosophiques et l’appartenance à un syndicat ne sont pas non plus concernés.
Ce ne sera pas une surprise !
Les utilisateurs ne pourront pas refuser que leurs conversations sur Meta AI servent à personnaliser les contenus et les pubs. Aucun moyen d’y échapper.
Bien sûr, Meta ne fera pas ça en douce. L’entreprise prévoit de prévenir ses utilisateurs. En effet, à partir du 7 octobre, vous recevrez des notifications ou des e-mails expliquant : « Découvrez comment Meta va utiliser vos informations de nouvelles façons pour rendre votre expérience plus personnalisée. »
Et quand est-ce que tout cela commencera ? Le 16 décembre, pile à temps pour préparer des pubs adaptées pour Noël et la fin d’année. Mais sachez que cette fonctionnalité sera d’abord disponible aux États-Unis, avant un déploiement progressif dans d’autres régions.
Alors, que pensez-vous de cette nouvelle stratégie de Meta pour diffuser des pubs ultra-personnalisées ? Est-ce pratique, ou plutôt inquiétant ? Partagez votre avis en commentaire.
Meta veut jouer dans la cour de TikTok avec Vibes, son nouveau fil vidéo. Sauf qu’ici, ce n’est plus vous qui créez. C’est l’IA qui s’en charge. Reste à voir si les internautes ont vraiment envie de ce genre de contenu.
Vous en pensez quoi, vous, des vidéos générées par IA ? Parce que Mark Zuckerberg, lui, y croit dur comme fer. Le patron de Meta vient d’annoncerVibes, une nouvelle plateforme entièrement dédiée à ce type de contenu. L’annonce a été faite sur Instagram, évidemment. Mais voilà, au lieu de susciter l’enthousiasme, ce lancement a plutôt laissé beaucoup d’internautes sceptiques.
Vibes de Meta, ça donne quoi en vrai ?
Vibes est un nouveau flux disponible dans l’application Meta AI. On y accède aussi via meta.ai. L’idée ? Offrir aux internautes un espace pour créer des vidéos générées par IA. Bref, une sorte de TikTok artificiel. Meta explique que Vibes est « conçu pour faciliter la recherche d’inspiration créative et l’expérimentation avec les outils multimédias de Meta AI ».
Yesterday we introduced Vibes to the Meta AI app. We have added a feed of expressive AI-generated videos from artists and creators in the Meta AI app. You can create and remix videos with leading models and music for free. pic.twitter.com/okaJm5TIC5
Dans son post sur Instagram, Mark Zuckerberg a partagé quelques extraits. Histoire d’avoir un aperçu sur ce que Vibes proposera aux utilisateurs. Dans l’une, des créatures duveteuses sautillent de cube en cube. L’ambiance fait penser à un jeu vidéo surréaliste.
Dans une autre, un chat pétrit de la pâte. Une scène absurde, sortie tout droit d’un dessin animé improbable. Et puis il y a cette scène improbable où une Égyptienne de l’Antiquité se prend en selfie sur un balcon. Cela avec toute la majesté de l’Égypte ancienne en arrière-plan.
Pour cette première version, Meta ne travaille pas seul. La firme s’appuie sur Midjourney et Black Forest Labs. Mais Meta assure développer aussi ses propres modèles. Le but est de les rendre encore plus puissants. Et, à terme, ne plus dépendre des partenaires externes pour ce service.
Créativité à 360°
Avec Meta Vibes, la créativité passe à un autre niveau. Une simple instruction, et l’IA crée votre vidéo. Vous pouvez concevoir un contenu de A à Z. Vous aurez donc une vidéo qui reflète exactement vos envies personnelles.
Pas envie de partir de zéro ? Pas de souci. Il suffit de remixer une vidéo déjà présente dans le fil. Bien sûr, vous pouvez ajouter des visuels supplémentaires et choisir une musique adaptée. Mais aussi, ajuster le style selon votre goût.
Alors, une fois la vidéo terminée ? Vous avez plusieurs options. Vous pouvez la partager directement sur Vibes ou l’envoyer par message privé. La vidéo peut aussi être publiée sur Instagram, Facebook Stories ou même en Reels.
Certes, Meta vend Vibes comme un outil de créativité sans limite. Mais les réactions en ligne ne sont pas toutes enthousiastes. Pourtant, est-ce que ce service apportera vraiment de la « Vibes ». Ou si ce n’est qu’un gadget. La réponse viendra avec le temps.
Meta a annoncé le 25 septembre 2025 le lancement de Vibes, un nouveau flux dans l'application Meta AI pour créer des vidéos courtes générées par IA. Une tentative claire de se démarquer de TikTok et YouTube Shorts.
Lors de la conférence Meta Connect 2025, Mark Zuckerberg a présenté les nouvelles Meta Ray-Ban Display, premières lunettes de la marque équipées d’un écran de réalité augmentée. Mais la démonstration censée prouver leur potentiel a vite tourné au malaise.
Numerama a essayé en avant-première les Meta Ray-Ban Display, les premières lunettes du marché avec un écran intégré et un bracelet neuronal pour contrôler l'interface. Bluffantes, futuristes et positionnées à un tarif étrangement raisonnable, les héritières des Google Glass souffrent de quelques défauts de jeunesse et d'une disponibilité limitée.
C'est certainement l'un des refus les plus spectaculaires dans l'histoire des recrutements. Outre-Atlantique, il a été rapporté qu'un ingénieur en intelligence artificielle très talentueux a refusé un package exceptionnel de Meta, qui aurait pu atteindre 1,5 milliard de dollars en six ans. Un rejet révélateur de la course actuelle à l'IA.
Convaincu en 2021 que le « métavers » remplacerait Internet, Mark Zuckerberg pronostique désormais que la « super-intelligence » est la future grande révolution technologique. Meta, son entreprise, pivote progressivement du monde virtuel vers les modèles d'IA.
Le directeur d'Apple en charge des modèles d'IA part chez Meta. L'entreprise de Mark Zuckerberg a réussi à le débaucher, à coups de millions de dollars. Meta tente de réunir des équipes de choc pour avancer à grands pas sur l'IA.
Voici une nouvelle technologie qui vous simplifie la vie cet été. L’IA s’occupe de tout pour votre voyage, jusqu’au moindre détail.
Il est enfin arrivé le moment de souffler un peu, après des mois à travailler dur. Mais avouons-le, partir en vacances réserve son lot de surprises, bonnes ou mauvaises. Galères de transport, visites à l’arrache ou encore réservation annulée, ça peut vite tourner au casse-tête.
Et pourtant, personne n’a envie de gâcher ces quelques jours précieux, pas vrai ? Justement, une IA développée par d’anciens ingénieurs de chez Meta pourrait bien apporter plus de sérénité lors de votre voyage. Elle vous aide à le planifier de A à Z, sans stress et sans oublis.
La solution IA pour un voyage réussi !
Airial pourrait bien devenir votre meilleur compagnon pour les vacances. Puisque cette IA est capable d’organiser votre voyage sans rien laisser au hasard. Que vous partiez bronzer au bord de la mer ou respirer l’air frais de la montagne, elle s’adapte à vos envies.
Vous n’avez évidemment pas besoin de passer des heures à planifier. Vous entrez simplement quelques infos et elle s’occupe du reste. En un rien de temps, elle vous concocte un plan complet, du point de départ jusqu’à l’arrivée.
We are announcing the launch of Airial Travel’s open-to-all beta version for desktop today. Airial is your personal travel agent with AI superpowers which makes planning and booking trips as easy as dreaming them up. https://t.co/KKO8D5XnEn
En plus, il existe une option de « voyage instantané . Cette fonction vous propose rapidement un itinéraire avec vols, hébergements et transports entre les villes. Un outil pratique pour les pressés.
Avec Airial, chaque journée est aussi pensée pour vous. L’IA vous guidesur quoi visiter, où manger et comment y aller. Elle vous prépare même un programme jour par jour, avec des endroits sympas à visiter et de bons restos où manger. Certes, tout est prévu pour que vous profitiez à fond de vos vacances, sans perdre de temps.
Vous pouvez même cliquer sur chaque jour pour découvrir ce qu’elle vous conseille de visiter. Et en sélectionnant une activité, vous aurez accès à toutes les infos utiles, comme les avis, l’emplacement, ainsi que des photos.
Résoudre des problèmes géométriques
Les fonctionnalités d’Airial vont bien au-delà de ce que l’on pourrait attendre d’un simple outil de planification de voyage. Parce que cette IA vous offre aussi une vue d’ensemble de votre séjour.
Avec elle, chaque jour, vous avez une carte qui montre tous les endroits à visiter, avec les distances entre eux. Vous avez repéré un lieu sympa sur TikTok ou sur un blog ? Il vous est possible de coller le lien dans Airial. Ainsi, elle l’ajoute directement à votre programme. Pareil pour un Reel !
Got a saved Reel?
Drop the link after our URL, we’ll build the trip instantly. It’s that simple.
Et si vous manquez d’idées, l’outil vous propose aussi des vidéos TikTok sur la ville, en fonction de ce que vous aimez. Le plus intéressant dans tout cela ? L’assistant est en mesure de répondre à vos questions sur chaque lieu.
Bref, on peut dire qu’avec cette IA, partir à l’aventure devient beaucoup plus simple et moins stressant. Mais comment elle fait pour gérer tout ça aussi bien ? Archit Karandikar et Sanjeev Shenoy, les deux ingénieurs derrière le projet, se sont inspirés d’AlphaGeometry, une méthode développée par DeepMind.
À la base, cette technique permet à une IA de résoudre des problèmes de géométrie en « réfléchissant » comme un humain. En combinant ce système avec des LLM, Airial devient capable de créer des plans de voyage bien pensés.
Meta passe à l’offensive dans la guerre de l’IA, car trois chercheurs d’OpenAI viennent de rejoindre les rangs de Mark Zuckerberg, déclenchant la colère de Sam Altman. Dans les coulisses, les géants de la tech s’arrachent les talents les plus brillants pour bâtir la prochaine génération d’IA.
Le monde de l’IA ne dort jamais, et les géants du secteur non plus. Cette semaine, Meta a recruté trois chercheurs d’élite d’OpenAI. Ces experts, basées à Zurich étaient jusqu’ici impliqués dans les avancées les plus pointues de l’IA générative. Et Sam Altman voit rouge et dénonce des méthodes de recrutement agressives.
Meta pique trois chercheurs à OpenAI
Selon le Wall Street Journal, Lucas Beyer, Alexander Kolesnikov et Xiaohua Zhai ont quitté le navire OpenAI. Ces chercheurs IA voulaient rejoindre une mystérieuse équipe superintelligence montée par Meta. Apparemment, cette équipe veut taper fort dans la course à l’IA générale (AGI), cette fameuse intelligence capable de tout faire comme (ou mieux que) nous.
Le coup est dur, surtout que Meta cherche à redorer son blason. Autrefois star de l’IA open source, l’entreprise a récemment accusé du retard par rapport à Google, OpenAI ou même la startup chinoise DeepSeek.
Par ailleurs, Mark Zuckerberg vient aussi de recruter Alexandr Wang, jeune PDG de Scale AI (28 ans seulement !), tout en prenant 49 % de la boîte pour 14,3 milliards de dollars. Son objectif est d’améliorer ses équipes et se repositionner comme un leader mondial de l’IA.
Ainsi, Sam Altman l’a dit sans détour : « Meta nous considère comme son plus grand concurrent ». Vu les mouvements récents, ce n’est plus une supposition, c’est une guerre froide de l’IA qui démarre. Meta joue gros, OpenAI se braque et la bataille pour la superintelligence est officiellement lancée.
Mais malgré ces offres alléchantes, aucun employé stratégique d’OpenAI n’a rejoint Meta.
Une bataille discrète, mais féroce oppose Meta à OpenAI pour attirer les meilleurs talents en IA. Sam Altman révèle cette rivalité lors d’une interview sur le podcast Uncapped le 17 juin 2025. Il a accusé Meta d’offrir des primes de signature de 100 millions de dollars, assorties de salaires annuels encore plus élevés pour débaucher les employés clés d’OpenAI.
Meta convoite les employés d’OpenAI
Meta redouble d’efforts pour bâtir une équipe capable de rivaliser dans la course à la superintelligence. Pourtant, la firme reste en retrait, notamment face à OpenAI, considéré comme un adversaire de taille.
« J’ai entendu dire que Meta nous voit comme son principal concurrent, et il est logique qu’ils persistent », a confié Sam Altman à propos des tentatives de débauchage opérées par Meta.
Consciente de cette force, Meta multiplie les offensives pour recruter, allant jusqu’à proposer des primes de recrutement à neuf chiffres à des profils seniors.
Malgré ces propositions hors normes, aucun cadre clé n’a quitté OpenAI pour rejoindre Meta, selon Sam Altman. Un revers que Mark Zuckerberg attribuerait à la culture d’entreprise singulière de la firme californienne.
Chez OpenAI, les rémunérations déjà élevées rendent les millions supplémentaires de Meta peu attractifs. D’autant plus que cette dernière reste perçue, dans l’écosystème IA, comme en retard dans la conquête de l’AGI.
Guerre des talents en IA
Meta ne lésine pas sur les moyens pour combler son retard en IA, mais ses résultats déçoivent, comme l’a souligné Altman. L’entreprise a tenté de recruter des pointures comme Noam Brown (OpenAI) ou Koray Kavukcuoglu (GoogleDeepMind), sans succès.
Certains observateurs nuancent toutefois ce constat. Daniel Newman, PDG de Futurum Group, a salué sur CNBC le rôle moteur de Meta dans la démocratisation de l’IA via son modèle open source.
« Meta a construit les rails de l’IA open source avec Llama, permettant à de nombreuses applications tierces de prospérer », a-t-il affirmé. En rendant son code librement accessible, Meta a su renforcer sa présence dans l’écosystème IA mondial.
Mais pour Altman, cette approche centrée sur l’argent plutôt que sur la mission nuit à sa capacité à fédérer une équipe innovante. À l’inverse de Meta, OpenAI cultive une culture où les employés sont galvanisés par la perspective de façonner l’avenir de l’IA.
Cette divergence se manifeste dans les choix stratégiques récents. OpenAI a frappé fort en acquérant la startup IO, spécialisée dans les appareils IA et cofondée par Jony Ive, ancien designer emblématique d’Apple. Montant de l’opération : 6,4 milliards de dollars.
De son côté, Meta a récemment injecté 14,3 milliards de dollars dans Scale AI. La maison mère de Facebook obtient ainsi 49 % de participation dans cette startup spécialisée dans la labellisation de données. L’opération s’accompagne de l’arrivée de son PDG, Alexandr Wang, placé à la tête de la division IA de Meta.
Vous pensiez discuter tranquillement avec Meta AI tout ce temps ? Attention, vous êtes complètement à côté de la plaque ! Vos conversations avec le chatbot ne sont pas totalement confidentielles. Elles pourraient bien se retrouver sous les yeux du monde entier.
Meta a intégré un fil « Discover » à son application d’IA. Ce flux de découverte, accessible via Facebook, permet de créer des images et de discuter avec un chatbot maison.
Mais méfiez-vous ! Ne lui racontez pas votre vie. L’entreprise n’est pas douée pour garder les secrets. Vos échanges avec Meta AI peuvent être partagés avec vos contacts via un bouton dédié. Un peu comme on poste une photo ou un statut sur un réseau social.
Et il se peut que vous ne vous en rendiez même pas compte.
Ne faites pas confiance à Meta !
Non, la startup n’en est pas digne. J’ai moi-même vu ce qu’il y avait dans ce flux Discover. Alors oui, je suis d’abord tombé sur des visuels du genre Tony Stark en designer de sneakers. Ou encore Donald Trump baignant dans les flammes…
Rien d’anormal pour une plateforme de contenus IA. Cependant, au milieu de ces créations exposées, j’ai constaté des conversations bien réelles. Des utilisateurs qui posent des questions très… intimes.
Comment aborder des femmes asiatiques en tant qu’homme plus âgé ? Que faire face à des éruptions cutanées dans des zones sensibles ? Comment améliorer leur digestion ? Le tout accompagné des réponses du chatbot, créant des dialogues surréalistes et parfois totalement déplacés.
Certains contenus révèlent même des confessions sur des fraudes fiscales et des évocations d’arrestations. S’ajoutent à cela les demandes de lettres de recommandation accompagnées de noms et de coordonnées complètes.
L’experte en cybersécurité Rachel Tobac y a même découvert des contenus qui divulguent de données judiciaires. Et puisque ces échanges ont été publiés, les gens peuvent les commenter et s’en moquer.
Il y en a des internautes qui tentent de prévenir les auteurs que leurs confidences sont publiques. Quoique, trop tard ! Elles sont déjà en ligne.
Toute la vérité n’est pas bonne à dire
Aujourd’hui, ce vieux proverbe s’applique aussi bien aux échanges entre humains qu’aux conversations avec des chatbots.
Certes, Meta est fautif. En aucun cas je ne le défend. La situation aurait probablement pu être évitée si une meilleure signalisation des options de partage avait été mise en place dès le départ.
D’ailleurs, si cette option n’existait pas pour les discussions écrites et audios, rien ne serait arrivé. Comment la startup a pu croire que nous aurions envie de diffuser nos conversations avec une IA à notre entourage ?
Cela dit, sans vouloir remuer le couteau dans la plaie, on aurait été épargnée de toute exposition de contenus sensibles si on n’abordait rien de tel avec l’IA.
Quoi qu’il en soit, à l’avenir, si vous utilisez Meta AI, évitez de cliquer trop vite sur « partager », au risque de rendre publiques des conversations que vous n’aviez jamais eu l’intention d’exposer.
Et vous, qu’est-ce que vous conseillez ? Sinon, avez-vous déjà essayé ce fil Discover de Meta AI ? Dites-nous tout dans les commentaires !
V-JEPA 2, une nouvelle IA, apprend aux robots à prédire, planifier et interagir avec leur environnement à partir de vidéos brutes. Et ce, sans données annotées.
Le 11 juin 2025, Meta présente Video Joint Embedding Predictive Architecture (V-JEPA) 2. Cette IA apprend aux robots des concepts essentiels comme la gravité ou le mouvement. Cela leur permet de prédire, de planifier et d’agir dans des nouvelles situations de manière plus fluide, à l’image de l’humain.
Une IA qui apprend comme les humains
V-JEPA 2 permet aux robots de comprendre, prédire et planifier dans le monde physique. Contrairement aux IA traditionnels, ce modèle mondial s’appuie sur des clips vidéo montrant des interactions réelles. Des séquences simples, comme une balle tombant d’une table ou un objet se déplaçant sur une surface plane.
Meta announces V-JEPA
a method for teaching machines to understand and model the physical world by watching videos pic.twitter.com/p62mYsbsTH
Ce modèle, doté de 1,2 milliard de paramètres, apprend des concepts demouvement de manière autonome. Il saisit des notions fondamentales telles que la gravité, le déplacement ou la présence d’obstacles, sans recourir à des données étiquetées.
En opérant dans un espace latent simplifié, cette IA traite l’information plus rapidement et s’adapte à des situations inédites. V-JEPA 2 a déjà fait ses preuves en laboratoire, où des robots ont réussi à saisir des objets inconnus et à les placer dans de nouveaux environnements.
V-JEPA 2 rend les robots plus autonomes
Ce modèle mondial donne aux automates la capacité de planifier leurs actions même dans des environnements qu’ils ne connaissent pas. Ce modèle ouvre la voie à des applications concrètes, comme des robots livreurs ou des véhicules autonomes capables de s’adapter au terrain.
Grâce à cette IA, les automates peuvent anticiper les obstacles et prendre des décisions en temps réel avec fluidité et précision. « V-JEPA 2 représente un progrès significatif vers notre objectif ultime de développer une intelligence artificielle avancée (AMI) », a déclaré Meta.
La maison mère de Facebook a aussi publié trois benchmarks vidéo. Des outils essentiels pour mesurer l’habileté des IA à apprendre et à raisonner à partir de séquences visuelles. De plus, V-JEPA 2 est accessible sous licence MIT, encourageant la recherche et l’innovation.
Pour soutenir cette ambition, Meta a même investi 14 milliards de dollars dans Scale AI. Il reste à voir comment cette approche se positionnera face à d’autres projets comme Genie de Google DeepMind ou World Models de Fei-Fei Li.
Meta lance une offensive judiciaire et technologique contre des applications IA responsables de deepfakes nus proliférant sur Facebook et Instagram.
Des images générées sans consentement, à caractère sexuel, envahissent les réseaux sociaux. Alimentées par des applications baptisées nudify, ces créations issues de l’IA générative détournent des photos ordinaires pour produire des deepfakes explicites.
Les applications « nudify » échappent à tout contrôle
Alimentés par l’IA, ces outils transforment des photos de personnes réelles en images explicites sans consentement. Sur Facebook et Instagram, ces contenus se propagent rapidement à travers des publicités déguisées.
Q5. “Nudify” apps use AI to remove clothing from photos, often without consent. What risks do these tools pose to minors, and how can we effectively address them? #NCAPM25
— National Center for Missing & Exploited Children (@NCMEC) April 30, 2025
D’après Alexios Mantzarlis de Faked Up, pas moins de 10 000 publicités contenant des corps nus promouvant des applications d’IA ont circulé sur les plateformes phares de Meta.
Les deepfakes, souvent utilisés pour la fraude ou la désinformation, n’est pas nouveau. Mais les applications dites nudify visent principalement la gratification sexuelle ou l’humiliation.
Les applications nudify auraient déjà visé 6 % des adolescentes. « Le coût émotionnel pour les jeunes est absolument dévastateur. Beaucoup se sentent violés, impuissants, privés de tout contrôle », alerte Matthew Sowemimo, directeur adjoint de la politique de sécurité des enfants à la NSPCC.
Meta riposte contre les deepfakes nus générés par l’IA
Face au phénomène croissant des deepfakes nus générés par IA, Meta intensifie ses efforts à travers une double stratégie : des poursuites judiciaires et des innovations technologiques.
Le 12 juin 2025, l’entreprise a déposé plainte contre Joy Timeline HK Limited, éditeur de Crush AI, l’une des applications principales incriminées. En parallèle, la plateforme perfectionne ses outils de détection, même lorsque les publicités ne contiennent aucun contenu explicite.
Meta renforce également ses mécanismes de vérification. Elle ambitionne d’intégrer la reconnaissance faciale et d’exiger la déclaration de l’utilisation de l’IA dans les contenus sponsorisés.
Plus de 3 800 URL jugées problématiques ont déjà été partagées avec d’autres entreprises via le programme Lantern. En outre, la maison mère de Facebook a récemment démantelé quatre réseaux de comptes diffusant ces publicités illégales.
Sur le plan légal, Meta soutient activement des initiatives telles que le Take It Down Act de mai 2025. Malgré ces efforts, de nombreuses publicités passent encore entre les mailles du filet.
Meta améliore son assistant IA avec une nouvelle fonctionnalité qui risque de faire des heureux chez les amateurs de contenus dynamiques : c’est le montage vidéo IA. Et bonne nouvelle, nul besoin d’être monteur pro pour en profiter.
Ce 11 juin, Meta a dévoilé un ensemble d’outils de montage vidéo intégrés à Meta AI. Ils permettent de modifier en quelques secondes l’apparence, le style ou l’ambiance d’un clip vidéo. Grâce à une cinquantaine de préréglages malins, vous pouvez maintenant transformer une simple séquence en mini-scène stylisée. Costumes, décors, lumières… tout se retouche via des invites prédéfinies, sans logiciel compliqué ni ligne de code.
Meta AI se lance dans le montage vidéo
Meta a donc intégré à son assistant Meta AI une série de 50 préréglages inspirés directement de ses modèles Movie Gen AI. L’objectif est de vous permettre de jouer avec l’ambiance, les tenues ou encore les décors d’un clip vidéo. Et cela, sans devoir maîtriser After Effects ou Premiere Pro.
En un clic, vous pouvez donner à une vidéo banale un style bande dessinée vintage. Vous pouvez aussi lui coller un ciel pluvieux pour plus de drama. Ou pourquoi ne pas transformer un simple tee-shirt en combinaison de cadet de l’espace ?
Ces nouvelles fonctionnalités sont déployées aux États-Unis, pour l’instant, via l’appli Meta AI et le site Meta.ai. Ils sont également disponibles sur un outil baptisé Edits, qui joue dans la même cour que CapCut.
Une fois le montage vidéo terminé, vous pouvez partager directement vos créations sur Facebook et Instagram depuis Edits ou l’app Meta AI.
L’entreprise veut clairement attirer les créateurs en leur facilitant la vie avec des outils rapides, fun et accessibles. En plus, Meta AI ne cache pas son envie de concurrencer Google et d’autres acteurs du montage vidéo IA comme Captions.
Par ailleurs, Meta promet déjà plus d’options de personnalisation d’ici la fin de l’année. En attendant, les premiers retours utilisateurs ont déjà permis d’affiner les préréglages disponibles. Moi, je trouve que cet outil de montage vidéo IA est parfait pour réinventer un souvenir de vacances ou créer une story originale.
Meta sort les griffes et vise la superintelligence : une IA qui va dépasser l’intelligence humaine ! Avec un nouveau labo dirigé par le prodige Alexandr Wang, le géant de la tech veut écraser la concurrence. Son plan ? Regrouper 50 génies de l’IA en leur proposant des salaires à 9 chiffres !
Au cœur du séisme technologique de l’intelligence artificielle, on pense souvent à des noms comme OpenAI, Google et Microsoft.
Ces géants s’arrachent les talents et investissent des sommes mirobolantes pour façonner un avenir où l’homme et la machine se confondent.
Dans cette course effrénée, Meta est souvent reléguée au second plan derrière ses rivaux plus bruyants. Pourtant, le créateur de Facebookvient de frapper un grand coup.
La firme annonce la création d’un nouveau labo IA, entièrement consacré à la création d’une IA capable de surpasser l’homme. Oui, tu as bien lu : plus forte que le cerveau humain.
Un nouveau labo dirigé par le prodige de la Data
Alors, comment compte-t-elle y arriver ? D’abord, en s’offrant les meilleurs cerveaux. L’équipe est montée par Mark Zuckerberg en personne.
Celui qui prend les commandes de ce projet hors normes, c’est Alexandr Wang, 28 ans, fondateur de Scale AI.
Son CV parle pour lui : un MIT à peine entamé, une boîte fondée à 19 ans, et déjà une fortune estimée à 3,6 milliards de dollars. Pour l’anecdote, c’est aussi l’ancien colocataire de Sam Altman, le CEO d’OpenAI…
Sa startup, fondée en 2016 aux côtés de Lucy Guo (virée depuis) s’est fait un nom en traitant les montagnes de données indispensables aux IA modernes.
Etiquetage, nettoyage, labellisation : Scale AI est devenu le nettoyeur haute pression du secteur. Ses clients sont OpenAI, Microsoft ou encore Cohere. Un carnet d’adresses en or massif.
Salaires à 9 chiffres pour les Avengers de l’IA
Avec Wang, Meta débauche les stars de la tech à coups de salaires dignes des Avengers de l’IA : de sept à neuf chiffres pour convaincre les meilleurs de Google, OpenAI et consorts de quitter leur poste actuel pour rejoindre l’aventure.
Une équipe de 50 experts, les « Fantastic 50 », est en train de se constituer. Les négos se passent directement dans les villas de Zuckerberg à Lake Tahoe et Palo Alto.
On imagine facilement ce bon vieux Zuck cigare au bec, négociant dans un nuage de fumée tel un parrain du business IA !
Une manoeuvre stratégique de la part de Zuckerberg
Ce laboratoire marque un tournant stratégique pour Meta, confrontée à un marché en ébullition.
Depuis le coup de tonnerre ChatGPT en 2022, tout le monde veut sa part du gâteau. Dans cette ruée vers l’or, les géants de la tech dégainent à coups de milliards, rachètent, embauchent, et balancent des chatbots à la pelle.
Plus de 13 milliards de dollars ont été injectés dans OpenAI par Microsoft, tandis qu’Amazon a investi 8 milliards de dollars dans la startup Anthropic.
Ils recrutent aussi les talents issus de start-up prestigieuses ou rachètent leurs technologies. L’an dernier, Google a accepté de débourser 3 milliards pour s’offrir des licences de Character.AI.
Et Meta ? Elle ne veut pas simplement rattraper son retard, mais écraser la concurrence.
Même si Zuckerberg a toujours misé gros sur l’IA, le succès est jusqu’ici resté mitigé. Llama ? Un modèle prometteur, mais qui a vite fait débat. Benchmarks un peu arrangés, performances discutables.
Meta AI ? Un chatbot sympa, mais pas révolutionnaire, loin de là. Même l’intégration dans ses Ray-Ban connectées n’a pas suffi à emballer la galerie.
Tous ces demi-échecs ont provoqué une fuite des talents, des tensions internes, et une division IA qui ressemble plus à un champ de bataille qu’à une ruche d’innovation.
C’est donc pour se remettre dans la course que Meta sort l’artillerie lourde. Mais ce n’est pas tout. Le but est aussi de court-circuiter les régulateurs.
Avec la FTC sur le dos pour ses rachats d’Instagram et WhatsApp, le deal Scale AI est monté sur mesure pour éviter les foudres judiciaires. Un coup de poker légal, en somme.
Cette ambition est déjà démesurée, mais Meta vise encore plus haut : la SuperIntelligence. Une IA à la puissance décuplée, capable de transformer l’économie, la recherche et la médecine.
Ce pari peut sembler fou, mais Zuckerberg et Wang y croient dur comme fer. Derrière, il y a aussi Yann LeCun, le grand manitou de l’IA chez Meta.
Prix Turing 2018, pionnier des réseaux neuronaux, il rêve depuis des années de dépasser les limites actuelles de l’IA.
Là où beaucoup estiment que ChatGPT ou Gemini suffiront à tout changer, LeCun affirme que de nouvelles idées sont nécessaires pour franchir le cap. Son mantra : « on n’y arrivera pas avec les recettes d’hier.»
Un discours qui fait grincer des dents dans les labos de la Silicon Valley, où la course à l’IAG ressemble de plus en plus à un concours de puissance brute.
Et pour renverser la table, Meta compte aussi sur l’open source. Avec Llama et Meta AI, le géant a déjà mis ses outils à disposition de la planète tech. Une stratégie gagnante : plus d’un milliard d’utilisateurs par mois, selon Zuckerberg.
En février 2025, il qualifiait l’IA de « potentiellement l’une des innovations les plus importantes de l’histoire ». Il a aussi ajouté que : «Cette année va tracer la voie pour l’avenir. »
Avec Scale AI dans sa manche, l’entreprise dispose désormais d’un pipeline de données et de talents qui ferait pâlir n’importe quel concurrent. Alexandr Wang et ses Fantastic 50 sont prêts à changer la donne.
Et vous, qu’en pensez-vous ? Meta peut-elle reprendre la tête de la course à l’IA en recrutant les 50 plus grands talents du monde dans son nouveau laboratoire ? Partagez votre avis en commentaire !
Sur les stands feutrés de Macao, les lunettes du futur s’affichent déjà comme les stars de demain. Derrière leur apparence discrète, elles réécrivent nos usages quotidiens avec une audace technologique qui secoue l’Occident.
Lors du Beyond Expo à Macao, la Chine a exposé sa puissance technologique dans un domaine inattendu. Huit paires de lunettes connectées, bientôt disponibles en Europe, dévoilent un éventail de fonctionnalités qui redéfinissent les usages du quotidien. “Certaines m’ont donné envie de ranger mes Ray-Ban Meta,” confie un testeur conquis par ces innovations. Affichage XXL, traduction en direct, ou correction visuelle dynamique : l’offre asiatique impressionne par son ambition.
Un home cinéma de 300 pouces sur le nez
Les Rokid AR Spatial transforment un trajet en avion en séance de cinéma privée géante. Grâce à un écran virtuel de 300 pouces, regarder “Avatar” en 3D devient une expérience visuelle frappante. Pas besoin de smartphone : un mini-PC Android intégré sert de cerveau à l’ensemble.
Compatibles avec consoles et smartphones via USB-C, ces lunettes séduisent aussi les gamers. Seul défaut : il faut ajouter manuellement un cache pour l’opacité. “Mais pour jouer discrètement à la PS5, ça suffit largement,” plaisante un utilisateur.
L’intelligence augmentée au service des voyageurs
Les Rokid Glasses misent sur l’utilité quotidienne : traduction instantanée, reconnaissance d’objets et assistant IA textuel. Contrairement aux Ray-Ban Meta, les réponses s’affichent à l’écran au lieu d’être vocalisées. Un avantage qui change la donne, selon les premiers retours.
Les interfaces rappellent les vieux terminaux monochromes, mais restent lisibles. “Fonctionnelles, même si l’ergonomie mérite des ajustements,” note un développeur présent sur le salon. Le potentiel s’adresse aux expatriés et professionnels en déplacement constant.
Un clone des Ray-Ban… encore en rodage
Les Looktech AI Glasses misent tout sur la légèreté et l’assistance vocale, à la manière des Ray-Ban Meta. Pas d’écran ici, mais une IA intégrée, un micro performant, une caméra discrète et une diode d’enregistrement.
Pour l’instant, seules les commandes en chinois sont disponibles, mais l’anglais est prévu et le français pourrait suivre. Le tout fonctionne comme un assistant conversationnel à reconnaissance vocale, embarqué directement dans la monture. La simplicité de cette paire intrigue : pas de fioritures, juste une IA prête à répondre. “C’est comme discuter avec un ChatGPT miniature,” explique un visiteur du salon. Prometteur, bien que limité géographiquement.
À 12 dollars, les lunettes audio font le buzz
Dans l’univers des lunettes connectées chinoises, tout ne rime pas avec haute technologie. Certaines visent le marché de masse, comme ce modèle vendu 12 dollars pièce (en lot). Pas de caméra, pas d’IA, pas d’écran : juste du Bluetooth, de la musique et des appels. Deux branches indépendantes abritent chacune une batterie, rechargée avec un simple câble en Y. Le plastique est basique, mais le rendu sonore est correct.
C’est un objet sans prétention, qui mise sur l’essentiel. “Elles seront partout dans les rayons discount tech,” assure un distributeur. Pour de nombreux consommateurs, cela suffira largement à passer à l’ère connectée.
Corriger la vue en temps réel : science-fiction ?
Venue du Japon, la Vixion 01S ambitionne de faire disparaître les verres correcteurs traditionnels. Deux lentilles motorisées adaptent la correction en temps réel grâce à un capteur situé au centre. L’autofocus ajuste la vision selon la distance et l’objet observé, en seulement quelques millisecondes. Le résultat ? Une vue nette sans changer de lunettes, même en cas de myopie ou d’hypermétropie.
Le prototype souffre encore d’un léger décalage, mais l’idée est révolutionnaire. Classé comme dispositif médical, ce modèle devra attendre son homologation avant d’arriver en Europe. Pour l’instant, la performance prime sur le design, mais la prouesse optique est indiscutable.
Des lunettes sportives dotées d’un cerveau Snapdragon
Les Emdoor AI Glasses incarnent une autre facette des lunettes connectées chinoises : la performance technique. Dotées d’un processeur Snapdragon, de 2 Go de RAM et de 32 Go de stockage, elles tournent sous Android. Traduction, reconnaissance d’image, interaction vocale : tout est pensé pour les activités nomades.
Pour l’instant, pas d’écran, mais un modèle avec projection est prévu l’an prochain. L’objectif est clair : proposer une alternative sérieuse aux lunettes occidentales, avec un socle logiciel plus ouvert. “C’est une plateforme mobile portée au visage,” explique un développeur. Une orientation tournée vers le mouvement, la performance et les usages du quotidien.
Meizu surprend avec des lunettes centrées sur le multimédia
Longtemps silencieuse, la marque Meizu surprend avec deux modèles marquants de lunettes connectées chinoises. Les StarV View proposent une projection virtuelle de 188 pouces et du son stéréo dans les branches. Deux molettes permettent d’ajuster précisément la vision, un atout pour les porteurs de lunettes classiques.
Les StarV Air, plus discrètes, intègrent un écran grâce à la technologie des guides d’ondes. L’affichage est encore monochrome, mais la lisibilité reste satisfaisante. “C’est un modèle simple et fiable pour regarder des contenus,” affirme un utilisateur. Meizu revient donc par la petite porte, mais avec une vraie proposition pour les amateurs de multimédia personnel.
L’Occident préfère la finition à la précipitation
Google riposte avec Android XR, présenté lors du Google I/O 2025. Développé avec Lumus, ce modèle intègre des microLEDs projetant une image multicolore directement sur les verres. L’affichage est lumineux, discret et l’interface fluide séduit immédiatement les testeurs. Contrairement aux écrans monochromes des prototypes asiatiques, ici tout respire la maturité logicielle.
Les lunettes Android XR montrent que l’Occident préfère peaufiner ses produits pour une expérience cohérente. C’est une réponse stratégique qui combine savoir-faire industriel et expérience utilisateur pensée dans les moindres détails.
Trois familles d’usages, une dynamique globale
Derrière la diversité de ces lunettes, trois catégories dominent : audio connectée à bas prix, lunettes IA pour le quotidien et modèles pour divertissement. Un mouvement profond s’installe. Les casques de réalité virtuelle reculent, remplacés par ces lunettes légères et pratiques. La réalité augmentée prend enfin une forme concrète, accessible et portable. L’Europe n’a plus qu’à suivre le rythme.
Meta vient de signer un contrat énergétique avec Constellation Energy, propriétaire d’un réacteur nucléaire dans l’Illinois. Ce partenariat de vingt ans vise à répondre à la croissance énergétique des centres de données et de l’IA.
Il s’agit du premier contrat de Meta impliquant directement une centrale nucléaire existante, le Clinton Clean Energy Center. La centrale fournira de l’électricité à Meta afin de couvrir en partie les énormes besoins d’énergie générés par ses services numériques. Facebook, Instagram et les outils d’IA nécessitent désormais une infrastructure énergétique à grande échelle et en constante disponibilité.
D’autres entreprises technologiques ont pris des décisions similaires face à la montée des besoins en électricité.Google a signé des accords portant sur des petits réacteurs nucléaires, construits par un fournisseur californien. De son côté, Microsoft prévoit de relancer la centrale de Three Mile Island, tristement célèbre pour sa fuite radioactive. Ces choix révèlent une tendance : sécuriser des sources d’énergie capables de supporter la montée en puissance de l’IA.
La centrale de Clinton bénéficie d’un programme financé par les contribuables de l’Illinois : les crédits zéro émission. Ce mécanisme incite les producteurs à maintenir une production bas carbone, en échange de subventions. Le programme prendra fin en 2027, date à laquelle Meta assurera le relais financier via ce nouvel accord énergétique. Le montant exact de l’investissement n’a pas été communiqué, mais il soutiendra le renouvellement de la licence d’exploitation.
Un impact concret sur la capacité et la longévité de la centrale
Grâce à cet accord, Constellation prévoit une légère augmentation de la capacité énergétique de Clinton. Elle passera de 1 121 mégawatts à 1 151 mégawatts, soit une hausse de 30 MW. Cette production pourrait alimenter environ 800 000 foyers aux États-Unis, selon les estimations fournies. Clinton a été mise en service en 1987 et pourrait prolonger ses activités jusqu’en 2047, si le renouvellement de licence est accepté.
Urvi Parekh, responsable de l’énergie chez Meta , a déclaré : « L’une des choses que nous entendons très souvent de la part des services publics est qu’ils veulent avoir la certitude que les centrales électriques en activité aujourd’hui continueront de fonctionner. »
Le partenariat entre Meta et Constellation Energy pourrait servir de modèle pour d’autres entreprises tech. Joe Dominguez, PDG de Constellation, explique : « Nous sommes certainement en pourparlers avec d’autres clients, pas seulement dans l’Illinois, mais dans tout le pays ». Il souhaite que d’autres suive l’exemple de Meta, en finançant des infrastructures nucléaires déjà en fonctionnement. Cela leur permettrait de maintenir des installations fiables et de préparer l’avenir énergétique des centres de données.
Une sécurité aussi pour les emplois locaux de la centrale
Le partenariat n’impacte pas uniquement la production d’électricité à l’échelle industrielle. Bobby Wendell, représentant syndical, estime que cet accord permettra de maintenir un environnement de travail stable pour les employés de Clinton. La stabilité économique de ces infrastructures dépend aussi du soutien apporté par les grandes entreprises tech. Pour ces travailleurs, la continuité d’activité reste une priorité tout autant que pour les algorithmes.
Toutes vos données publiques sur Instagram et Facebook vont servir à Meta pour entraîner son IA. Cette nouvelle politique doit être lancée à partir du 27 mai 2025. Cependant, les internautes peuvent s'opposer à ce traitement de leurs données personnelles. Avec, toutefois, certaines limites.
Face à Google, maître incontesté de la recherche, et TikTok, champion du divertissement viral, Meta AI trace une nouvelle voie. Intégrée à Facebook, Instagram et WhatsApp, cette intelligence artificielle conversationnelle entend transformer l’expérience utilisateur en combinant recherche, création et interaction sociale.
Meta AI, à mi-chemin entre assistant personnel et réseau social conversationnel
Meta AI n’est pas un simple chatbot. Elle se place à la croisée des chemins. Ni tout à fait un assistant comme Claude ou ChatGPT, ni vraiment une plateforme de création comme TikTok. Quelque chose entre les deux. Ou plutôt, au-delà des deux.
L’assistant tourne sur Llama 4, le dernier grand modèle de Meta. Multimodal, il traite texte, voix et image. Et permet donc des interactions riches, variées. Mais ce n’est pas là son seul atout.
Son véritable avantage réside dans l’écosystème Meta. Avec Facebook, Instagram et WhatsApp — trois géants du numérique — l’entreprise dispose d’une infrastructure unique pour intégrer l’IA directement là où les utilisateurs sont déjà présents.
Cela change tout. Car, contrairement à ses concurrents, Meta AI n’a pas besoin de convaincre les utilisateurs de modifier leurs habitudes numériques. Elle s’intègre simplement dans leur quotidien.
Ainsi, si Google domine la recherche par mots-clés, et TikTok le divertissement par vidéos courtes, Meta AI mise, elle, sur une troisième voie. Celle d’une intelligence artificielle profondément intégrée aux réseaux sociaux, conçue pour favoriser des interactions continues, personnalisées et sociales.
Comment Meta AI transforme-t-il la recherche d’informations face à Google et TikTok ?
A la différence de Google et TikTok, Meta AI offre des réponses formulées en langage naturel, en s’appuyant sur les résultats de recherche en temps réel de Google et Bing.
Posez une question comme : « Quel film regarder ce soir ? » — au lieu d’une simple liste de résultats, vous entrez dans un véritable échange avec l’assistant d’intelligence artificielle.
Meta AI prend en compte vos goûts, les recommandations de vos amis et les tendances du moment. Elle écoute, anticipe, reformule et propose, pour une expérience plus personnelle, fluide et intuitive. Mais, l’application a ses limites.
En effet, si sa fluidité est séduisante, sa fiabilité est en revanche très perfectible. Sources imprécises, réponses parfois approximatives : l’exigence factuelle de Meta AI n’est pas encore pleinement au rendez-vous. Sur ce point, Google conserve une longueur d’avance sur la concurrence. Indexation massive, algorithmes affûtés, et des millions de pages référencées — aucun moteur de recherche n’égale encore sa précision.
Malgré ses imperfections, l’expérience proposée par Meta AI pourrait bien séduire un public en quête de simplicité. En particulier ceux qui en ont assez de parcourir des pages de résultats interminables. Une nouvelle manière de chercher, qui ne se veut pas forcément meilleure, mais simplement différente.
Discover Feed, là où Meta AI libère tout votre potentiel créatif
Meta AI ne se contente plus ainsi de répondre aux questions : elle incite à créer. Avec son fil Discover, l’application propose un flux continu de contenus générés par l’intelligence artificielle — textes, images, sons — tous modifiables, remixables et partageables.
À la manière d’un fil TikTok, chaque scroll dévoile de nouvelles idées, prêtes à être explorées et réinterprétées.
L’ambition de Meta est simple : faire de chaque utilisateur un créateur. Nul besoin de compétences techniques poussées, un prompt bien pensé suffit pour générer une image, écrire une histoire ou composer une mélodie. L’objectif : créer une communauté vivante et vibrante, où chacun peut passer avec une extrême aisance du simple statut de spectateur à celui d’acteur.
On s’en doute, la qualité des prompts jouent ici un rôle central. Des prompts bien pensés et rédigés peuvent déclencher des vagues de créations collectives, certaines devenant virales, à l’instar des défis sur TikTok.
Si Google reste l’expert incontesté de l’information structurée et TikTok le champion du divertissement immédiat, Meta AI investit un nouvel espace numérique. L’intelligence artificielle s’y émancipe de son statut utilitaire pour s’affirmer comme un véritable collaborateur créatif, au centre d’un écosystème social favorisant le partage d’idées.
Derrière cet aspect sociale et ludique se cache toutefois une réalité plus sensible : la collecte massive de données. Navigation, préférences de contenu, interactions sociales — chaque action de l’utilisateur est attentivement scrutée, puis analysée par Meta AI. Officiellement, il s’agit d’optimiser l’expérience utilisateur. Mais cette forme de surveillance ne manque pas de soulever de brûlantes questions sur le respect de la vie privée et le niveau de contrôle des données.
En somme, Meta AI n’est pas un simple assistant virtuel. C’est un écosystème où chaque utilisateur est à la fois spectateur, créateur… et source de données.
Meta AI, l’omniprésence comme arme stratégique contre Google, Claude et TikTok
Ce qui distingue Meta AI de ses concurrents TikTok, Google Gemini ou ChatGPT, c’est son niveau d’intégration au sein d’un écosystème déjà massivement adopté.
Là où ChatGPT ou Gemini restent confinés à des interfaces dédiées, Meta AI se déploie sans restriction : elle dialogue via les lunettes connectées Ray-Ban, synchronise les conversations entre appareils et s’insère naturellement dans les applications utilisées chaque jour par des milliards de personnes.
Un utilisateur peut ainsi commencer une discussion sur son smartphone, la reprendre plus tard via ses lunettes connectées, et retrouver le fil de l’échange sur Instagram. Une continuité d’expérience rare.
Cette stratégie repose sur une idée simple : l’IA doit suivre l’utilisateur, pas l’inverse. Fini de changer d’application ou d’interrompre son flux d’activité. Meta AI est présente là où l’utilisateur se trouve déjà : sur WhatsApp pour converser, sur Instagram pour partager.
Mais cette présence ubiquitaire soulève plusieurs questions. D’abord, celle de la saturation cognitive : sommes-nous réellement prêts à cohabiter avec une IA omniprésente, intégrée en permanence à notre environnement numérique ?
Ensuite, celle de la vie privée : plus l’IA s’insinue dans nos espaces, plus elle collecte de données — sur nos préférences, nos comportements et nos échanges. Une promesse de fluidité qui s’accompagne d’un coût potentiel : celui d’une exposition permanente.
Les faiblesses de Meta AI dans sa bataille contre Google et TikTok
Malgré ses atouts et son intégration poussée, Meta AI divise. Si Google reste le fer de lance de la recherche précise et que TikTok domine le divertissement express, Meta AI ne convainc pas encore pleinement.
Chez les professionnels, les réserves sont ainsi nombreuses. « Ce n’est ni un véritable copilote de travail ni un moteur de recherche fiable », souligne un expert. L’interface peut être fluide, encore faut-il que le fond suive. Or, trop souvent, les réponses manquent de profondeur : peu de sources vérifiées, analyses superficielles, ou encore suggestions approximatives. Pour un chercheur ou un développeur, Meta AI reste un outil d’appoint — jamais central.
Du côté des utilisateurs, certaines fonctionnalités soulèvent une réelle méfiance. En particulier, le partage automatique de contenus, activé par défaut, cristallise les inquiétudes. Meta assure que rien n’est publié sans accord explicite, mais la distinction entre consentement réel et implicite reste floue.
Enfin, la gestion des données demeure opaque. Reconnaissance vocale, synchronisation multi-appareils et historiques conservés : les points d’accès sont nombreux, et les risques bien réels.
En bref, Meta AI séduit par son ambition et sa fluidité, mais elle inquiète aussi par son côté intrusif.
Meta AI, une vision pertinente du futur numérique ?
Peut-on imaginer un monde où Meta AI rivalise avec Google et TikTok ? Oui. Mais sous conditions. D’abord, celle de gagner en fiabilité et en pertinence. En transparence aussi.
Face à Google, elle doit montrer qu’elle est plus qu’une interface fluide — qu’elle est capable de fournir des réponses exactes, rapides et documentées. Face à TikTok, elle doit prouver qu’elle peut générer du viral sans sacrifier la qualité.
Le chemin est long. Mais pas impossible. Car Meta dispose d’un levier puissant : son écosystème. Des milliards d’utilisateurs et des données massives. L’entreprise a une vision claire : l’IA partout, tout le temps.
Reste à savoir si cette vision correspond à un besoin réel. Ou si elle n’est qu’une réponse à une demande qui n’existe pas encore.
Quoi qu’il en soit, Meta AI marque un tournant. Elle incarne une nouvelle étape de l’intelligence artificielle. Celle où l’IA n’est plus un outil isolé. Mais un compagnon, un média. Et c’est peut-être cela, le plus gros changement.
Une IA d’abord penséepour les jeunes générations
Meta AI s’adresse aux nouvelles générations, celles qui grandissent entre TikTok, WhatsApp et Instagram. Celles qui préfèrent les vidéos express aux longs articles, les échanges instantanés aux interfaces complexes.
Et c’est justement cette génération qu’espère capter Meta AI, en combinant l’immédiateté de TikTok, la recherche contextuelle de Google et la fluidité conversationnelle d’un réseau social.
L’interface de Meta AI est fluide, intuitive et visuelle. Ses réponses sont brèves, souvent enrichies d’images ou de sons. Aucune surcharge. Rien de trop technique. Juste assez pour répondre, créer et partager.
De plus, Meta AI encourage le remixage. Un utilisateur peut reprendre une création, y ajouter sa touche personnelle, puis la republier.
Ce mécanisme, emprunté directement au modèle viral de TikTok, stimule la créativité des utilisateurs sans exiger d’eux des compétences techniques avancées. L’IA fait une grande partie du travail. Le reste est affaire de goût, d’inspiration et de timing.
L’assistant Meta AI s’appuie sur les données que vous avez partagées au fil des années sur Facebook et Instagram. Publications, « j’aime », commentaires : chacun de ces éléments alimente une intelligence artificielle façonnée à votre image. Cette démarche n’a rien d’anodin. Mark Zuckerberg l’a affirmé sans détour : Meta ambitionne de créer un compagnon numérique capable de vous comprendre aussi bien qu’un vieil ami.
Sous le capot, c’est le modèle LLaMA 4qui anime cet assistant. Mais contrairement à ses concurrents comme ChatGPT, Meta AI ne se contente pas de réponses génériques. Il sait que vous préférez les films d’action aux comédies romantiques, que vous avez visité Barcelone trois fois, ou que votre chat s’appelle Pixel. Comment ? En analysant méticuleusement votre empreinte numérique sur les plateformes du groupe.
Quelles données Meta AI collecte-t-elle ?
Imaginez un instant l’étendue des informations que vous avez confiées aux plateformes de Meta. Vertigineux, n’est-ce pas ? Vos publications publiques constituent le premier gisement exploité par Meta AI. Statuts, commentaires, réactions… Tout est passé au crible pour comprendre vos centres d’intérêt.
Vous partagez régulièrement des photos de randonnées ? Meta AI le sait. Vous commentez passionnément l’actualité politique ? Elle l’a noté. Vous publiez des recettes véganes ? C’est enregistré. Rien ne lui échappe. Fragment par fragment, elle reconstruit votre personnalité pour mieux anticiper vos attentes.
Les images et vidéos enrichissent considérablement ce portrait. L’IA analyse vos photos de vacances et identifie vos proches. Elle reconnaît aussi les paysages que vous admirez. Les métadonnées associées – géolocalisation, personnes identifiées, dates – ajoutent une dimension contextuelle précieuse. Rien n’échappe à son regard analytique.
Votre comportement sur les plateformes révèle plus encore que vos publications. Le temps passé sur certains contenus, les profils visités, les publicités qui retiennent votre attention… Ces signaux implicites trahissent vos préférences réelles, parfois mieux que vos déclarations explicites.
Meta assure néanmoins respecter certaines limites. Les messages privés, les données des mineurs européens et les contenus partagés avec un cercle restreint seraient exclus de cette gigantesque collecte. Des garanties censées rassurer — mais dont la vérifiabilité reste incertaine.
Comment Meta entraîne-t-elle son IA avec vos informations personnelles ?
Que deviennent ces montagnes de données personnelles ? Elles nourrissent d’abord les modèles linguistiques de Meta. Chaque jour, des milliards de mots extraits de vos publications alimentent le modèle LLaMA 4. Cette masse textuelle lui permet de saisir les subtilités du langage humain, mais aussi vos expressions favorites et vos sujets de prédilection.
Les contenus visuels suivent un parcours similaire. Vos photos et vidéos entraînent Emu, le générateur d’images de Meta. L’entreprise affirme filtrer les informations sensibles avant utilisation – numéros de téléphone, documents personnels et données médicales. Une précaution nécessaire, mais dont l’efficacité reste difficile à évaluer.
La puissance de cette approche réside dans son échelle. Meta ne mise pas sur des corpus soigneusement sélectionnés, mais sur une avalanche de données brutes issues du quotidien. Cette stratégie permet à l’IA de capturer la diversité des comportements humains. Elle apprend que vous préférez les plages désertes aux stations balnéaires animées, simplement en analysant vos photos de vacances.
Sur le plan juridique, Meta justifie ce traitement massif par la notion d' »intérêt légitime » prévue par le RGPD. Un choix contestable. Contrairement au consentement explicite, cette base légale place en effet la responsabilité de l’opposition sur l’utilisateur. En Europe, vous pouvez théoriquement refuser l’utilisation de vos données pour l’entraînement de l’IA. Mais ce droit d’opposition s’exerce via un formulaire complexe qui décourage bien des utilisateurs. Une barrière discrète mais efficace.
La personnalisation à son apogée
« Bonjour Marie, je vois que tu prépares un voyage à Amsterdam. Veux-tu des recommandations de restaurants végétariens, comme lors de ton séjour à Berlin ? » Voilà le niveau de personnalisation que Meta AI vise à atteindre. L’assistant se souvient de vos conversations précédentes, de vos préférences culinaires et de vos habitudes de voyage.
Cette mémoire contextuelle change radicalement l’expérience utilisateur. Fini les explications répétitives sur vos allergies alimentaires ou vos goûts musicaux. L’IA connaît déjà ces détails. Elle les a extraits de vos publications, de vos interactions passées. De vos photos aussi. Cette connaissance approfondie crée une fluidité conversationnelle inédite, presque troublante.
L’intégration entre plateformes amplifie cette personnalisation. Meta AI peut consulter votre profil Facebook pour connaître votre ville d’origine, puis analyser vos stories Instagram pour identifier vos activités récentes. Cette vision à 360° de votre vie numérique lui permet de formuler des suggestions étonnamment pertinentes. Un confort indéniable, mais qui soulève des questions sur les frontières de notre intimité.
La création de contenu personnalisé illustre parfaitement cette approche. Demandez à Meta AI de générer une image ou de raconter une histoire, et vous verrez apparaître des éléments familiers. L’assistant s’inspire naturellement de vos centres d’intérêt pour produire un contenu qui vous ressemble. Mark Zuckerberg l’a lui-même expérimenté : « Quand je demande une histoire pour mes filles, l’IA se souvient qu’elles adorent les sirènes. » Une véritable prouesse qui repose entièrement sur l’exploitation de vos données personnelles.
Protections face à l’exploitation des données par Meta AI
L’Europe a toujours montré plus de vigilance concernant l’exploitation des données personnelles. Le RGPD et le futur Règlement sur l’intelligence artificielle (AI Act) imposent des contraintes strictes aux géants technologiques. Meta a dû s’adapter, non sans réticence.
Le parcours européen de Meta AI a connu des turbulences significatives. Printemps 2024 : suspension temporaire du déploiement suite aux préoccupations des autorités irlandaises. Plusieurs mois de négociations ont suivi. L’entreprise a finalement pu reprendre son programme en mars 2025, sous conditions.
Désormais, chaque utilisateur européen reçoit une notification spécifique avant d’accéder aux fonctionnalités de l’assistant. Meta a également mis en place un système permettant de consulter les données susceptibles d’être exploitées. Ces ajustements répondent aux exigences minimales du RGPD, mais soulèvent des critiques.
Max Schrems, figure de la protection des données en Europe, pointe une faille fondamentale : Meta aurait dû privilégier le consentement explicite (opt-in) plutôt que de s’appuyer sur l’intérêt légitime qui place la charge de l’opposition sur l’utilisateur. La complexité du processus d’opt-out – formulaire à plusieurs étapes, justification requise – décourage l’exercice effectif de ce droit. Une stratégie délibérée ? La question mérite d’être posée.
Meta AI et vos données personnelles : quelles sont les perspectives d’évolution ?
« Vous utilisez déjà l’IA sans le savoir. » Cette phrase résume un phénomène troublant : l’adoption forcée des technologies d’intelligence artificielle. Meta AI s’intègre si naturellement dans votre expérience quotidienne que vous partagez des informations sans même vous en rendre compte. Une conversation anodine sur Messenger devient matière première pour l’entraînement algorithmique.
Comme le souligne un expert en cybersécurité : « Meta privilégie la commodité au détriment de la transparence. » Cette asymétrie d’information compromet la notion même de consentement éclairé.
Les biais algorithmiques constituent un autre risque majeur. Les données issues de Facebook et Instagram reflètent inévitablement les préjugés présents dans la société. Sans correction, Meta AI pourrait amplifier ces biais. Plus inquiétant encore : l’effet de bulle. En adaptant systématiquement ses réponses à votre profil, l’assistant vous enferme dans une chambre d’écho numérique où seules les informations conformes à vos opinions vous sont présentées.
L’avenir n’est pas écrit pour autant. Les progrès technologiques pourraient favoriser des approches plus respectueuses de la vie privée, comme le traitement local des données sur les appareils. La pression réglementaire, notamment en Europe, pourrait contraindre Meta à davantage de transparence. L’équilibre entre innovation et protection des droits fondamentaux reste à trouver. Un défi considérable, à la mesure des enjeux sociétaux que soulève l’exploitation massive de nos données personnelles par les intelligences artificielles.
Meta AI représente un tournant dans notre relation aux assistants virtuels. L’assistant de Meta vous connaît déjà, grâce aux innombrables traces que vous avez laissées sur Facebook et Instagram. Bienvenue dans l’ère de la personnalisation extrême.
Une lunette intelligente signée Meta, ultra-tech, c’est stylée… jusqu’à ce que son IA s’invite un peu trop dans nos vies.
Meta planche sur une nouvelle génération de lunettes intelligentes qui intègre une IA. Sous les noms de code Aperol et Bellini, ces gadgets vous soufflent vos oublis. Les capteurs enregistrent ce que vous regardez, y compris les gens, parfois à leur insu.
Un assistant IA à la demande dans les lunettes Meta
D’après une fuite rapportée par The Information, l’IA dans les lunettes Meta serait toujours active. En plus d’enregistrer ce que vous voyez, ces gadgets analysent en continu votre environnement.
Pour ce faire, une simple commande vocale suffit : « Hey Meta, lance l’IA en temps réel ». Aussitôt, vos lunettes reconnaissent les visages, identifient des objets et vous rappellent même des éléments oubliés.
Les lunettes intelligentes actuelles Ray-Ban Meta possèderaient déjà les capteurs nécessaires à ces fonctionnalités. Cependant, leur batterie, limitée à 30 minutes d’autonomie en mode IA active, rend l’usage impraticable.
Naturellement, Meta veut optimiser la durée de vie de ses futures lunettes. Pour remédier à ce problème, l’entreprise dote aussi ces gadgets d’une paire d’écouteurs équipés de caméras, afin de permettre plusieurs heures d’utilisation continue de l’IA.
Et la confidentialité dans tout ça ?
Force est de reconnaître que c’est pratique, surtout pour les solitaires qui oublient tout, même leurs clés. Mais personnellement, l’assistant IA des lunettes Meta peut vite devenir envahissant. Peut-être pas pour l’utilisateur… mais qu’en est il pour son entourage et le respect de leur vie privée ?
Une fois activé, l’IA dans les lunettes de Meta collecterait d’énormes quantités de données visuelles. En outre, les critiques pointent un assouplissement des politiques de confidentialité de Meta, au grand détriment de la protection des données. Cela rappelle les controverses autour de fonctionnalités similaires, comme Recall de Microsoft, critiquée pour sa surveillance constante.
jsp si vous étiez au courant mais à partir du 27 mai META (instagram, whatsapp, facebook) utilisera vos photos, commentaires et vidéos pour alimenter son IA afin de la rendre plus performante ! pour s’y opposer c’est simple : paramètre > centre de confidentialité > opposer !
Parallèlement, une mise à jour imminente en France, en Belgique et en Allemagne permettra aux lunettes Ray-Ban Meta d’utiliser leur caméra pour analyser l’environnement visuel. Cette fonctionnalité, déjà disponible aux États-Unis, s’accompagne d’une capacité de traduction instantanée en anglais, français, espagnol et italien, même hors connexion.
L'application WhatsApp accueille une nouvelle icône dans la fenêtre principale de la messagerie instantanée, là où se trouvent toutes vos discussions. Représentée par un cercle bleu, elle renvoie à un autre service de Meta, centré sur l'intelligence artificielle générative.
Meta lance une application d’IA qui se mêle à notre vie numérique et veut faire mieux que ChatGPT d’OpenAI. Mais comment ?
ChatGPT et Gemini doivent désormais compter avec un autre prétendant sérieux. Meta vient d’officialiser son assistant intelligent à part entière : l’application Meta AI. En plus de poser vos questions et créer du contenu, explorez les usages des autres et partagez les vôtres librement.
Meta veut créer une IA plus sociale, afin de rivaliser avec ChatGPT et d’autres géants
Lorsque Meta a dévoilé son assistant intelligent lors de la LlamaCon, beaucoup s’y attendaient déjà. L’entreprise veut devenir un acteur majeur de l’intelligence artificielle. Dans ce contexte, elle présente Meta AI, un chatbot basé sur son dernier modèle Llama 4.
Contrairement à d’autres intelligences artificielles, celle-ci s’appuie sur les plateformes sociales. Par exemple, elle fonctionne directement dans Facebook, Instagram ou WhatsApp. Et selon Meta, c’est ce lien social qui fera la différence.
Par ailleurs, Meta AI propose une fonction nommée « Découvrir », plutôt originale. Elle permet de consulter des réponses d’IA partagées par vos contacts.
En tant qu’utilisateur, vous ne discutez donc pas seul avec la machine. Vous explorez aussi ce que les autres créent avec elle. Et c’est encore une manière d’ouvrir l’IA au collectif.
En parallèle, l’interface mise sur une fonction vocale très fluide. Grâce à un système « full duplex », vous pouvez parler et écouter en même temps. Cela rend la discussion plus vivante, plus naturelle.
@Meta a lancé l’application mobile de son IA, #MetaAI. Basée sur Llama 4, elle permet d’interagir avec l’assistant IA pour poser des questions, générer des images ou converser naturellement grâce à la technologie vocale full-duplex. Elle intègre aussi un volet social.#BDM#AyTèkpic.twitter.com/TybB3IgwIV
Une intelligence artificielle qui apprend avec vous, mais…
Meta veut aussi rendre cette intelligence artificielle plus personnelle. Et d’après ses équipes, tout repose sur la personnalisation. À mesure que vous interagissez, elle peut retenir vos goûts et vos habitudes, à condition d’en avoir l’autorisation. Tout comme la fonctionnalité mémoire de ChatGPT.
Par exemple, si vous cherchez une idée de sortie, elle tiendra compte de vos préférences. Et en parallèle, elle pourra aussi regarder les lieux visités par vos amis. Cela permet une réponse plus proche de vos envies. Sauf que, cela relance la question des données privées.
En ce qui concerne la sécurité, Meta affirme suivre des règles claires. Or, certains utilisateurs restent inquiets. C’est normal, j’avoue que je peux les comprendre ! Plus l’IA en sait, plus elle devient intrusive, quoique pratique.
À l’heure actuelle, l’application est gratuite. Elle fonctionne sur iOS et Android, mais seulement dans quelques pays. Elle est accessible aux utilisateurs des États-Unis et du Canada. À terme, une version premium pourrait être lancée comme le font déjà d’autres entreprises.
Et ce n’est pas tout. Meta AI peut aussi être utilisée avec les lunettes connectées Ray-Ban. Vous commencez une conversation sur vos lunettes, puis vous la continuez sur l’appli. Tous vos appareils sont synchronisés.
Alors, pensez-vous que connecter une IA à vos réseaux est une bonne idée ? Dites-nous ce que vous en pensez juste en dessous !