Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Meta aurait triché avec sa nouvelle intelligence artificielle Llama 4

Meta a certainement connu meilleur week-end de lancement. Depuis la sortie de son dernier modèle de langage, Llama 4, qui existe en trois versions différentes, l'entreprise américaine est bousculée dans le milieu de l'intelligence artificielle. En cause ? Une entourloupe dans le processus d'évaluation des IA.

  • ✇LEBIGDATA.FR
  • Gemma 3 : Google dévoile l’IA la plus puissante qui peut tourner sur votre smartphone
    Les modèles Gemma 3 sont à la fois multilingues, multimodaux et capables de traiter davantage de données, tout en fonctionnant avec un seul GPU. En fait, Google DeepMind choisit cette approche pour viser directement les développeurs. Google marque une fois de plus un grand coup avec Gemma 3 ! Ce modèle d’IA, conçu pour repousser les frontières de l’intelligence artificielle, est léger et ouvert. Elle allie accessibilité et performance et ne se contente pas de suivre les tendances. En fait, el

Gemma 3 : Google dévoile l’IA la plus puissante qui peut tourner sur votre smartphone

Par : Dina R.
13 mars 2025 à 15:21

Les modèles Gemma 3 sont à la fois multilingues, multimodaux et capables de traiter davantage de données, tout en fonctionnant avec un seul GPU. En fait, Google DeepMind choisit cette approche pour viser directement les développeurs.

marque une fois de plus un grand coup avec Gemma 3 ! Ce modèle d’IA, conçu pour repousser les frontières de l’intelligence artificielle, est léger et ouvert. Elle allie accessibilité et performance et ne se contente pas de suivre les tendances. En fait, elle redéfinit la notion d’IA polyvalente.

Gemma, un modèle d’IA avec des performances assez impressionnantes !

Gemma 3 a un énorme potentiel pour dominer le marché. Tout d’abord, ce nouveau modèle de Google surpasse les modèles plus volumineux dans divers benchmarks. En effet, il a atteint un niveau de score de 1338 sur LMArena. C’est ce qui fait de Gemma 3 une IA à la fois compacte et ouverte.

Par ailleurs, la vitesse d’inférence de Gemma 3 repousse encore les limites avec jusqu’à 2585 tokens/seconde sur Google AI Edge. Désormais, il n’est plus considéré comme « modèle léger », mais plutôt une IA avec une efficacité inégalée.

Il s’agit également d’un modèle de langage-vision optimisé. Contrairement à leurs prédécesseurs, quatre des cinq modèles Gemma 3 appartiennent à la sous-catégorie langage-vision de l’IA multimodale. Seul le plus petit, Gemma 3-1B, reste un modèle strictement textuel.

Tous les modèles sont aussi proposés en versions préentraînée et instruite. Gemma 3-4B, 12B et 27B sont dotées d’une fenêtre de contexte de 128 000 tokens. De plus, Gemma 3-1B prend en charge jusqu’à 32 000 tokens. De son côté, Shield Gemma 2-4B, conçu pour la modération, peut traiter jusqu’à 8 000 tokens en une seule passe.

Côté vision, le traitement des images repose sur un encodeur visuel de 417 millions de paramètres basé sur SigLiP. C’est une technologie identique à celle du VLM PaliGemma, mais adaptée pour minimiser la consommation de VRAM via des images et vecteurs de taille fixe.

Enfin un modèle d’IA conçu pour les appareils mobiles !

Selon Google, Gemma 3 est le modèle d’IA le plus performant sur un accélérateur unique. En effet, il est capable de fonctionner sur un seul GPU ou TPU sans nécessiter un cluster complet.

Qu’est-ce que cela signifie ? Cela veut tout simplement dire qu’il pourrait s‘exécuter nativement sur le TPU des smartphones Pixel comme le Gemini Nano.

En outre, l’un de ses principaux atouts par rapport à la famille réside dans son caractère source. Sachez que les développeurs peuvent l’intégrer librement à leurs applications mobiles et logiciels de bureau en fonction de leurs besoins spécifiques.

De plus, Gemma 3 prend en charge plus de 140 langues, dont 35 directement pré-entraînées. En fait, c’est le fruit de l’ajustement du mix de données et l’utilisation du même tokenizer (SentencePiece), avec un vocabulaire étendu à 262 000 entrées.

Néanmoins, comme Gemini 2.0, il comprend texte, images et vidéos, en faisant un modèle véritablement multimodal. 

Pour ce qui est de sa performance, il surpasse d’autres modèles open source populaires comme DeepSeek V3, o3-mini (spécialisé en raisonnement) et -405B de .

Que pensez-vous de ce nouveau modèle d’IA de Google Gemma 3 ?

Cet article Gemma 3 : Google dévoile l’IA la plus puissante qui peut tourner sur votre smartphone a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Figure dévoile Helix : une IA qui pense comme un humain pour les robots !
    La startup Figure dévoile Helix, une IA permettant aux robots de réagir aux consignes en langage naturel et de manipuler des objets qu’ils n’ont jamais vus auparavant. Une avancée majeure, qui va permettre aux robots de s’occuper des corvées ménagères dans votre logement ! En avril 2024, la startup californienne Figure s’était illustrée avec son robot 01 servant de corps à ChatGPT lors d’une démonstration. Toutefois, la firme a annoncé la fin de son partenariat avec OpenAI début février 2025.

Figure dévoile Helix : une IA qui pense comme un humain pour les robots !

Par : Bastien L.
21 février 2025 à 18:22

La startup Figure dévoile Helix, une IA permettant aux robots de réagir aux consignes en langage naturel et de manipuler des objets qu’ils n’ont jamais vus auparavant. Une avancée majeure, qui va permettre aux robots de s’occuper des corvées ménagères dans votre logement !

En avril 2024, la startup californienne Figure s’était illustrée avec son robot 01 servant de corps à ChatGPT lors d’une démonstration. Toutefois, la firme a annoncé la fin de son partenariat avec début février 2025.

Elle avait alors déclaré avoir « atteint une avancée majeure vers un robot IA entièrement développé en interne » et s’était dit « excitée de révéler quelque chose que personne n’a jamais vu dans l’industrie de l’humanoïde d’ici les 30 prochains jours ».

Le voile a enfin été levé, puisque ce mystérieux projet vient d’être révélé ce 20 février 2025. Il s’agit d’Helix, un modèle Vision-Langage-Action généraliste.

L’IA qui permet aux robots de saisir des objets inconnus

Ce modèle unifie la perception, la compréhension du langage, et le contrôle pour surmonter les défis de la robotique. Selon Brett Adcock, fondateur de Figure, il s’agit de la plus grande avancée IA de l’histoire de son entreprise.

Selon lui, « Helix pense comme un humain ». Il est capable de comprendre le discours, de raisonner à travers des problèmes, et de saisir n’importe quel objet sans avoir besoin d’entraînement ou de code.

Il va permettre « d’apporter les robots dans les foyers » grâce à sa capacité à « généraliser à virtuellement n’importe quel objet de la maison ». Lors des tests, il est parvenu à saisir tous les objets même sans les avoir vus auparavant.

Le CEO explique que l’entreprise « a travaillé sur ce projet pendant plus d’un an, dans le but d’atteindre la robotique générale ».

Comment Helix repousse les limites de la robotique ?

Meet Helix, our in-house AI that reasons like a human

Robotics won't get to the home without a step change in capabilities

Our robots can now handle virtually any household item: pic.twitter.com/Wsx5s8Qelc

— Figure (@Figure_robot) February 20, 2025

Toujours selon Figure, Helix introduit une approche innovante de contrôle des manipulations du haut du corps incluant les poignets, le torse, la tête et les doigts individuels.

Il offre un contrôle continu à haut débit de l’ensemble du haut du corps humanoïde, et ce niveau de contrôle permet des mouvements et des interactions plus nuancés.

Un autre aspect important d’Helix est sa capacité à contrôler plusieurs robots simultanément pour les faire collaborer. Il peut contrôler deux robots à la fois, leur permettant de travailler ensemble sur des tâches de manipulation à long terme impliquant des objets qu’ils n’ont jamais vus.

Cette capacité élargit largement les possibilités offertes par la robotique au sein d’environnements complexes. Les robots équipés d’Helix comprennent aussi les prompts en langage naturel, ce qui facilite leurs interactions.

Par ailleurs, l’approche d’Helix se démarque par l’utilisation d’un ensemble unique de poids de réseau de neurones pour apprendre différents comportements. Il peut s’agir par exemple d’attraper et de placer un objet, d’utiliser un tiroir ou un frigo, ou d’interagir entre robots.

Ceci élimine le besoin d’un fine-tuning spécifique pour chaque tâche, et fluidifie fortement le processus d’apprentissage.

Notons enfin qu’Helix fonctionne sur des GPU intégrés à faible puissance, ce qui le rend adapté à un déploiement commercial et à une utilisation dans le monde réel…

Un VLM basé sur un système de pensée et un système d’action

Comme l’explique Figure, les systèmes robotiques actuels peinent à s’adapter rapidement à de nouvelles tâches. Ils nécessitent une programmation à partir de nombreuses démonstrations.

Pour surmonter cette limite, la startup a utilisé les capacités des modèles VLM (Vision Langage Model) pour permettre aux robots de généraliser leurs comportements sur demande et d’effectuer des tâches via les instructions en langage naturel.

Ainsi, Helix est conçu pour contrôler toute la partie supérieure du corps d’un humanoïde avec vitesse et dextérité. Il regroupe le Système 1 (S1) et le Système 2 (S2).

Figure posted our first write-up today discussing Helix!

The report describes in-depth how we designed Helix including system architecture and additional tests not capture in the release video

LMK what you think!https://t.co/OpzVZZm0uI

— Brett Adcock (@adcock_brett) February 21, 2025

Le S2 est un VLM plus lent, pré-entraîné sur internet, qui se focalise sur la compréhension des scènes et du langage.

De son côté, S1 est une politique visuomotrice rapide qui convertit les informations provenant de S2 en actions en temps réel du robot. Cette division permet à chaque système d’opérer de façon optimale : S2 pour le traitement de pensée, et S1 pour l’exécution rapide.

Ainsi, « Helix résout plusieurs problèmes auxquels ont été confrontées les précédentes approches robotiques, notamment la vitesse d’équilibrage et la généralisation, la scalabilité pour gérer des actions à haute dimension, et la simplicité architecturale en utilisant des modèles standards ».

De plus, la séparation en S1 et S2 permet des améliorations indépendantes pour chaque système, sans dépendre d’une observation ou d’un espace d’action partagés.

Pour entraîner Helix, un jeu de données d’environ 500 heures de comportements téléopérés a été collecté, en utilisant un VLM d’étiquetage automatique pour générer des instructions en langage naturel.

L’architecture implique un VLM à 7 milliards de paramètres et un Transformer à 80 millions de paramètres pour le contrôle. Les inputs visuels sont traités pour permettre un contrôle réactif basé sur les dernières représentations générées par le VLM.

Contrairement aux précédents systèmes robotiques, Helix peut générer des manipulations collaboratives habiles à la volée sans avoir besoin de démonstrations ou de programmation manuelle spécifiques à une tâche.

Il peut donc manipuler des milliers d’objets de différentes tailles, couleurs et matières dans votre domicile à l’aide d’une simple demande en langage naturel

Un cerveau commun pour les robots du futur ?

Même si Helix représente une grande avancée pour la robotique, Figure n’est pas le premier à créer une telle IA conçue pour servir de cerveau aux robots humanoïdes.

En avril 2024, lors de la conférence GTC, Nvidia a présenté GR00T : une IA multimodale pouvant être incorporée à n’importe quel robot humanoïde.

De même, la startup Skild AI a levé des fonds importants pour développer un cerveau IA à usage général pour les robots et leur permettre de combiner plusieurs aptitudes comme la perception, la manipulation et le raisonnement.

En parallèle, OpenAI et envisagent de développeur leurs propres robots humanoïdes pour servir de corps à leurs IA respectives telles que et . On peut s’attendre à ce que d’autres géants de l’IA comme en fassent de même…

À terme, les robots humanoïdes seront dotés d’une intelligence artificielle suffisamment développée pour leur permettre d’interagir de façon naturelle et de collaborer avec l’humain !

Et vous, qu’en pensez-vous ? Êtes-vous impressionné par Helix ? Pensez-vous que les robots humanoïdes pourront bientôt rivaliser avec l’humain en termes d’intelligence et d’action ? Donnez-nous votre avis en commentaire !

Cet article Figure dévoile Helix : une IA qui pense comme un humain pour les robots ! a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Llamacon : que va présenter Meta à son 1er événement dédié à l’IA ?
    Meta a dévoilé mardi sa première conférence entièrement dédiée à l’IA. Baptisé LlamaCon, en clin d’œil à sa famille de modèles open source Llama, l’événement se tiendra le 29 avril.  L’entreprise promet d’y révéler les avancées les plus récentes de ses développements en IA ouverte. Et ce, avec l’ambition d’aider les développeurs à créer des applications toujours plus performantes.  Meta revoit sa stratégie face à la concurrence Depuis plusieurs années, Meta mise sur une approche o

Llamacon : que va présenter Meta à son 1er événement dédié à l’IA ?

Par : Ny Ando A.
19 février 2025 à 01:52

a dévoilé mardi sa première conférence entièrement dédiée à l’IA. Baptisé LlamaCon, en clin d’œil à sa famille de modèles source , l’événement se tiendra le 29 avril. 

L’entreprise promet d’y révéler les avancées les plus récentes de ses développements en IA ouverte. Et ce, avec l’ambition d’aider les développeurs à créer des applications toujours plus performantes. 

Meta revoit sa stratégie face à la concurrence

Depuis plusieurs années, Meta mise sur une approche open source pour ses technologies d’IA. Il espère ainsi structurer un écosystème dynamique d’applications et de plateformes. 

Une stratégie qui rappelle celle d’autres poids lourds du secteur, à l’image de avec TensorFlow. Mais cette vision se heurte aujourd’hui à la montée en puissance de DeepSeek, une entreprise chinoise qui a su développer des modèles d’IA ouverts de taille à rivaliser avec ceux de Meta et d’

Certains observateurs estiment même qu’un futur modèle de DeepSeek pourrait surpasser Llama 4, attendue d’ici quelques semaines.

Face à cette menace, Meta aurait mis en place des cellules de crise pour analyser comment son concurrent a réussi à optimiser les coûts de déploiement de ses modèles. Le but est d’en tirer des enseignements pour ses propres développements.

Quoi qu’il en soit, l’entreprise de ne lésine pas sur les moyens pour rester dans la course. Elle prévoit d’investir jusqu’à 80 milliards de dollars cette année dans des projets liés à l’IA, notamment à travers des recrutements massifs et la construction de nouveaux data centers. 

Zuckerberg lui-même a récemment détaillé les ambitions de Meta dans le domaine. Il a évoqué le lancement imminent de nouveaux modèles Llama. Et ce n’est pas tout.

Apparemment, une IA de raisonnement inspirées d’o3-mini d’OpenAI, ainsi que des modèles multimodaux capables de traiter simultanément texte, image et son, sont concoctés dans les coulisses.

Il n’y a pas que du succès, d’où la conférence

Malgré le succès affiché des modèles Llama, téléchargés des centaines de millions de fois selon Meta, des défis de taille subsistent. L’entreprise est actuellement visée par un procès pour avoir utilisé des œuvres protégées sans autorisation dans l’entraînement de ses IA. 

D’ailleurs, actuellement, plusieurs pays européens ont contraint Meta à repousser, voire à annuler, certains lancements. Pourquoi ? En raison de préoccupations liées à la protection des données personnelles. Autant d’obstacles qui pourraient ralentir son avancée dans l’IA générative.

Dans ce contexte, LlamaCon représente un moment clé pour Meta. L’événement sera l’occasion pour la société de démontrer sa capacité à innover tout en naviguant dans un cadre réglementaire de plus en plus contraignant. 

Le 29 avril, l’ensemble du secteur aura les yeux rivés sur les annonces de Meta, déterminantes pour l’avenir de son IA générative.

Pour le moment, aucune information n’a été communiquée sur les intervenants ou les produits qui seront dévoilés. L’entreprise annonce qu’elle partagera plus d’informations sur LlamaCon dans les semaines à venir.

On sait cependant que Meta planche sur Llama 4, ce qui laisse présager la diffusion d’un sizzle reel.

Alors, à votre avis, Meta saura-t-il convaincre lors de sa conférence LlamaCon ? 

Partagez votre avis dans le commentaire !

Cet article Llamacon : que va présenter Meta à son 1er événement dédié à l’IA ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Meta a téléchargé 82TB de livres pour entraîner son IA ! Est-ce du vol ?
    Meta a utilisé le torrenting pour télécharger 82 To de livres via des plateformes illégales. De plus, la société a installé des systèmes pour éviter qu’on remonte à elle. La société mère de Facebook est actuellement en plein procès ! Apparemment, elle est accusé d’entraîner illégalement son modèle d’IA Llama sur des livres protégés. Par ailleurs, les documents à l’origine de l’affaire sont justement sur le point d’être rendus publics. C’est justement ce qui a permis de connaître l’ampleur du

Meta a téléchargé 82TB de livres pour entraîner son IA ! Est-ce du vol ?

Par : Dina R.
13 février 2025 à 15:14

a utilisé le torrenting pour télécharger 82 To de livres via des plateformes illégales. De plus, la société a installé des systèmes pour éviter qu’on remonte à elle.

La société mère de est actuellement en plein procès ! Apparemment, elle est accusé d’entraîner illégalement son modèle d’IA Llama sur des livres protégés. Par ailleurs, les documents à l’origine de l’affaire sont justement sur le point d’être rendus publics. C’est justement ce qui a permis de connaître l’ampleur du piratage réalisé par Meta, qui connaissait parfaitement ce qu’elle faisait.

Téléchargement massif d’œuvres protégées par le droit d’auteur !

Un article de vx-underground publié sur X a permis de découvrir que Meta s’est servie de torrents piratés pour entraîner son modèle d’IA. Elle a pu télécharger exactement 81,7 To de données qui viennent de bibliothèques fantômes, dont Anna’s Archive, Z-Library et LibGen.

Les inquiétudes des chercheurs concernant l’utilisation de Meta de matériel piraté ont renforcé les preuves sous forme de communication écrite.

« Je ne pense pas que nous devrions utiliser du matériel piraté. Je dois vraiment tracer une ligne ici, » a témoigné un chercheur senior en IA chez Meta en octobre 2022.

Un autre a déclaré : « L’utilisation de matériel piraté devrait dépasser notre seuil éthique ». « SciHub, ResearchGate, LibGen sont en gros comme PirateBay ou quelque chose comme ça, ils distribuent du contenu protégé par le droit d’auteur et ils le violent, » a-t-il ajouté.

Meta tente de dissimuler son recours aux torrents !

Les reproches adressés à Meta ne s’arrêtent pas là ! En effet, elle a été critiquée pour avoir tenté de couvrir ses traces. Pourtant, je pense que c’est une preuve de son implication ! Pourquoi ? Parce que le groupe était totalement conscient qu’il risquait des ennuis s’il était découvert.

« L’utilisation des adresses IP de Meta pour télécharger du contenu pirate via des torrents », s’inquiétait Nikolay Bashlyko, ingénieur de recherche chez Meta, en avril 2023.

Quelques mois plus tard, il rappelait, lors d’une discussion avec le service juridique de l’entreprise, que le principe même du torrenting reposait sur le partage de ces fichiers piratés avec des tiers. Il a d’ailleurs affirmé que c’est « ce qui pourrait être légalement inacceptable ».

Évidemment, Meta a pris en compte ses inquiétudes, mais a choisi de mettre en place des systèmes visant à dissimuler son activité plutôt que d’y mettre fin.

Frank Zhang, chercheur chez Meta, évoque dans un message interne l’instauration d’un « mode furtif » pour le piratage. C’est ce qui permet d’éviter l’utilisation des serveurs de Facebook lors du téléchargement des ensembles de données, afin de réduire le risque de remonter jusqu’au seeder ou au downloader.

Vous pensez que Méta a volé en téléchargeant ces informations pour entraîner son modèle d’IA ?

Cet article Meta a téléchargé 82TB de livres pour entraîner son IA ! Est-ce du vol ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ils ont copié OpenAI Deep Research en 24 heures, et vous pouvez l’utiliser gratuitement
    Vous avez entendu parler de Deep Research d’OpenAI ? C’est une fonctionnalité qui permet à ChatGPT de mener des recherches en ligne approfondies et de générer des analyses précises. Mais à peine lancé, Deep Research a déjà une copie ! Ainsi, une petite équipe de développeurs de Hugging Face s’est donné 24 heures pour créer une alternative open source. Et la meilleure partie ? Vous pouvez l’utiliser gratuitement. Deep Research, c’est la nouvelle arme d’OpenAI. Un ChatGPT dopé à la recherche lo

Ils ont copié OpenAI Deep Research en 24 heures, et vous pouvez l’utiliser gratuitement

Par : Mariano R.
6 février 2025 à 05:15

Vous avez entendu parler de Deep Research d’ ? C’est une fonctionnalité qui permet à de mener des recherches en ligne approfondies et de générer des analyses précises. Mais à peine lancé, Deep Research a déjà une copie ! Ainsi, une petite équipe de développeurs de s’est donné 24 heures pour créer une alternative source. Et la meilleure partie ? Vous pouvez l’utiliser gratuitement.

Deep Research, c’est la nouvelle arme d’OpenAI. Un ChatGPT dopé à la recherche longue, capable de parcourir le web et d’en extraire des rapports détaillés. Une fonctionnalité impressionnante, mais enfermée dans l’écosystème fermé d’OpenAI.

De l’autre côté, Hugging Face, l’entreprise franco-américaine connue pour son engagement dans l’open source, a créé un équivalent accessible à tous. Et en seulement 24 heures. Leur version n’est pas aussi aboutie, mais elle se défend étonnamment bien.

Hugging Face et son clone open source de Deep Research

Ce 3 février, OpenAI a dévoilé Deep Research, une nouvelle fonctionnalité de ChatGPT qui permet à l’IA de mener des recherches approfondies sur le web. Je me souviens bien que les premiers utilisateurs étaient bluffés.

Deep Research a passé le GAIA avec 67,36 % d’exactitude, contre moins de 7 % pour -4 seul. C’est donc 10 fois plus efficace que les modèles classiques !

Chez Hugging Face, les développeurs n’ont pas traîné. Cette entreprise franco-américaine, spécialisée dans l’open source, a donc décidé de créer une copie open source de Deep Research en 24 heures chrono.

Toutefois, je vous rappelle qu’OpenAI a mis des millions de dollars dans Deep Research. Hugging Face, lui, a donc dû faire avec beaucoup moins de moyens. Son équipe reconnaît que la version open source prendra du temps à atteindre le même niveau. Par exemple, elle ne peut pas encore analyser d’images, contrairement à l’outil d’OpenAI.

Mais les résultats sont déjà impressionnants. Avec GPT-o1, un modèle d’OpenAI moins puissant que celui utilisé dans Deep Research, le clone de Hugging Face atteint 54 % de bonnes réponses au test GAIA. Ce score le place parmi les meilleurs modèles actuels, devant 3 ou DeepSeek-R1 !

Comment ont-ils réussi cet exploit ?

Dans un billet de blog, les développeurs de Hugging Face expliquent leur méthode. Ils ont donc repris une approche similaire à celle d’OpenAI. Ils ont utilisé un agent qui guide le modèle d’IA et lui indique quoi faire et dans quel ordre.

Hugging Face just released Open DeepResearch – SoTA open framework on GAIA bench scoring a WHOOPING 54% in LESS THAN 24 hours 🔥

All code is open source plus whole lot of improvements on the way! 🤗 pic.twitter.com/lZtXVftRhN

— Vaibhav (VB) Srivastav (@reach_vb) February 4, 2025

Puis, ils ont intégré un navigateur web très léger, optimisé pour lire uniquement du texte. Ils ont ensuite ajouté un inspecteur de texte capable d’extraire des infos depuis différents formats de documents.

Ces outils ne sont pas aussi avancés que ceux d’OpenAI, certes, mais ils ont l’énorme avantage d’être open source et accessibles à tous.

Si OpenAI verrouille son écosystème, Hugging Face prend donc le pari inverse. C’est de partager la technologie et permettre à n’importe qui de l’améliorer. Pour les entreprises ou les développeurs, c’est une alternative prometteuse qui pourrait bientôt rivaliser avec Deep Research.

Entre OpenAI et Hugging Face, qui prendra l’avantage selon vous ? Laissez votre pronostic en commentaire et voyons ensemble comment ça évolue !

Cet article Ils ont copié OpenAI Deep Research en 24 heures, et vous pouvez l’utiliser gratuitement a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • La remontada chinoise n’est pas finie ! Alibaba lance une IA encore meilleure que DeepSeek !
    L’IA, c’est un combat sans fin où chaque mise à jour peut rebattre toutes les cartes. En ce début d’année, c’est DeepSeek qui a mis le feu aux poudres en Chine avec son modèle DeepSeek-V3, si impressionnant qu’il a fait trembler la Silicon Valley. Mais Alibaba n’a pas l’intention de se laisser distancer : son modèle Qwen 2.5-Max serait encore meilleur ! Apparemment, le domaine de l’IA bouillonne en Chine. Alors que DeepSeek impressionne le monde avec son modèle V3, Alibaba a riposté avec le Q

La remontada chinoise n’est pas finie ! Alibaba lance une IA encore meilleure que DeepSeek !

Par : Mariano R.
30 janvier 2025 à 17:17

L’IA, c’est un combat sans fin où chaque mise à jour peut rebattre toutes les cartes. En ce début d’année, c’est DeepSeek qui a mis le feu aux poudres en Chine avec son modèle DeepSeek-V3, si impressionnant qu’il a fait trembler la Silicon Valley. Mais Alibaba n’a pas l’intention de se laisser distancer : son modèle Qwen 2.5-Max serait encore meilleur !

Apparemment, le domaine de l’IA bouillonne en Chine. Alors que DeepSeek impressionne le monde avec son modèle V3, Alibaba a riposté avec le Qwen 2.5-Max, un modèle encore plus puissant. Selon le géant chinois, ce dernier surpasse non seulement DeepSeek-V3, mais aussi -4o d’ et -3.1-405B de .

Cette annonce, dévoilée le jour du Nouvel An lunaire, envoie un message clair ! La Chine est en train de s’imposer comme un leader de l’IA, non seulement face aux États-Unis, mais aussi au sein de sa propre industrie.

Un lancement surprise qui en dit long

Alibaba a donc dévoilé Qwen 2.5-Max le premier jour du Nouvel An lunaire, un moment où la plupart des Chinois sont en vacances en famille. Pourquoi un tel timing ? C’est simple ! La pression de DeepSeek est énorme. En l’espace de quelques semaines, cette startup a montré qu’elle pouvait rivaliser avec OpenAI et Meta, forçant tous les acteurs du marché à réagir.

Dans son annonce sur WeChat, Alibaba assure que Qwen 2.5-Max surpasse DeepSeek-V3, GPT-4o et Llama-3.1-405B. Autrement dit, leur IA serait tout simplement meilleure que celles d’OpenAI, Meta et même que la star montante DeepSeek.

Jusqu’à récemment, nous parlions surtout d’OpenAI, et Meta comme leaders de l’IA. Mais DeepSeek a changé la donne.

Le 10 janvier, la startup chinoise a lancé son assistant IA basé sur DeepSeek-V3, qui a immédiatement fait sensation. Puis, le 20 janvier, elle a dévoilé son modèle R1, et là, c’était la panique totale.

Son modèle R1 rivaliserait avec GPT-4o sur plusieurs benchmarks. Son coût est ridiculement bas, dont seulement 1 yuan (0,14 $) pour 1 million de tokens, soit bien moins cher que les modèles occidentaux. Qui plus est, les investisseurs américains ont commencé à douter des milliards investis par OpenAI et ses concurrents.

Par conséquent, les géants chinois comme Alibaba, ByteDance, Baidu et Tencent se sont immédiatement activés pour riposter.

Alibaba, Baidu, ByteDance… Une guerre totale de l’IA

L’arrivée de DeepSeek-V3 a créé un véritable séisme sur le marché chinois de l’IA. En réaction, Alibaba a drastiquement réduit ses prix (jusqu’à 97% !) pour ses propres modèles d’IA. ByteDance (la maison mère de TikTok) a également mis à jour son IA phare, affirmant qu’elle surpasse les modèles d’OpenAI. Baidu et Tencent, qui dominaient jusque-là le marché chinois de l’IA, se retrouvent sous pression.

Vous pouvez tester dès maintenant la nouvelle IA d'Alibaba qui vient de sortir et se veut plus puissante que DeepSeek.
➡️ https://t.co/jtTafug40h
Choisissez le modèle Qwen 2.5-Max dans la liste déroulante. pic.twitter.com/knkJ3Q4YSW

— Qut (@Qut1) January 30, 2025

L’ironie, c’est que DeepSeek ne se soucie même pas de cette guerre des prix. Son fondateur, Liang Wenfeng, a déclaré que son seul objectif était l’AGI (Intelligence Artificielle Générale).

« Les grandes entreprises ont leurs limites », a-t-il lancé, sous-entendant que les mastodontes comme Alibaba ne pourraient pas innover aussi vite qu’une startup agile et audacieuse comme la sienne.

Alors, qui sortira vainqueur de cette bataille ? DeepSeek a surpris tout le monde, mais Alibaba et les autres géants chinois ne comptent pas se laisser distancer. Avec Qwen 2.5-Max, Alibaba veut prouver qu’il reste un leader de l’IA et qu’il peut tenir tête à DeepSeek… et même OpenAI.

Mais ce qui est sûr, c’est que la montée en puissance de l’IA chinoise est loin d’être terminée. Alors qu’on parlait surtout d’OpenAI et de la Silicon Valley, la Chine est en train de montrer qu’elle peut rivaliser, voire dépasser, les meilleurs modèles du monde.

Selon vous, Alibaba a-t-il réellement surpassé DeepSeek, ou s’agit-il plutôt d’un coup de communication ? Partagez vos avis en commentaire !

Cet article La remontada chinoise n’est pas finie ! Alibaba lance une IA encore meilleure que DeepSeek ! a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • DeepSeek, l’IA chinoise gratuite qui détruit ChatGPT et terrifie les USA ! Tout savoir
    La startup chinoise DeepSeek va-t-elle renverser les géants américains et prendre la couronne de l’industrie de l’IA ? En quelques jours, cette petite entreprise a remis en doute toutes les certitudes du secteur en surpassant ChatGPT avec son chatbot R1 plus performant et beaucoup moins cher. Découvrez tout ce qu’il faut savoir sur le nouveau phénomène de l’intelligence artificielle ! Depuis 2022, l’ordre est bien établi dans l’industrie de l’IA. Le marché des modèles IA est dominé par OpenAI

DeepSeek, l’IA chinoise gratuite qui détruit ChatGPT et terrifie les USA ! Tout savoir

Par : Bastien L.
28 janvier 2025 à 19:32

La startup chinoise DeepSeek va-t-elle renverser les géants américains et prendre la couronne de l’industrie de l’IA ? En quelques jours, cette petite entreprise a remis en doute toutes les certitudes du secteur en surpassant ChatGPT avec son chatbot R1 plus performant et beaucoup moins cher. Découvrez tout ce qu’il faut savoir sur le nouveau phénomène de l’intelligence artificielle !

Depuis 2022, l’ordre est bien établi dans l’industrie de l’IA. Le marché des modèles IA est dominé par , tandis que règne en maître sur le hardware.

Les États-Unis ont donc la mainmise sur l’intelligence artificielle, et Trump vient d’ailleurs d’annoncer le projet Stargate avec un investissement à hauteur de 500 milliards de dollars pour créer l’IA ultime qui va changer le monde.

L’avenir semblait donc radieux et tout tracé pour l’Oncle Sam. Toutefois, cette hégémonie est désormais mise en péril

En moins d’une semaine, une startup chinoise est parvenue à chambouler totalement l’équilibre au sein de l’écosystème IA.

Cette petite entreprise, dénommée DeepSeek, a lancé la dernière version de son chatbot R1 au cours de la semaine du 20 janvier 2025.

Or, son IA surpasse même la version la plus récente de ChatGPT… alors même qu’elle a créé son modèle en seulement quelques mois, avec du hardware inférieur, et à un coût incroyablement réduit.

Face au succès tonitruant de DeepSeek R1, toute l’industrie américaine de l’IA tremble de peur. Les actions en bourse de la Silicon Valley ont lourdement baissé, et ont même entraîné les crypto dans leur chute !

Avec DeepSeek, c’est une brèche qui vient de s’ouvrir et qui pourrait transformer totalement le paysage de l’IA. Nous vous proposons donc un dossier pour découvrir tout ce qu’il faut savoir sur cette startup qui fait paniquer les géants…

DeepSeek, c’est quoi au juste ?

Fondé en 2023, DeepSeek est un laboratoire d’intelligence artificielle basé à Hangzhou dans la province chinoise du Zhejiang.

Son modèle IA -Source est dénommé DeepSeek R1. La dernière version en date, DeepSeek-V3, rivalise avec ChatGPT et le surpasse même sur de nombreux cas d’usage.

Même les derniers modèles d’OpenAI comme -4o et l’IA capable de raisonner o1 ne font pas le poids. D’ailleurs, DeepSeek-V3 dépasse aussi 3.1 ou Anthropic Claude Sonnet 3.5.

Cependant, ce ne sont pas seulement ses performances qui surprennent tous les experts américains. Le plus choquant est que DeepSeek n’a eu besoin que de quelques mois pour créer sa V3, avec du hardware ancien et pour une fraction de ce que les géants des États-Unis ont dépensé pour développer leurs chatbots…

Une IA surpuissante, 20 fois moins chère que ChatGPT

Selon le rapport technique de DeepSeek sur sa V3, le coût total de développement du modèle est de 5,576 millions de dollars. En comparaison, OpenAI a dépensé 100 millions de dollars pour entraîner GPT-4 !

Ceci soulève de nombreuses questions pour les géants américains, qui ont déjà déversé des milliards de dollars dans les différentes versions de leurs modèles IA LLM.

Ils réalisent qu’ils ont gaspillé leur argent inutilement. En ce qui concerne l’exécution de tâches, DeepSeek coûte entre 20 et 50 fois moins cher que ChatGPT !

D’ailleurs, ce coût très élevé de recherche et développement est précisément la raison pour laquelle la plupart des LLM ne sont pas rentables à l’heure actuelle pour les entreprises impliquées.

En ayant réussi à créer un LLM supérieur pour moins de 6 millions de dollars, DeepSeek se présente aussi comme un très dangereux concurrent et ouvre une porte à bien d’autres entreprises.

Lorsque l’on pensait que des milliards de dollars étaient nécessaires pour créer une IA, seuls les géants comme Meta, ou OpenAI pouvaient espérer s’aventurer dans ce domaine.

Désormais, de nombreuses startups et entreprises de moindre envergure venues du monde entier vont pouvoir créer leurs propres IA pour défier directement les GAFAM…

Un véritable coup de théâtre dans la guerre de l’IA

Si la concurrence fait rage entre les géants américains, personne n’a vu venir la menace d’une petite startup chinoise.

C’est d’autant plus inattendu que l’administration Biden avait mis en place un certain nombre de contrôles des exports de technologies IA pour handicaper la Chine dans cette course.

Les entreprises américaines n’avaient pas le droit de vendre leurs puces IA les plus avancées et leur hardware de dernière génération aux entreprises chinoises.

Ainsi, même sans avoir eu accès aux meilleures puces NVIDIA, DeepSeek a réussi à créer une IA supérieure à ChatGPT en utilisant des puces NVIDIA H800 de milieu de gamme. De plus, son LLM consomme moins d’énergie et est donc moins nocif pour l’environnement…

Le CEO de Perplexity, Aravind Srinivas, a confié à CNBC que « la nécessité est la mère de l’invention. Parce qu’ils devaient trouver des solutions alternatives, ils ont créé quelque chose de beaucoup plus efficace ».

Toutefois, selon certaines sources, DeepSeek se serait procuré clandestinement un cluster de NVIDIA H100 dernier cri pour contourner les restrictions…

Les géants américains sont en état de choc

Face au succès foudroyant de DeepSeek, les géants américains de l’IA sont abasourdis. Tous craignent désormais de se faire détrôner par des startups comme DeepSeek.

Lors du Forum Economic Mondial de Davos, le CEO de Microsoft, Satya Nadella, a déclaré que « le nouveau modèle de DeepSeek est très impressionnant à la fois parce qu’il s’agit d’un modèle open source et parce qu’il est très efficace ».

Il ajoute que « nous devons prendre les développements provenant de Chine très, très sérieusement ». Rappelons que Microsoft a investi des milliards de dollars dans OpenAI.

Le CEO d’OpenAI, , a lui-même admis lundi 27 janvier 2025 que DeepSeek R1 est « impressionnant ». Il reste toutefois convaincu que la puissance de calcul demeure la clé du succès et du progrès dans l’IA.

deepseek's r1 is an impressive model, particularly around what they're able to deliver for the price.

we will obviously deliver much better models and also it's legit invigorating to have a new competitor! we will pull up some releases.

— Sam Altman (@sama) January 28, 2025

De son côté, Yann LeCun, scientifique en chef de Meta, fait plutôt l’éloge de l’ouverture. Il a déclaré sur Threads que le succès de DeepSeek montre que « les modèles Open Source sont en train de surpasser les modèles propriétaires ».

View on Threads

Selon lui, « DeepSeek a profité de la recherche ouverte et de l’Open Source, notamment PyTorch et Llama de Meta. Ils sont venus avec de nouvelles idées et les ont construits par-dessus le travail d’autres personnes ».

Ainsi, « puisque leur travail est publié et Open Source, tout le monde peut en profiter. C’est la puissance de la recherche ouverte et de l’Open Source ».

Même le président des États-Unis, Donald Trump, a réagi au triomphe de DeepSeek le 27 janvier 2025. Il s’est exprimé lors d’un discours auprès des Républicains en Floride.

Selon lui, ce succès doit faire l’effet d’un « réveil » pour les entreprises américaines du secteur. Il estime qu’elles doivent être « focalisées sur la compétition pour gagner ».

Vent de panique à Wall Street et dans la crypto

Ce renversement de vapeur dans l’industrie de l’IA fait d’ores et déjà des remous à la bourse. À l’heure où j’écris ces lignes, plusieurs grandes actions liées à l’intelligence artificielle sont en baisse.

Le grand leader du hardware IA, NVIDIA, a notamment vu son cours diminuer de 10%. Pour rappel, le constructeur de cartes graphiques est devenu l’entreprise la plus capitalisée du monde grâce à l’achat massif de ses puces IA par les laboratoires IA.

Cependant, si les entreprises peuvent maintenant créer des modèles IA supérieurs à ChatGPT avec des puces inférieures, sa valeur est fortement remise en question

L’entreprise ASML Holding N.V., qui fabrique les équipements nécessaires à la production de puces IA, voit aussi son action baisser de 9%. De son côté, Microsoft perd aussi 6%.

Il en va de même pour le fabricant japonais d’équipements de de puces Advantest, fournisseur de Nvidia, qui perd 10%, ou pour l’investisseur SoftBank Group en baisse de 6%.

Et selon Ash Crypto, célèbre investisseur en cryptomonnaies, la récente baisse du Bitcoin et de nombreux autres actifs est également liée à cette soudaine incertitude !

Les actions des acteurs américains de l’IA vont-elles remonter après une baisse passagère, ou cette chute va-t-elle perdurer ? Nul ne peut vraiment le prédire à l’heure actuelle…

Comment utiliser DeepSeek V3 ? Une IA déjà victime de son succès…

En tant que modèle Open-Source, DeepSeek peut être utilisé gratuitement par n’importe qui. En comparaison, la version la plus avancée de ChatGPT coûte 200 dollars par mois

Pour commencer à tester cette IA, vous pouvez vous rendre sur le site web en suivant ce lien. Il est aussi possible de télécharger l’application DeepSeek sur iOS ou Android !

En quelques jours, cette appli est d’ailleurs devenue numéro 1 des applis gratuites sur l’App Store d’.

Néanmoins, DeepSeek est désormais victime de son succès ! Le trafic était si chargé que la startup a dû limiter les inscriptions aux personnes ayant un numéro de téléphone chinois. On ignore quand le service sera de nouveau ouvert au monde entier…

De plus, elle affirme avoir subi des cyberattaques à grande échelle. S’agit-il de concurrents jaloux souhaitant lui nuire ?

Et vous, que pensez-vous de DeepSeek ? Cette IA chinoise peut-elle vraiment prendre la place d’OpenAI en tant que leader mondial ? S’agit-il d’une simple hype passagère ? Comment les géants américains peuvent-ils reprendre le dessus, et surtout, quelle place pour la France et l’Europe sur cet échiquier ? Partagez votre avis en commentaire !

Cet article DeepSeek, l’IA chinoise gratuite qui détruit ChatGPT et terrifie les USA ! Tout savoir a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI vs Google : qui remporte le choc des titans de l’IA de 2025 ?!
    Qui est le champion de l’industrie de l’IA ? OpenAI et Google viennent de dévoiler de nombreuses nouveautés au cours du mois de décembre 2024. Découvrez notre récapitulatif pour savoir lequel de ces deux titans peut se proclamer leader ! Au cours du mois de décembre 2024, Google et OpenAI ont déchaîné un véritable déluge d’annonces IA. Déterminés à faire avancer l’industrie, les deux géants se sont livrés un bras de fer technologique sous les yeux ébahis des experts et des utilisateurs. To

OpenAI vs Google : qui remporte le choc des titans de l’IA de 2025 ?!

Par : Bastien L.
14 janvier 2025 à 14:47

Qui est le champion de l’industrie de l’IA ? et viennent de dévoiler de nombreuses nouveautés au cours du mois de décembre 2024. Découvrez notre récapitulatif pour savoir lequel de ces deux titans peut se proclamer leader !

Au cours du mois de décembre 2024, Google et OpenAI ont déchaîné un véritable déluge d’annonces IA. Déterminés à faire avancer l’industrie, les deux géants se sont livrés un bras de fer technologique sous les yeux ébahis des experts et des utilisateurs.

Tout a commencé au début du mois, avec le lancement des « 12 jours d’OpenAI » : douze jours, répartis du 5 au 20 décembre, avec une annonce par jour.

Avec cette vague de nouveautés, la startup de San Francisco comptait asseoir sa domination sur le secteur. C’était sans compter sur Google, bien décidé à rappeler qui est le grand leader du numérique.

Rapidement, le colosse de Mountain View a riposté en présentant à son tour de nombreuses innovations. En seulement un mois, l’intelligence artificielle a donc fait un bond de géant.

Toutefois, la cadence est si rapide qu’il devient difficile de suivre, même pour les passionnés d’IA les plus assidus. Afin de ne pas perdre le fil, nous vous proposons un résumé de toutes les nouveautés majeures dévoilées dans ce laps de temps !

OpenAI : 12 jours d’annonces pour rappeler qui est le patron

Au cours de ses 12 jours de Shipmas, OpenAI a dévoilé de nombreuses nouveautés. Pour commencer, le 5 décembre, la firme a enfin relâché la version complète de son modèle o1 en le rendant disponible pour tous les abonnés à Plus et Team du monde entier.

o1 et l’abonnement ChatGPT Pro 

Today we’re also adding ChatGPT Pro, a new plan that allows us to offer the best of our models & tools at scale, including unlimited access to OpenAI o1 and a Pro-only version of o1 that thinks longer for even more reliable responses. https://t.co/UqhfbGkMgl

— OpenAI (@OpenAI) December 5, 2024

Pour rappel, o1 offre des capacités d’analyse d’images et permettra bientôt la navigation sur le web. Ce modèle est plus rapide que la version d’essai, et commet 34% d’erreurs en moins sur les questions du monde réel.

En outre, OpenAI a lancé l’abonnement ChatGPT Pro tarifé à 200 dollars. Il comprend un accès illimité à o1, -4o, et aux fonctionnalités du mode Advanced Voice.

Les abonnés Pro ont aussi accès à une version exclusive de o1 offrant davantage de puissance de calcul pour résoudre les problèmes les plus complexes.

RFT : l’IA peut maintenant apprendre par la pratique 

Par la suite, le 6 décembre, OpenAI a dévoilé une nouvelle technique de personnalisation de modèle dénommée RFT : Reinforcement Fine-Tuning. Elle permet aux développeurs de modifier les modèles de la série o pour des tâches spécifiques.

Cette nouvelle méthode va au-delà du fine-tuning supervisé traditionnel afin d’aider les modèles à améliorer leurs capacités de raisonnement via des itérations répétées. En d’autres termes, l’IA peut désormais apprendre par la pratique.

La technique RFT a notamment été utilisée par le chercheur Justin Reese du Berkeley Lab pour rechercher des maladies génétiques rares, et par Thomson Reuters pour son assistant légal IA CoCounsel.

Il suffit aux développeurs de fournir un jeu de données et des critères d’évaluation, et la plateforme d’OpenAI gère le processus d’apprentissage par renforcement. Le public pourra accéder à RFT début 2025 !

Sora, Canvas et ChatGPT Search 

Le troisième jour était sans doute le plus important, avec le lancement tant attendu de Sora : le générateur de vidéo. Ce modèle IA permet de créer une vidéo à partir d’un texte, et est désormais accessible sur sora.com pour les abonnés ChatGPT Plus et Pro.

Malheureusement, les utilisateurs français devront patienter encore un peu pour pouvoir l’essayer (à moins d’utiliser un VPN). Selon OpenAI, cette nouvelle version est plus rapide que la preview initiale de février 2024.

Par la suite, la firme a annoncé que sa fonctionnalité Canvas pour ChatGPT sort de la phase de beta et est désormais disponible pour tous les utilisateurs (y compris sur la version gratuite).

Pour rappel, elle délivre une interface dédiée pour les projets d’écriture ou de codage pour lesquels le format de discussion standard ne suffit pas.

Avec cette version mise à jour, les utilisateurs peuvent exécuter du code Python au sein de l’interface et effectuer du copier-coller pour importer du contenu. Une compatibilité avec les GPT customisés a été ajoutée, ainsi qu’une fonction de suivi des modifications.

D’ailleurs, les utilisateurs de la version gratuite peuvent également utiliser le moteur de recherche web ChatGPT Search. Ce dernier a été mis à jour pour améliorer sa vitesse et son optimisation sur mobile.

ChatGPT intégré à Intelligence et WhatsApp 

Une autre nouveauté annoncée est l’intégration de ChatGPT avec Apple Intelligence sur les appareils iOS, iPadOS et macOS. Ceci permet aux utilisateurs d’accéder aux fonctionnalités de ChatGPT comme l’analyse d’image et de document.

Au sixième jour, OpenAI a ajouté une fonctionnalité d’appel vidéo à ChatGPT et une nouvelle voix imitant celle du père Noël pour célébrer les fêtes de fin d’année.

En outre, OpenAI a aussi annoncé une intégration avec l’application de messagerie WhatsApp. Les utilisateurs peuvent désormais contacter ChatGPT via l’appli, avec le numéro 1-800-CHATGPT, et bénéficient de 15 minutes de communication gratuites par mois.

o3 : l’IA du futur capable de réfléchir 

Autre nouveauté importante : Projects. Cette nouvelle fonctionnalité permet d’organiser vos discussions avec ChatGPT sous la forme de dossiers, avec la possibilité de donner au chatbot des instructions spécifiques pour toutes les discussions au sein d’un même projet.

Pour terminer en beauté, OpenAI a dévoilé o3 et o3-mini : de puissants modèles IA capables de raisonner, qui ont atteint un score de 2727 au concours de programmation Codeforces et 96,7% au de mathématiques AIME 2024.

Cette IA atteint même 85% au test d’intelligence générale ARC-AGI, ce qui équivaut au score moyen des humains. En d’autres termes, cette IA pourrait être la première à égaler l’intelligence humaine. Son lancement est prévu pour la fin janvier 2025.

Google : 2.0, Veo 2, Whisk … la réponse du berger à la bergère

Loin de se laisser intimider par OpenAI, Google a immédiatement riposté avec sa propre série d’annonces. Tout laisse penser que le géant californien savait ce que son nouveau rival préparait pour le mois de décembre…

Tout d’abord, le premier modèle de la famille Gemini 2.0 a été lancé. Il s’agit de Flash, une version test proposant des réponses rapides. Il est conçu pour des expériences interactives, en combinant différents types d’inputs et d’outputs.

Ce modèle se décline aussi dans une version expérimentale « Flash Thinking », capable de raisonner à la manière de OpenAI o1. Il utilise un temps d’inférence supplémentaire pour tenter de résoudre des problèmes plus complexes.

De son côté, Veo 2 est un générateur de vidéos capable de créer des clips réalistes en 4K à partir de prompts textuels. Les angles de vue et styles de caméra peuvent être ajustés.

Face aux premières démos, beaucoup d’experts considèrent d’ores et déjà qu’il s’agit du meilleur modèle génératif de vidéos, surpassant même le tant attendu OpenAI Sora.

Un autre outil dévoilé par Google est Deep Research : une fonctionnalité de Gemini Advanced permettant d’utiliser l’IA comme assistant de recherche pour créer des rapports détaillés sur n’importe quel sujet.

Une démo a aussi été présentée pour Google Gemini Live, une nouvelle capacité de Google Gemini lui permettant d’interagir en live via les inputs audio, vidéo et le partage d’écran.

Google Labs just released Whisk, a new image generator that lets you input a subject, scene, and style to remix images. You can actually try it now – but of course it’s not available in the EU! pic.twitter.com/tUdRQOPnvI

— Chubby♨️ (@kimmonismus) December 16, 2024

Une nouvelle IA Whisk permet de créer et de modifier des images non pas à partir de prompts textuels, mais à partir d’autres images. Ceci permet de choisir des styles, des sujets et des scènes spécifiques.

En outre, l’IA générative d’images Imagen 3 a reçu une mise à jour lui permettant de créer des images plus détaillées, avec un meilleur éclairage et différents styles artistiques.

Mise à jour également pour NotebookLM, l’outil dédié aux documents, qui s’étoffe d’une nouvelle interface pour la gestion du contenu, d’hôtes IA pour les Overviews Audio, et d’une version Plus avec des fonctionnalités additionnelles et des limites plus hautes.

Annoncé plus tôt dans l’année, lors de la Google I.O, l’assistant IA agentique Project Astra a refait parler de lui avec sa capacité à utiliser Gemini 2.0 pour donner des réponses instantanées sur les différents services Google.

La firme a aussi dévoilé Project Mariner : une extension Chrome exploitant Gemini 2.0 pour aider les utilisateurs à compléter des tâches sur le navigateur en comprenant le contenu de la page.

Certains de ces produits, comme Deep Research, Veo 2 ou Gemini Live pourraient avoir à eux seuls un impact massif sur le secteur de l’IA et faire couler des litres d’encre.

Pourtant, ils ont été lancés à un rythme effréné. Il faudra sans doute du temps à l’industrie et aux utilisateurs pour réaliser l’ampleur des possibilités offertes par ces outils…

Qui peut prétendre au trône du royaume de l’IA ?

Avec cette vague de nouveautés, OpenAI et Google ont tous deux créé la surprise. D’ordinaire, le mois de décembre est plutôt une période de calme en termes d’annonces et d’innovations de la part des entreprises.

Cela montre que l’intelligence artificielle évolue à grande vitesse, mais aussi que la rivalité entre les deux mastodontes s’intensifie. Pour savoir lequel remportera ce duel au sommet, il faudra toutefois attendre de pouvoir tester OpenAI o3 et la version complète de Gemini 2.0.

Ces deux nouveaux modèles IA sont très certainement les deux plus puissants à l’heure actuelle. Cependant, les avancées dans l’industrie de l’intelligence artificielle ne se limitent pas à ces deux entreprises.

Le 6 décembre, a également lancé son modèle 3.3 70B-Instruct rivalisant avec les performances de GPT-4 sur du hardware grand public.

Peu avant, le 4 décembre 2024, a dévoilé sa famille d’IA multimodales Nova dont le prix est pensé pour rivaliser avec Google Gemini 1.5.

Il va sans dire que cette technologie progresse à vive allure, malgré le scepticisme de certains analystes. Alors que GPT-4 semblait encore futuriste il y a un an, il est désormais possible d’atteindre des performances similaires sur un simple smartphone.

De leur côté, les nouveaux modèles à raisonnement comme o1 sont capables de détecter des erreurs dans les études scientifiques ayant échappé au regard humain.

Il ne s’agit que d’un début, et nul ne peut vraiment prédire où en sera l’IA d’ici la fin de l’année 2025 qui s’annonce elle aussi d’ores et déjà riche en surprises…

Et vous, qu’en pensez-vous ? Qui vous a le plus impressionné entre OpenAI et Google ? Quelle annonce vous a marqué ? Quelles nouveautés attendez-vous pour 2025 ? Partagez votre avis en commentaire !

Cet article OpenAI vs Google : qui remporte le choc des titans de l’IA de 2025 ?! a été publié sur LEBIGDATA.FR.

DeepSeek-V3 : la Chine dévoile son ChatGPT dix fois moins cher

Avec DeepSeek-V3, la Chine a possiblement de quoi inquiéter OpenAI et les grands groupes américains. Son approche open source, sur un secteur de plus en plus dominé par des groupes privés, lui permet d'aller vite, pour beaucoup moins d'argent.

  • ✇LEBIGDATA.FR
  • Meta autorise l’armée à utiliser son IA : un jour sombre pour l’humanité ?
    Meta a décidé d’autoriser l’armée américaine à utiliser son IA Llama. C’est un signal d’alarme, car l’intelligence artificielle s’invite, cette fois, dans des zones sensibles, là où la neutralité devient difficile à défendre. Meta a choisi de permettre à l’armée américaine d’utiliser Llama. À terme, cette décision soulève de nombreuses questions éthiques et morales sur l’avenir de l’IA, notamment quand elle pourrait être utilisée dans des contextes de sécurité nationale et de surveillance. Qu

Meta autorise l’armée à utiliser son IA : un jour sombre pour l’humanité ?

Par : Nirina R.
6 novembre 2024 à 16:30

a décidé d’autoriser l’armée américaine à utiliser son IA . C’est un signal d’alarme, car l’intelligence artificielle s’invite, cette fois, dans des zones sensibles, là où la neutralité devient difficile à défendre.

Meta a choisi de permettre à l’armée américaine d’utiliser Llama. À terme, cette décision soulève de nombreuses questions éthiques et morales sur l’avenir de l’IA, notamment quand elle pourrait être utilisée dans des contextes de sécurité nationale et de surveillance. Que signifie cette décision pour notre société, pour la paix mondiale, pour l’avenir de la technologie ?

L’armée américaine accède désormais à l’IA Llama de Meta

En permettant aux agences américaines d’utiliser l’IA Llama, Meta franchit une ligne que peu osaient imaginer. Pour renforcer la sécurité nationale, Meta collabore avec des géants comme , et . Cela me semble inquiétant. Pourquoi Meta franchit-elle une ligne aussi délicate ?

Prenons l’exemple de Lockheed Martin, un des sous-traitants de la défense. Grâce à Llama, cette entreprise peut générer des codes et analyser des données massives.

META UNLEASHES LLAMA AI FOR MILITARY BOOST

Meta's just dropped its Llama AI model into the hands of the US military, and this is a game changer!

They're teaming up with big names like Microsoft and Amazon to amp up national security—think better logistics and tracking down bad… pic.twitter.com/6ErqUW7kaK

— IBC Group Official (@ibcgroupio) November 5, 2024

Et si, un jour, cette IA était directement intégrée dans des missions militaires ? Et si elle dépassait son cadre de la cybersécurité ? Ce glissement me semble plus que probable.

Or, une fois l’armée équipée de ces capacités, elle pourrait disposer d’un pouvoir technologique sans précédent pour surveiller et intervenir. En fin de compte, ce « contrôle de la logistique » pourrait vite devenir une domination technologique, ce qui me semble dangereux.

Comment Meta gère le risque de détournement militaire de Llama

Meta assure que Llama ne sera pas utilisée pour des « missions de guerre ». Néanmoins, chaque exception accordée ouvre un peu plus la voie aux dérives.

Pour illustrer ce risque, je me souviens de l’exemple récent en Chine. Là-bas, des chercheurs ont exploité Llama 2, une version antérieure, pour des applications militaires. Bien que Meta condamne cet usage, cet incident me fait craindre qu’une IA, même open source, puisse être détournée de ses objectifs premiers.

Depuis cet incident, Meta tente de rassurer en renforçant sa politique d’usage, mais je reste sceptique. Car, à mon sens, chaque utilisateur pourrait potentiellement dévier de l’intention première de l’IA.

Et plus Meta collabore avec des géants, plus l’IA devient puissante et risquée. Cela me paraît évident que cette IA pourrait passer entre les mains d’acteurs ayant des intérêts bien différents.

Les dangers éthiques de l’utilisation de Llama dans la défense

En autorisant des applications dans la défense, Meta ne se limite plus à l’innovation. J’ai l’impression qu’elle franchit les limites de l’éthique. Et si, demain, cette IA de Meta échappait au contrôle humain ? Aussi puissante soit-elle, Llama comporte des dangers, notamment si elle est utilisée par des entreprises ou des gouvernements peu scrupuleux.

Meta défend pourtant sa vision d’une intelligence artificielle ouverte. Mais les risques sont trop importants.

En voyant les capacités d’analyse de Llama, je crains qu’elle devienne un outil de surveillance incontrôlable. Cette surveillance pourrait s’étendre non seulement aux citoyens, mais aussi aux informations sensibles du monde entier. Sinon, pourquoi des agences de sécurité nationale en auraient-elles besoin ?

Selon vous, Meta va-t-il trop loin en collaborant avec la défense ? Faut-il limiter l’accès de l’IA aux agences de défense ? Donnez votre avis en commentaires.

Cet article Meta autorise l’armée à utiliser son IA : un jour sombre pour l’humanité ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Meta Llama 4 : sortie en 2025, avec une « Intelligence Machine Autonome » révolutionnaire ?
    Meta annonce la sortie de Llama 4 en 2025. Cette nouvelle version promet une « Intelligence Machine Autonome » qui pourrait révolutionner notre quotidien. Après le Llama 3.2, Meta prépare enfin le lancement du Llama 4 pour début 2025. Ce modèle promet une « Intelligence Machine Autonome » (AMI) capable de percevoir, de raisonner et de s’adapter. Face à des concurrents comme OpenAI avec GPT-4o ou 01.AI de Kai-Fu Lee, Meta ne cache pas son ambition : repousser les limites actuelles de l’intelli

Meta Llama 4 : sortie en 2025, avec une « Intelligence Machine Autonome » révolutionnaire ?

Par : Nirina R.
1 novembre 2024 à 09:46

annonce la sortie de 4 en 2025. Cette nouvelle version promet une « Intelligence Machine Autonome » qui pourrait révolutionner notre quotidien.

Après le Llama 3.2, Meta prépare enfin le lancement du Llama 4 pour début 2025. Ce modèle promet une « Intelligence Machine Autonome » (AMI) capable de percevoir, de raisonner et de s’adapter. Face à des concurrents comme OpenAI avec GPT-4o ou 01.AI de Kai-Fu Lee, Meta ne cache pas son ambition : repousser les limites actuelles de l’intelligence artificielle.

Un pas vers l’IA autonome… enfin ?

Il était temps pour Meta d’élever Llama à un niveau supérieur. Avec Llama 4, l’idée est simple : créer une IA qui planifie, évalue et ajuste ses actions.

Manohar Paluri, vice-président IA chez Meta, a récemment confié que son équipe explore des moyens de rendre Llama plus adaptable en temps réel. Ainsi, le modèle pourra modifier ses choix en fonction des changements de contexte.

En comparaison avec les versions précédentes, Llama 4 ne se contente plus d’exécuter des tâches simples. Maintenant, il peut apprendre en continu, s’adapter et réajuster comme un humain.

Par exemple, lors de la planification d’un voyage, l’IA pourrait anticiper des retards ou proposer des itinéraires alternatifs. Personnellement, je trouve cette flexibilité remarquablement rare ! « L’essentiel est que le modèle sache quand il est sur la bonne voie », explique Paluri.

En parallèle, Meta a récemment introduit le Dualformer, une autre avancée inspirée de la cognition humaine. Ce modèle bascule entre une pensée rapide et intuitive et un raisonnement plus lent et délibéré.

Mark Zuckerberg says he is betting that the limit of scaling AI systems "is not going to happen any time soon", as Llama 4 will train on 100,000+ GPUs and Llama 5 even more than that pic.twitter.com/i7HA7r4MGe

— Tsarathustra (@tsarnick) September 26, 2024

Un apprentissage innovant pour former Llama 4

Pour rendre Llama 4 vraiment « intelligent », Meta utilise une approche novatrice. L’équipe combine l’apprentissage auto-supervisé (SSL) et le renforcement par retour d’information humain (RLHF).

Grâce au SSL, Llama se forme en analysant d’énormes volumes de données, ce qui lui permet de développer des connaissances générales sans intervention humaine. En parallèle, le RLHF affine ses réactions pour répondre aux attentes humaines, un peu comme un mentor qui guide son élève.

« L’apprentissage auto-supervisé aide les modèles à acquérir des connaissances générales », explique Paluri. « Cependant, l’apprentissage par renforcement est plus ciblé. Il donne au modèle des retours spécifiques, comme lui dire « bon travail » ou « réessaie » en fonction de ses actions ».

Cette combinaison permet donc de rendre Llama non seulement polyvalent mais aussi plus précis dans ses réponses.

Meta veut aussi que Llama génère des données synthétiques, un atout de taille pour les régions où les données sont rares. Prenons l’exemple de Llama 3.1 405B : ce modèle est conçu pour produire des contenus adaptés aux langues indiennes, une avancée majeure dans un pays où la diversité linguistique peut parfois être un obstacle.

Vivek Raghavan, chef de Sarvam AI, a révélé que Llama 3.1 a servi à développer Sarvam 2B, un modèle de 2 milliards de paramètres avec 4 000 milliards de jetons, dont 2 000 milliards en langues indiennes. « Nous avons utilisé 1 024 cartes NVIDIA H100 pour former le modèle en seulement 15 jours », a précisé Raghavan.

Great to visit one of our data centers where we're training Llama 4 models on a cluster bigger than 100K H100’s! So proud of the incredible work we’re doing to advance our products, the AI field and the open source community. We’re hiring top researchers to work on reasoning,… pic.twitter.com/VrLoh4fUOt

— Ahmad Al-Dahle (@Ahmad_Al_Dahle) October 31, 2024

Un saut technologique dès 2025

Alors, Meta réussira-t-il son pari ? , PDG de Meta, y croit ! Lors d’une interview récente avec Rowan Cheung, influenceur dans le domaine de l’IA, Zuckerberg a révélé que la pré-formation de Llama 4 était déjà en cours, soutenue par une infrastructure de calcul et des clusters de données spécialement dédiés.

Ragavan Srinivasan, vice-président produit chez Meta, voit en Llama « nouvelle génération » un tournant décisif pour 2025.

Des fonctionnalités inédites sont au programme : une mémoire contextuelle avancée et une prise en charge intermodale permettant des collaborations étroites avec des tiers. « Les développeurs auront désormais accès à une IA qui évolue avec chaque nouvelle génération », a-t-il précisé.

Quand je repense à la cadence effrénée de Meta, je suis impressionné : Llama 3 en avril, 3.1 en juillet, puis Llama 3.2 en septembre… Meta a clairement accéléré le rythme.

Paluri souligne aussi l’importance de mises à jour régulières, expliquant que Meta veut des « améliorations prévisibles et significatives ». De plus, avec les versions quantifiées de Llama 3.2, la vitesse d’inférence a été quadruplée, tout en réduisant la taille des modèles et l’utilisation de mémoire.

Alors, êtes-vous prêts pour cette révolution ? Pensez-vous que Meta Llama 4 sera à la hauteur des promesses d’une « Intelligence Machine Autonome » ? Faites-nous part de votre opinion ci-dessous !

Cet article Meta Llama 4 : sortie en 2025, avec une « Intelligence Machine Autonome » révolutionnaire ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Nvidia lance Nemotron 70-B, l’IA qui explose GPT-4o : séisme dans l’industrie de l’IA !
    Nvidia dévoile Llama-3.1-Nemotron-70B-Instruct : une IA qui surpasse GPT-4o et Claude 3.5 sur la plupart des benchmarks. L’industrie de l’intelligence artificielle vient elle de trouver son nouveau leader ? Le géant des cartes graphiques est-il en passe de redistribuer celles de l’industrie de l’IA ? Il y a quelques jours, Nvidia présentait la famille de modèles multimodaux NVLM 1.0 avec notamment NVLM-D-72B et ses 72 milliards de paramètres. Ce mardi 15 octobre 2024, en toute discrétion,

Nvidia lance Nemotron 70-B, l’IA qui explose GPT-4o : séisme dans l’industrie de l’IA !

Par : Bastien L.
18 octobre 2024 à 19:32

dévoile -3.1-Nemotron-70B-Instruct : une IA qui surpasse -4o et 3.5 sur la plupart des benchmarks. L’industrie de l’intelligence artificielle vient elle de trouver son nouveau leader ?

Le géant des cartes graphiques est-il en passe de redistribuer celles de l’industrie de l’IA ? Il y a quelques jours, Nvidia présentait la famille de modèles multimodaux NVLM 1.0 avec notamment NVLM-D-72B et ses 72 milliards de paramètres.

Ce mardi 15 octobre 2024, en toute discrétion, elle a dévoilé un nouveau modèle d’intelligence artificielle qui surpasse ceux des leaders du secteur comme et .

Il s’agit non seulement d’un revirement majeur dans la stratégie de la firme américaine, qui pourrait aussi potentiellement bouleverser tout l’ordre établi dans le paysage de l’intelligence artificielle !

Dénommé Llama-3.1-Nemotron-70B-Instruct, ce nouveau modèle est apparu sans tumulte sur la plateforme Hugging Face. Toutefois, rapidement, il a capté toute l’attention en raison de ses performances époustouflantes sur de nombreux tests de benchmark.

Une version améliorée de Llama 3.1 à la pointe de la tech

Afin de créer cette IA, Nvidia a raffiné le modèle open-source Llama 3.1 de Meta à l’aide de techniques d’entraînement très avancées.

Elle a notamment exploité la méthode RLHF : Reinforcement Learning from Human Feedback. Celle-ci consiste à permettre à l’IA d’apprendre à partir des préférences humaines, pour mener à des réponses plus naturelles et contextuelles.

Toutefois, ce qui distingue véritablement Llama-3.1-Nemotron-70B-Instruct est sa capacité à traiter des requêtes complexes sans prompting additionnel ou tokens spécialisés.

Dans le cadre d’une démonstration, elle a correctement répondu à la question : « combien y a-t-il de r dans le mot strawberry ? » avec une réponse précise et détaillée.

Ceci montre une compréhension nuancée du langage et une capacité à fournir des explications claires. La plupart des modèles IA actuels échouent face à cette question.

De plus, ces résultats sont particulièrement significatifs, car ils mettent l’accent sur l’« alignement » : un terme faisant référence à la façon dont les productions d’un modèle correspondent aux besoins et préférences des utilisateurs.

Une nouvelle solution attractive pour les entreprises

The easiest way to use this new model is through HuggingChat with the link below.

Just create a free account and select the model “nvidia/Llama-3.1-Nemotron-70B-Instruct-HF”.

And you're ready to start chatting! pic.twitter.com/t42jTctMA0

— Paul Couvert (@itsPaulAi) October 16, 2024

Avec un tel modèle, les entreprises et organisations cherchant à exploiter l’IA pourront profiter de réponses plus utiles, avec beaucoup moins d’erreurs.

De plus, Nvidia proposé une inférence hébergée gratuitement via sa plateforme build.nvidia.com. Elle s’accompagne d’une interface API compatible avec OpenAI.

Cette accessibilité rend la technologie IA la plus avancée plus disponible, permettant à une large gamme d’entreprises de l’utiliser et d’implémenter les modèles de langage dernier cri.

Ce modèle présente aussi l’avantage d’être customisable, afin de répondre aux besoins spécifiques des entreprises : prendre en charge les requêtes de service client, générer des rapports complexes…

L’IA de Nvidia offre cette flexibilité, combinée à des performances de pointe. C’est donc une solution très intéressante pour les entreprises de toutes les industries.

Ceci étant dit, la firme prévient que Llama-3.1-Nemotron-70B-Instruct n’a pas été affiné pour des domaines spécialisés comme les maths ou le raisonnement légal où la précision est essentielle.

Les entreprises doivent donc s’assurer de l’utiliser de façon appropriée et implémenter des barrières de sécurité pour éviter les erreurs.

Nvidia, nouveau leader de l’industrie des LLM ?

Selon Nvidia, cette IA obtient le meilleur score sur plusieurs évaluations phares. Elle a notamment atteint 85.0 sur Arena Hard Benchmark, 57.6 sur AlpacaEval 2 LC, et 8.98 sur GPT-4-Turbo MT-Bench.

https://twitter.com/NVIDIAAIDev/status/1846227767333212622

Ses scores surpassent donc ceux des modèles les plus reconnus comme GPT-4o et Anthropic Claude 3.5 Sonnet. Ainsi, Nvidia n’est plus seulement fournisseur, mais se propulse au sommet de l’industrie de l’IA générative !

Jusqu’à présent, l’entreprise était principalement connue pour dominer l’industrie des cartes graphiques, utilisées pour les jeux vidéo et le minage de cryptomonnaies, mais aussi l’entraînement des systèmes d’intelligence artificielle.

Désormais, elle vient de prouver sa capacité à développer sa propre IA et à surpasser celles de ses principaux clients. Grâce à son expertise en hardware, elle se positionne en fournisseur de solutions IA de premier ordre.

Cette expansion stratégique pourrait déclencher une véritable secousse sismique dans le domaine des LLM, jusqu’alors aux mains d’entreprises focalisées sur le développement logiciel.

Ces dernières vont devoir reconsidérer leur propre stratégie et augmenter leurs efforts de R&D. Pour cause, Nvidia ne cherche pas seulement à concurrencer, mais bien à surpasser les IA les plus populaires.

Toutefois, depuis le lancement de ChatGPT en 2022, OpenAI a toujours attendu que la concurrence sorte un modèle plus puissant pour déployer une mise à jour de GPT afin de préserver sa domination. On peut donc éventuellement s’attendre au lancement d’une nouvelle version dans les jours à venir

De son côté, pour réellement s’imposer comme une nouvelle référence, Llama 3.1-Nemotron-70B-Instruct devra aller au-delà des benchmarks et faire ses preuves dans les applications du monde réel.

Et vous, qu’en pensez-vous ? Nvidia peut-elle réellement surpasser OpenAI et prendre les rênes de l’industrie de l’IA ? Son expertise en hardware peut-elle être un réel avantage ? Partagez votre avis en commentaire !

Cet article Nvidia lance Nemotron 70-B, l’IA qui explose GPT-4o : séisme dans l’industrie de l’IA ! a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Installer votre ChatGPT local non-censuré : le guide GPT4ALL
    Marre de la censure de ChatGPT et des autres IA ? Découvrez comment installer votre propre chatbot local, non censuré, entraîné à partir de vos propres données ! Suivez le guide !  Les chatbots IA comme ChatGPT sont des outils très utiles pour de nombreuses personnes ! Depuis son lancement en 2022, le service d’OpenAI a réuni plus de 180 millions d’utilisateurs.  Cependant, ils comportent des restrictions qui les rendent difficiles à utiliser dans certains contextes. C’est tout particulièr

Installer votre ChatGPT local non-censuré : le guide GPT4ALL

Par : Bastien L.
11 octobre 2024 à 19:19

Marre de la censure de et des autres IA ? Découvrez comment installer votre propre chatbot local, non censuré, entraîné à partir de vos propres données ! Suivez le guide ! 

Les chatbots IA comme ChatGPT sont des outils très utiles pour de nombreuses personnes ! Depuis son lancement en 2022, le service d’ a réuni plus de 180 millions d’utilisateurs

Cependant, ils comportent des restrictions qui les rendent difficiles à utiliser dans certains contextes. C’est tout particulièrement le cas pour les modèles gratuits. 

En guise d’alternative, saviez-vous que vous pouvez installer un chatbot sans aucune censure sur votre machine locale ? Voici comment procéder pour profiter d’une IA totalement libérée ! 

GPT4All : une version locale de ChatGPT 

En utilisant ChatGPT, vous vous êtes peut-être rendu compte que ses réponses sur certains sujets sont limitées

Toutefois, le projet GitHub GPT4All permet d’exécuter les LLM de façon privée sur votre machine locale. 

Vos données resteront privées, et vous n’aurez donc pas à vous inquiéter d’une collecte par OpenAI. Les réponses ne sont pas filtrées selon des règles de censure, contrairement à celles de ChatGPT

Vous pouvez utiliser votre LLM local avec des documents personnels, afin de profiter de réponses sur mesure basées sur votre façon d’écrire et de penser. 

Autre avantage : même si vous êtes déconnecté, votre LLM est toujours sur votre machine locale, prêt à être utilisé pour n’importe quel besoin. 

Alors, vous êtes convaincu ? Voici comment installer votre propre chatbot IA sur votre PC, étape par étape ! 

Télécharger et installer GPT4All 

Pour commencer, téléchargez le package GPT4All depuis ce site de démarrage rapide. Vous aurez besoin d’environ 1GB d’espace de stockage pour l’application de base, sans compter l’espace requis pour les modèles. 

Après avoir choisi l’emplacement d’installation, attendez que tous les fichiers soient téléchargés et lancez l’installation. 

Grâce à la façon dont Nomic a développé l’application, l’installation fonctionne sur la plupart des systèmes d’exploitation.

Les distributions sont disponibles pour Windows, Linux et macOS. Vous devez uniquement prêter attention à disposer de suffisamment d’espace. 

Exécuter GPT4All sur votre machine 

Après avoir complété l’installation, il vous suffit de lancer GPT4All comme n’importe quel logiciel. Plusieurs options vous sont proposées. 

Vous pouvez le nourrir avec des documents locaux ou discuter avec le modèle embarqué. Sur le côté gauche de l’écran, vous pouvez accéder à l’historique de conversations  et vérifier les documents locaux utilisés pour mettre à jour le chatbot. 

L’onglet le plus important est celui des modèles. Par défaut, aucun modèle n’est installé, mais vous réaliserez rapidement que vous avez accès à une large variété de modèles que vous pouvez télécharger et installer gratuitement… 

Obtenir de nouveaux modèles pour votre chatbot local 

Situé en haut à gauche de l’écran, l’onglet des modèles ouvre une fenêtre permettant de parcourir les différents modèles. 

Chacun d’entre eux a une description indiquant ce que le modèle offre, et pour quel usage il est adapté. 

Elle donne également une idée de l’espace dont vous aurez besoin pour l’installation, allant de 2GB à 7GB. 

Mieux vaut éviter -4. Celui-ci requiert une clé d’accès API payante. La version 3.5 est gratuite, mais ses performances sont limitées. 

Avec GPT4All, vous pouvez exploiter l’accès API, mais ceci requiert que le modèle envoie des données de prompt à OpenAI. 

Certes, les documents locaux ne seront accessibles qu’à vous et OpenAI affirme que les données collectées via l’API ne seront pas utilisées pour entraîner son LLM… mais peut-on vraiment se fier à cette promesse

Il existe heureusement de nombreuses alternatives. Pour un chatbot totalement hors-ligne, je vous recommande plutôt d’utiliser le modèle français Mistral

Celui-ci ne collecte pas vos données, et vous donnera généralement des réponses de haute qualité. C’est également le cas de Meta LLama 3 Instruct et Orca. Selon vos préférences, il peut s’agir de meilleures options que ChatGPT. 

La meilleure façon de choisir est de mener vos propres expériences, afin de déterminer quel modèle correspond à vos besoins. Pensez simplement à supprimer les modèles entre chaque pour ne pas encombrer inutilement le stockage de votre machine… 

Configurer l’accès pour les documents locaux 

Si vous prévoyez d’utiliser votre chatbot local pour la création de documents ou pour vous aider sur d’autres tâches, vous devez d’abord configurer une collection de documents

Avec GPT4All, le processus est simplifié. Placez tous les documents auxquels vous voulez que le modèle accède dans un dossier facile d’accès, et pointez le moteur vers ce dossier en utilisant le bouton « Ajouter Collection »

Le temps de traitement peut varier selon le volume de documents du dossier, mais devrait être relativement court. 

Après avoir ajouté votre dossier de document local, votre chatbot sera capable d’accéder et de lire les documents et de vous conseiller sur n’importe quelle thématique

C’est particulièrement utile si vous voulez apprendre à propos d’un sujet particulier, sans avoir le temps de vous plonger dans de nombreux ouvrages.  

Il vous suffit d’interroger le robot avec des questions précises, et vous recevrez en réponse les informations dont vous avez besoin ! 

Les meilleures astuces pour bien utiliser votre chatbot 

Pour exploiter tout le potentiel de votre chatbot, il y a plusieurs choses à savoir si vous êtes un débutant. 

Tout d’abord, notez qu’un minimum de 8GB de RAM est nécessaire pour faire tourner GPT4All. Avec moins de mémoire vive, le chatbot pourra difficilement tourner. 

Par ailleurs, sachez que vous pouvez construire des collections pour différentes catégories de documents. Imaginons par exemple que vous avez un ensemble de documents que vous utilisez pour un projet occasionnel, et l’autre pour un usage professionnel.

Announcing GPT4All 3.4 💫

– Now supporting 3B and 1B parameter models comparable in performance to Llama 13B!
– Microsoft Office Data Integrations
– Advanced Excel Support
– Local RAG performance improvements

LLaMa 3.2 1B running at 100 tok/second 🔥 pic.twitter.com/7B4hhcogoR

— Nomic AI (@nomic_ai) October 9, 2024

Dans ce cas de figure, le chatbot peut développer deux styles de réponses différents basés sur vos besoins. Chaque collection peut être traitée individuellement pour éviter le chevauchement. 

Rappelez vous aussi de garder vos modèles à jour. Vérifiez régulièrement si des mises à jour sont disponibles, et lisez les notes pour découvrir les éventuelles nouveautés. 

Si vous utilisez un nouveau modèle, vous devrez à nouveau traiter vos documents en l’utilisant. Il n’y a pas de rétrocompatibilité avec les anciennes versions. 

Les chatbots peuvent être de puissants outils pour apprendre rapidement ou pour vos projets créatifs comme l’écriture d’un roman. Toutefois, il ne s’agit en définitive que d’outils et leurs performances dépendant des données sur lesquels ils se basent et des modèles qui leur servent de moteur… 

Avoir un chatbot local vous donne le pouvoir de contrôler les données auquel le robot a accès et à partir desquelles il apprend. Cela permet aussi d’obtenir des réponses plus spécifiques. C’est donc un parfait assistant ! 

Allez-vous installer votre chatbot local ? Pour quel cas d’usage ? Quel modèle allez-vous choisir ? Partagez votre avis en commentaire !

Cet article Installer votre ChatGPT local non-censuré : le guide GPT4ALL a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Meta lance Llama 3.2, sa 1ère IA multimodale… mais on a une mauvaise nouvelle
    Llama 3.2 peut traiter à la fois des images et du texte. Elle a pour ambition de rivaliser avec les modèles des géants de la technologie d’intelligence artificielle comme OpenAI et Anthropic. Après un peu plus de deux mois de la sortie de la première version du Llama 3.2, Meta lance un nouveau grand modèle d’IA avec une importante mise à jour. En effet, cette entreprise vient de lancer son premier modèle open source capable de traiter du texte et des images. Découvrez ici les détails sur cett

Meta lance Llama 3.2, sa 1ère IA multimodale… mais on a une mauvaise nouvelle

Par : Dina R.
27 septembre 2024 à 14:16

3.2 peut traiter à la fois des images et du texte. Elle a pour ambition de rivaliser avec les modèles des géants de la technologie d’intelligence artificielle comme et .

Après un peu plus de deux mois de la sortie de la première version du Llama 3.2, lance un nouveau grand modèle d’IA avec une importante mise à jour. En effet, cette entreprise vient de lancer son premier modèle open source capable de traiter du texte et des images. Découvrez ici les détails sur cette IA révolutionnaire de Meta.

Llama 3.2, la première IA multimodale de Meta

« Il s’agit de notre premier modèle multimodal open source », a exprimé , PDG de Meta, lors de son discours d’ouverture. « Il va permettre de nombreuses applications qui nécessitent une compréhension visuelle. »

Rappelons que et OpenAI possèdent aussi des modèles d’IA multimodaux qu’elles ont lancés l’année dernière. Apparemment, Meta rattrape son retard avec le lancement de Llama 3.2. Malgré ce retard, Meta semble vouloir apporter de nombreuses nouveautés avec ce nouveau modèle.

À l’instar de son prédécesseur, cette nouvelle version de Llama possède une longueur de contexte de 128 000 jetons. Plus précisément, les utilisateurs pourront saisir de nombreux textes, l’équivalent d’une échelle de centaines de pages d’un manuel.

Par ailleurs, Llama 3.2 propose désormais des modèles plus précis grâce à des paramètres plus élevés. De plus, ils sont capables de gérer des tâches plus complexes. En outre, ce qui différencie ce modèle est la prise en charge de la vision alors que Meta travaille toujours sur le développement des capacités d’IA sur du matériel comme ses lunettes Ray-Ban Meta.

Un rival de taille de et de -4o ?

Depuis le lancement de Llama 3.1, Meta atteste que le modèle a réussi à effectuer une croissance de 10X. « Llama continue de s’améliorer rapidement », affirme Zuckerberg. « Il offre de plus en plus de fonctionnalités. »

Llama 3.2, par ailleurs est doté de deux modèles de vision (avec 11 milliards de paramètres et 90 milliards de paramètres) ainsi que deux modèles légers entièrement textuels (avec 1 milliards de paramètres et 3 milliards de paramètres).

Les plus grands modèles peuvent prendre en charge les cas d’utilisation d’images. Ils peuvent aussi comprendre les graphiques et les diagrammes. Par ailleurs, ils sont capables de sous-titrer des images et de reconnaître des objets à partir des descriptions en langage naturel. Enfin, ils peuvent enlever des détails des images pour concevoir des légendes.

Meta releases its first open AI model that can process images: Illustration by Alex Castro / The Verge

Just two months after releasing its last big AI model, Meta is back with a major update: its first open-source model capable of… https://t.co/Rdl0vc3hH9 #ai #ainews

— The AI Tech Startups Roundup (@thedailyAi_) September 25, 2024

Les petits modèles sont développés pour fonctionner sur , MediaTek et d’autres matériels Arm. D’ailleurs, Meta s’attend à ce qu’on les utilise sur mobile. Ces modèles légers peuvent être utilisés lors de la création des applications argentiques personnalisées dans un cadre privé.

Meta affirme que ce nouveau modèle est compétitif avec Claude 3 Haiku d’Anthropic et GPT4o-mini d’OpenAI en ce qui concerne la reconnaissance d’images. Il peut aussi rivaliser avec ces IA sur d’autres tâches de compréhension visuelle.

En parallèle, Llama 3.2 dépasse Gemma et Phi 3.5-mini dans certains domaines comme le suivi des instructions, le résumé, la réécriture des invites ou encore l’utilisation d’outils.

Pour accéder aux modèles Llama3.2, il faut les télécharger via llama.com et ou encore les plateformes associées de Meta. Notons également que malheureusement, ce modèle n’est pas encore disponible en Europe.

Cet article Meta lance Llama 3.2, sa 1ère IA multimodale… mais on a une mauvaise nouvelle a été publié sur LEBIGDATA.FR.

Meta a enfin son modèle d’IA multimodal, mais l’Europe en est privée

Meta a présenté ce 25 septembre une nouvelle mouture de son modèle de langage, LLaMA, qui dispose d'une nouvelle faculté : il est multimodal, ce qui lui permet de traiter des images, en plus du texte. L'outil apparait performant, mais il ne sera pas disponible pour l'heure dans l'Union européenne.

  • ✇Intelligence artificielle
  • Open WebUI – Une interface graphique pour Ollama
    Open WebUI débarque pour changer notre façon d’interagir avec Ollama grâce à une interface graphique intuitive et ergonomique ! Parce que l’IA, c’est cool, mais si c’est simple à utiliser, c’est encore mieux. Ollama pour rappel, c’est un outil qui permet de faire tourner des LLM en local et qui s’utilise soit via du code, soit directement en ligne de commande. Avec Open WebUI, vous allez enfin avoir une interface web personnalisable avec votre thème, sombre pour les hackers en herbe ou clai

Open WebUI – Une interface graphique pour Ollama

Par : Korben
11 mai 2024 à 20:06

Open WebUI débarque pour changer notre façon d’interagir avec Ollama grâce à une interface graphique intuitive et ergonomique ! Parce que l’IA, c’est cool, mais si c’est simple à utiliser, c’est encore mieux. Ollama pour rappel, c’est un outil qui permet de faire tourner des LLM en local et qui s’utilise soit via du code, soit directement en ligne de commande.

Avec Open WebUI, vous allez enfin avoir une interface web personnalisable avec votre thème, sombre pour les hackers en herbe ou clair pour les âmes sensibles, dans la langue de votre choix, de l’anglais au klingon en passant par le français, et vous pourrez ainsi causer avec Ollama comme si vous étiez sur ChatGPT. Avec le support de Markdown, de LaTeX et de la coloration syntaxique, vous pourrez même lui faire cracher du code et des formules mathématiques comme jamais.

Open WebUI permet même d’utiliser plusieurs modèles en parallèle, comparer leurs réponses, et même les faire discuter entre eux… Et si vous voulez de l’interaction plus poussée, lâchez-vous avec les fonctionnalités de Récupération Augmentée (RAG). Vous pourrez intégrer des documents externes dans vos conversations et même aller les chercher directement sur le web grâce à une fonction de navigation intégrée.

Avec l’outil de création de fichiers modèle (modelfiles), vous pouvez également définir des agents conversationnels sur mesure et les partager avec la communauté Open WebUI.

Bien sûr, comme tout bon logiciel qui se respecte, Open WebUI gère la reconnaissance vocale, la synthèse Text-to-Speech et même la génération d’images avec DALL-E et d’autres systèmes compatibles. Cadeau bonux, l’intégration avec les API compatibles OpenAI, pour encore plus de possibilités déjantées.

Pour plus d’informations sur ces fonctionnalités et comment les configurer, consultez la documentation officielle d’Open WebUI.

C’est open source, c’est puissant, c’est customisable à outrance alors que vous soyez un champion du dev ou comme moi, juste un curieux qui veut s’amuser avec l’IA, vous allez vous régaler.

Avant de vous lancer dans l’installation d’Open WebUI, assurez-vous d’avoir les prérequis suivants :

  • Docker installé sur votre machine
  • Une URL de base pour Ollama (OLLAMA_BASE_URL) correctement configurée

Pour configurer l’URL de base d’Ollama, vous pouvez soit la définir en tant que variable d’environnement, soit la spécifier dans un fichier de configuration dédié.

Une fois les prérequis remplis, vous pouvez procéder à l’installation d’Open WebUI en utilisant Docker :

docker run -d -p 3000:8080 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Cette commande va télécharger l’image Docker d’Open WebUI et lancer un conteneur accessible sur http://localhost:3000.

Amusez-vous bien et si vous voulez en savoir plus, toutes les infos sont ici.

  • ✇Intelligence artificielle
  • Ollama 0.133 – Enfin une gestion en parallèle des LLMs
    Vous avez vu la dernière version d’Ollama ? Cette version 0.133 a l’air plutôt pas mal. Bon, je sais, je sais, ça faisait un bail que je n’avais pas parlé des mises à jour de cet outil génial pour faire tourner des modèles d’IA en local, mais là, impossible de passer à côté ! Déjà, on a le droit à des fonctionnalités expérimentales de parallélisme (je sais pas si c’est comme ça qu’on dit en français…) qui vont vous permettre d’optimiser grave vos applis d’IA. Il y a donc 2 nouvelles variabl

Ollama 0.133 – Enfin une gestion en parallèle des LLMs

Par : Korben
6 mai 2024 à 12:06

Vous avez vu la dernière version d’Ollama ? Cette version 0.133 a l’air plutôt pas mal. Bon, je sais, je sais, ça faisait un bail que je n’avais pas parlé des mises à jour de cet outil génial pour faire tourner des modèles d’IA en local, mais là, impossible de passer à côté !

Déjà, on a le droit à des fonctionnalités expérimentales de parallélisme (je sais pas si c’est comme ça qu’on dit en français…) qui vont vous permettre d’optimiser grave vos applis d’IA. Il y a donc 2 nouvelles variables d’environnement qui débarquent : OLLAMA_NUM_PARALLEL et OLLAMA_MAX_LOADED_MODELS. Avec ça, vous allez pouvoir gérer plusieurs modèles et requêtes en même temps, comme des pros ! 😎

Par exemple, si vous avez un modèle pour compléter votre code avec une IA de 6 milliards de paramètres comme Llama 3, et en même temps vous demandez à Phi 3 Mini et ses 3,8 milliards de paramètres comment architecturer votre projet et bien maintenant, c’est possible ! Comme ça, plus besoin d’attendre que l’un ait fini pour lancer l’autre puisque tout ça va se lancer en parallèle.

Alors bien sûr, c’est encore expérimental car il n’y a pas encore de priorité, et on est limité par la mémoire dispo sur notre machine. D’ailleurs, il vaut mieux avoir 16 Go de RAM et un CPU 4 cœurs pour que ça fonctionne correctement.

Il y a aussi plein de nouveaux modèles d’IA compatibles avec Ollama maintenant. Des gros calibres comme Llama 3, le meilleur modèle open-source à ce jour, mais aussi des plus légers et spécialisés comme Phi 3 Mini, Moondream pour la vision par ordinateur sur des appareils à la marge, ou encore Dolphin Llama 3 qui répond sans censure. Et le premier modèle Qwen (c’est chinois) de plus de 100 milliards de paramètres, Qwen 110B, est également de la partie. Ça en fait des compagnons pour nous assister dans nos projets !

Ensuite, imaginons que vous vouliez tester le parallélisme. Vous devez simplement lancer votre serveur Ollama avec les fameuses variables d’environnement.

Voici comment procéder :

Définir les variables sur Mac :

  • Utilisez launchctl pour définir chaque variable. Par exemple, pour permettre à Ollama de gérer trois requêtes simultanément, tapez dans le terminal :
    launchctl setenv OLLAMA_NUM_PARALLEL 3
  • Pour définir le nombre maximal de modèles chargés simultanément à deux, utilisez :
    launchctl setenv OLLAMA_MAX_LOADED_MODELS 2
  • Après avoir défini les variables, redémarrez l’application Ollama.

Configurer les variables sur Linux :

    • Éditez le service systemd d’Ollama avec systemctl edit ollama.service, ce qui ouvrira un éditeur de texte.
    • Ajoutez les lignes suivantes sous la section [Service] :
      [Service] Environment="OLLAMA_NUM_PARALLEL=3" Environment="OLLAMA_MAX_LOADED_MODELS=2"
    • Sauvegardez et quittez l’éditeur. Rechargez systemd et redémarrez Ollama avec :
      systemctl daemon-reload systemctl restart ollama

    Paramétrer les variables sur Windows :

      • Quittez l’application Ollama via la barre des tâches.
      • Accédez aux variables d’environnement système via le panneau de configuration et créez ou modifiez les variables pour votre compte utilisateur :
        • Pour OLLAMA_NUM_PARALLEL, ajoutez ou modifiez la variable à 3.
        • Pour OLLAMA_MAX_LOADED_MODELS, ajustez la variable à 2.
      • Appliquez les changements et redémarrez Ollama à partir d’une nouvelle fenêtre de terminal.

      Là, ça veut dire que vous pourrez envoyer 3 requêtes en parallèle sur le même modèle, et charger jusqu’à 2 modèles différents si votre RAM de 16 Go minimum le permet.

      Bon, et une fois que c’est lancé, vous pourrez envoyer des requêtes à tour de bras. Un coup à Llama 3 pour qu’il vous aide à générer un résumé de texte hyper optimisé, un autre à Phi 3 Mini pour résumer un article scientifique, tout ça pendant que Moondream analyse une image pour de la détection d’objets.

      Allez, je vous laisse tranquille, faut que j’aille optimiser mes scripts maintenant.

      Ollama 0.133 est dispo ici.

      Source

      4 questions sur Albert, le chatbot 100 % souverain de la France

      cocorico coq

      « La France est le premier pays européen à inaugurer une IA 100 % souveraine et à la mettre au service de nos services publics », a fait savoir le Premier ministre Gabriel Attal le 23 avril. Cette IA, c'est Albert, un chatbot pour appuyer l'administration.

      Meta AI et Llama 3 : tout comprendre à la stratégie de Facebook et Instagram pour détrôner ChatGPT

      Meta AI, un chatbot uniquement disponible en anglais pour l'instant, devient encore plus performant grâce au nouveau modèle de langage Llama 3, dont les deux premières versions sont dévoilées aujourd'hui (avec 8 milliards ou 70 milliards de paramètres). L'objectif de Meta est de dépasser OpenAI et Google, grâce à ses 3 milliards d'utilisateurs dans le monde.

      • ✇Intelligence artificielle
      • Le support des cartes AMD débarque sur Ollama
        Bonne nouvelle, Ollama vient tout juste d’annoncer un truc qui devrait vous faire plaisir : le support des cartes graphiques AMD en preview ! Cela signifie que toutes les fonctionnalités d’Ollama peuvent maintenant être accélérées par les cartes graphiques AMD, que ce soit sur Linux ou Windows. Mais au fait, c’est quoi Ollama ? Pour les deux du fond qui suivent pas, je vous refais un topo vite fait. Ollama, c’est un outil hyper pratique qui permet de faire tourner des grands modèles de lang

      Le support des cartes AMD débarque sur Ollama

      Par : Korben
      15 mars 2024 à 22:38

      Bonne nouvelle, Ollama vient tout juste d’annoncer un truc qui devrait vous faire plaisir : le support des cartes graphiques AMD en preview ! Cela signifie que toutes les fonctionnalités d’Ollama peuvent maintenant être accélérées par les cartes graphiques AMD, que ce soit sur Linux ou Windows.

      Mais au fait, c’est quoi Ollama ? Pour les deux du fond qui suivent pas, je vous refais un topo vite fait. Ollama, c’est un outil hyper pratique qui permet de faire tourner des grands modèles de langage open-source directement sur votre machine locale. Genre Mistral, Llama 2 et toute la clique.

      Alors, quelles sont les cartes AMD compatibles ?

      Pas de panique, je vous ai préparé une petite liste bien détaillée. Dans la famille des Radeon RX, on retrouve les monstres comme les 7900 XTX, 7900 XT, 7800 XT, 6900 XT et compagnie. Pour les pros, la gamme Radeon PRO est aussi de la partie avec les W7900, W6800X Duo, Vega II… Bref, y a du beau monde au rendez-vous. Et si vous êtes un fan des cartes Instinct, pas de jaloux, les MI300X, MI250, MI100 et autres sont aussi supportées.

      Ollama promet également que d’autres modèles de cartes graphiques suivront. Alors on croise les doigts et on surveille les annonces comme le lait sur le feu. En attendant, si vous voulez vous lancer dans l’aventure Ollama avec votre carte AMD, c’est simple comme bonjour.

      Téléchargez Ollama pour Linux ou Windows, installez le bouzin et hop, vous voilà parés pour faire chauffer votre GPU AMD ! C’est pas beau la vie ? Je vous ai même fait un tutoriel ici !

      Allez, je vous laisse, j’ai un rendez-vous urgent avec mon Llama2 uncensored qui me fait de l’œil.

      Source

      • ✇Opinions Libres
      • How can AI, LLMs and quantum science empower each other?
        The field of generative artificial intelligence is currently dominated by the large language model chatbots like ChatGPT. This platform was first introduced to Internet users in late 2022 with its 3.5 version. Launched in spring 2023, the 4.0 version has since then attracted hundred million users. My initial engagement with ChatGPT 3.5 yielded underwhelming results. […]

      How can AI, LLMs and quantum science empower each other?

      26 janvier 2024 à 07:35
      The field of generative artificial intelligence is currently dominated by the large language model chatbots like ChatGPT. This platform was first introduced to Internet users in late 2022 with its 3.5 version. Launched in spring 2023, the 4.0 version has since then attracted hundred million users. My initial engagement with ChatGPT 3.5 yielded underwhelming results. […]
      ❌
      ❌