Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇LEBIGDATA.FR
  • Ami Labs : tout sur la startup à 3 milliards $ de Yann LeCun, pionnier français de l’IA
    Dans le monde de l’intelligence artificielle, il y a les suiveurs et il y a ceux qui dessinent la carte. Yann LeCun appartient définitivement à la seconde catégorie.  Alors que la planète entière a les yeux rivés sur ChatGPT et les modèles de langage (LLM). Yann LeCun français s’apprête à claquer la porte de Meta pour lancer sa propre révolution : AMI Labs. Évaluée avant même son lancement officiel à près de 3 milliards de dollars. Cette startup n’est pas qu’une simple entreprise de plus. C’e

Ami Labs : tout sur la startup à 3 milliards $ de Yann LeCun, pionnier français de l’IA

Par : Navalona R.
26 décembre 2025 à 13:57

Dans le monde de l’intelligence artificielle, il y a les suiveurs et il y a ceux qui dessinent la carte. Yann LeCun appartient définitivement à la seconde catégorie. 

Alors que la planète entière a les yeux rivés sur ChatGPT et les modèles de langage (LLM). Yann LeCun français s’apprête à claquer la porte de Meta pour lancer sa propre révolution : AMI Labs. Évaluée avant même son lancement officiel à près de 3 milliards de dollars. Cette startup n’est pas qu’une simple entreprise de plus. C’est une déclaration de guerre technologique contre les limites actuelles de l’IA.

Un divorce prévu avec Meta

L’annonce a fait l’effet d’une bombe dans la Silicon Valley. Yann LeCun, Prix Turing et architecte de la stratégie IA de Meta, quitte ses fonctions à la fin de l’année 2024. Mais il ne laisse pas son poste de responsable scientifique pour prendre sa retraite.

À 64 ans, il s’associe avec Alexandre Lebrun qui est l’actuel CEO de Nabla. Lebrun, qui a déjà vendu deux startups à des géants américains, quittera son rôle opérationnel pour devenir le CEO d’AMI Labs. De son côté, LeCun en sera l’âme scientifique.

Avec AMI Labs, Yann LeCun ne cherche pas à copier OpenAI ou Google. Il parie sur une rupture technologique majeure. Cette startup est sans doute le projet le plus ambitieux du paysage européen actuel.

Pourquoi 3 milliards de dollars pour le projet ?

AMI Labs chercherait à lever 500 millions d’euros sur la base d’une valorisation de 3 milliards de dollars. Pour une entreprise qui n’a pas encore de produit commercialisé, ce montant peut sembler irrationnel. Pourtant, pour les investisseurs, c’est le prix du génie et de la vision.

Selon Yann LeCun, l’IA actuelle est limitée par son manque de compréhension de la réalité physique. Elle ne comprend pas la gravité, les conséquences d’une action simple ou le temps qui passe. AMI Labs veut créer des systèmes capables d’apprendre à partir de vidéos et de données spatiales. L’objectif est qu’une machine puisse enfin comprendre le monde comme un enfant de 4 ans le fait.

Paris, nouveau centre du monde de l’IA

L’un des aspects les plus fascinants de ce projet est sa dimension géographique. Yann LeCun a été très clair : AMI Labs sera ancrée en Europe, et particulièrement à Paris. « La Silicon Valley est complètement hypnotisée par les modèles génératifs », a-t-il déclaré récemment. Pour lui, le futur de l’IA qui pilotera des robots intelligents ou des assistants médicaux ultra-précis doit se construire ailleurs. En choisissant Paris, LeCun confirme que la France est devenue le hub européen de l’IA. La ville se démarque par ses ingénieurs d’élite et son écosystème dynamique.

Des applications concrètes : de la tech à la santé

Si AMI Labs se concentre sur la recherche fondamentale, ses débouchés sont déjà tracés. Un partenariat stratégique a été annoncé avec Nabla, la startup de santé d’Alexandre Lebrun. L’objectif ? Utiliser l’IA d’AMI Labs pour créer des systèmes agentiques certifiables par les autorités de santé (FDA). Ceux-ci seront capables d’aider les médecins avec une fiabilité que les LLM actuels ne peuvent garantir.

Au-delà de la médecine, ce sont les domaines de la robotique et de l’industrie qui lorgnent sur ces travaux. Une IA qui comprend les lois de la physique pourrait enfin permettre l’émergence de robots domestiques ou industriels véritablement autonomes. L’IA de demain ne se contentera pas de parler, elle comprendra enfin le monde dans lequel nous vivons.

Cet article Ami Labs : tout sur la startup à 3 milliards $ de Yann LeCun, pionnier français de l’IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Un cube flottant dans les airs : l’incroyable projet IA de Yann LeCun après Meta
    Le nom de Yann LeCun circule partout depuis quelques jours. Et pour une fois, ce n’est pas pour parler de Llama ou du dernier débat technique sur X. Le chercheur à l’énergie infatigable prépare une sortie silencieuse, portée par un rêve très différent des ambitions actuelles de Meta.  Ce départ tient à une seule conviction : les grands modèles de langage ne mèneront pas à une intelligence proche de la nôtre. LeCun croit à une autre voie. Une voie centrée sur ce qu’il appelle les « modèles du

Un cube flottant dans les airs : l’incroyable projet IA de Yann LeCun après Meta

Par : Ny Ando A.
18 novembre 2025 à 14:23

Le nom de Yann LeCun circule partout depuis quelques jours. Et pour une fois, ce n’est pas pour parler de Llama ou du dernier débat technique sur X. Le chercheur à l’énergie infatigable prépare une sortie silencieuse, portée par un rêve très différent des ambitions actuelles de Meta. 

Ce départ tient à une seule conviction : les grands modèles de langage ne mèneront pas à une intelligence proche de la nôtre. LeCun croit à une autre voie. Une voie centrée sur ce qu’il appelle les « modèles du monde ».  Son idée centrale ? Un cube flottant 

Yann LeCun et Meta

Les discussions autour du départ de LeCun n’étonnent pas ceux qui suivent ses prises de position. Cela fait des années qu’il affirme que les modèles textuels montrent leurs limites

Pour lui, un système qui lit des milliards de phrases ne possède pas l’expérience sensorielle d’un enfant. Les déclarations du scientifique ont pris un ton plus tranchant ces derniers mois, au point de créer un fossé avec l’approche interne de Meta.

La situation a évolué à partir de l’arrivée de nouveaux responsables IA chez Meta. Alexandr Wang a pris la direction stratégique à seulement 28 ans. Son enthousiasme total pour les LLM a créé une hiérarchie inattendue.

LeCun s’est retrouvé sous la supervision directe d’un partisan opposé à sa vision. Cette configuration a renforcé la distance entre les ambitions de Meta et celles du chercheur.

Un autre élément a nourri le malaise : le recrutement de Shengjia Zhao. Meta a présenté son arrivée comme une percée sur les modèles à grande échelle. Pour LeCun, cette surenchère autour du gigantisme informatique n’apporte aucune réponse aux limites profondes des LLM. Il répète depuis des mois que le passage à l’échelle est une impasse théorique et pratique.

La structure interne de Meta a aggravé le flou. Le département IA fonctionne comme un puzzle mal assemblé, avec plusieurs groupes et titres qui se superposent. Les licenciements massifs du mois dernier ont confirmé que la maison était en plein rééquilibrage. Cette période a renforcé la volonté de LeCun de tourner la page.

C’est quoi cette histoire de cube flottant ? 

Amazing how the Ray-Ban Meta glasses can help the visually impaired. https://t.co/w3ZxCFtTlE

— Yann LeCun (@ylecun) September 30, 2024

LeCun utilise depuis longtemps une expérience mentale simple pour illustrer sa vision. Il demande à chacun d’imaginer un cube en suspension. Puis de lui donner une rotation. Cette scène se forme sans effort dans notre esprit. Un LLM, lui, ne possède aucune représentation interne permettant de manipuler cet objet dans un espace cohérent.

Ce constat mène à une idée centrale : l’intelligence passe par une compréhension physique du monde, pas seulement par l’étude du langage. Selon LeCun, un chat domestique possède une vue plus fine de son environnement qu’un LLM entraîné sur des milliards de mots. Le chat manipule des objets, prévoit des trajectoires et anticipe des effets. Un modèle textuel ne peut que deviner des corrélations.

Dans son discours à Paris en février, LeCun a détaillé sa vision. Pour lui, un modèle du monde doit intégrer une représentation interne de l’état actuel d’une scène. Cette dernière doit permettre de prédire l’état suivant après une série d’actions. On s’éloigne des chaînes de tokens, au profit d’un raisonnement lié aux transformations du réel.

Cette approche demande des volumes de données sensorimotrices que les LLM ne possèdent pas. Un enfant de quatre ans a déjà assimilé une quantité gigantesque d’images, d’odeurs, de contacts, de sons. Ces données valent bien plus que les années de lecture condensée dans l’entraînement d’un modèle textuel. LeCun en conclut que les LLM ne peuvent pas atteindre une intelligence cohérente.

La démonstration du cube rotatif n’est pas un simple clin d’œil. C’est le symbole d’une IA qui apprendrait comme un être vivant : en interagissant avec le monde, pas en avalant du texte.

Donc maintenant, il va créer une IA qui pense le monde ? 

Selon de nombreuses sources, LeCun prépare une start-up centrée sur ces modèles du monde. Rien d’officiel. Mais tout indique un départ orienté vers un projet très personnel. Le chercheur a déjà travaillé sur plusieurs prototypes chez Meta, dont une présentation vidéo construite autour du fameux cube.

Dans sa vision, une IA du futur doit analyser un état présent, chercher un état possible et déterminer un chemin efficace pour y arriver. Cela rappelle les méthodes classiques d’optimisation, sauf que la machine devra manipuler des représentations abstraites de scènes entières. LeCun parle d’une fonction d’énergie mesurant la cohérence entre deux états du monde.

Selon lui, une telle IA serait plus fiable, car ses mécanismes internes seraient transparents. Les systèmes actuels produisent du texte sans exposition de leur raisonnement. Le modèle du monde pourrait inclure des contrôles intégrés dès sa conception. Une structure plus explicite permettrait de réduire les comportements décalés.

LeCun ne promet rien. Les défis sont gigantesques. Construire un modèle du monde demande des moyens financiers vertigineux et des années de recherche. Même ainsi, rien n’assure un résultat concret. Pourtant, plusieurs chercheurs pensent que cette piste pourrait ouvrir une nouvelle génération d’interactions entre humains et machines.

Cet article Un cube flottant dans les airs : l’incroyable projet IA de Yann LeCun après Meta a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ce pionnier français de l’IA prédit une nouvelle révolution pour 2030
    L’intelligence artificielle va connaître une nouvelle révolution d’ici 2030, et acquérir la capacité à comprendre et interagir avec le monde physique. Ceci permettra l’émergence des robots humanoïdes et des voitures autonomes. C’est ce qu’affirme Yann LeCun, scientifique en chef chez Meta ! Si vous êtes déjà impressionné par l’intelligence artificielle, vous n’avez encore rien vu ! Selon l’un des pionniers du secteur, une nouvelle révolution va avoir lieu d’ici la fin de la décennie. C’est

Ce pionnier français de l’IA prédit une nouvelle révolution pour 2030

Par : Bastien L.
5 février 2025 à 16:15

L’intelligence artificielle va connaître une nouvelle révolution d’ici 2030, et acquérir la capacité à comprendre et interagir avec le monde physique. Ceci permettra l’émergence des robots humanoïdes et des voitures autonomes. C’est ce qu’affirme , scientifique en chef chez !

Si vous êtes déjà impressionné par l’intelligence artificielle, vous n’avez encore rien vu ! Selon l’un des pionniers du secteur, une nouvelle révolution va avoir lieu d’ici la fin de la décennie.

C’est ce qu’affirme Yann LeCun, scientifique IA en chef chez Meta. C’est lors de la cérémonie du prix d’ingénierie Queen Elizabeth qu’il a pris la parole.

Dans le cadre de cet événement, lui et six autres ingénieurs ont reçu 500 000 £ pour leurs contributions au Machine Learning : pierre angulaire de l’IA moderne.

Il estime que de nouvelles avancées sont nécessaires pour permettre à l’intelligence artificielle artificielle de comprendre et d’interagir avec le monde physique.

L’IA doit comprendre le monde physique pour continuer d’évoluer

Incredibly honored to receive the Queen Elizabeth Prize for Engineering.

I share the prize with Yoshua Bengio, Geoffrey Hinton, John Hopfield (Foundations), Bill Dally, Jensen Huang (Hardware), and Fei-Fei Li (Datasets). pic.twitter.com/wVjBlYRu2J

— Yann LeCun’s Social Media Collection (@YannLecunAI) February 5, 2025

Même si les récents outils comme ChatGPT sont porteurs de nombreuses promesses, les systèmes existants sont trop limités pour créer des robots domestiques ou des voitures véritablement autonomes.

Ces IA excellent pour « manipuler le langage », mais doivent comprendre le monde physique pour pouvoir rivaliser avec l’intelligence humaine ou même avec l’intelligence animale.

Ainsi, selon LeCun, « il y a encore beaucoup de défis scientifiques et technologiques à l’horizon, et il est très probable qu’il y ait encore une révolution IA dans les trois à cinq prochaines années à cause des limites des systèmes actuels ».

Il considère que « si nous voulons construire des choses comme les robots domestiques et les voitures autonomes, nous avons besoin que les systèmes comprennent le monde réel ».

L’expert de Meta révèle travailler lui-même sur des systèmes visant à comprendre la réalité physique en formant un modèle pouvant prédire la façon dont le monde se comporte.

Yann Lecun says within the next 3-5 years we will see the emergence of a new paradigm of AI architectures that don't have the limitations of current systems, leading to a revolution in AI capabilities pic.twitter.com/AmIEStxOMj

— Tsarathustra (@tsarnick) January 25, 2025

Un autre expert alerte sur les graves dangers de l’IA

Toutefois, son ambition actuelle n’est pas d’égaler le niveau d’intelligence des humains. Il estime que « si nous pouvons avoir un système aussi intelligent qu’un chat ou un rat, ça serait déjà une victoire ».

Cependant, tout le monde ne partage pas son enthousiasme optimiste. Un autre précurseur de l’IA et gagnant du QEPrize, Yoshua Bengio, avertit une fois de plus sur les dangers de cette technologie à la veille de l’AI Summit qui se tiendra à Paris la semaine prochaine.

Il aimerait « voir les dirigeants de ce monde mieux comprendre l’ampleur de ce que nous faisons, à la fois concernant la puissance de ce que nous créons, qui pourrait être utilisée pour le bien ou être dangereuse, et concernant les risques accompagnant cette puissance »…

QEPrize : un prix décerné aux ingénieurs qui changent le monde

Pour rappel, en 2018, Bengio, LeCun et Geoffrey Hinton (également vainqueur du QEPrize) ont tous les trois gagné le Turing award. Il s’agit de l’équivalent du prix Nobel pour l’informatique.

En 2024, Hinton a gagné le prix Nobel de physique tandis que les scientifiques de Google DeepMind ont remporté le prix Nobel de chimie.

Parmi les autres gagnants du QUEPrize 2025, on compte la scientifique sino-américaine Fei-Fei Li qui a créé le dataset ImageNet, ou encore , le CEO de .

Selon Patrick Vallance, directeur de la fondation QEPrize et ministre de la Science au Royaume-Uni, l’impact du Machine Learning se ressent dans toutes les industries, les économies, et l’ensemble de la planète.

La cérémonie annuelle vise à « reconnaître les ingénieurs dont les innovations ont un impact significatif sur des milliards de vies autour du monde ».

Ces scientifiques éminents sont donc les plus aptes à anticiper le potentiel et les dangers de l’IA, mais ne sont pas suffisamment écoutés par les gouvernements

Et vous, qu’en pensez-vous ? L’IA va-t-elle vraiment faire un bond en avant d’ici 2030 ? Allons nous côtoyer des robots au quotidien ? Partagez votre avis en commentaire !

Cet article Ce pionnier français de l’IA prédit une nouvelle révolution pour 2030 a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • « C’est terrifiant » : ce chercheur fuit OpenAI, et révèle ce qu’il a vu au monde entier
    Un ancien chercheur en sécurité d’OpenAI dévoile ses grandes inquiétudes face au développement effréné de l’intelligence artificielle. Selon lui, cette technologie est tout simplement « terrifiante »… En règle générale, quand un expert responsable de la sécurité décide d’abandonner sa mission, c’est le moment de commencer à s’inquiéter… C’est exactement ce qui s’est passé dans le domaine de l’IA. Anciennement chercheur en sécurité chez OpenAI, Steven Adler explique être « assez terrifié »

« C’est terrifiant » : ce chercheur fuit OpenAI, et révèle ce qu’il a vu au monde entier

Par : Bastien L.
29 janvier 2025 à 13:00

Un ancien chercheur en sécurité d’ dévoile ses grandes inquiétudes face au développement effréné de l’intelligence artificielle. Selon lui, cette technologie est tout simplement « terrifiante »…

En règle générale, quand un expert responsable de la sécurité décide d’abandonner sa mission, c’est le moment de commencer à s’inquiéter

C’est exactement ce qui s’est passé dans le domaine de l’IA. Anciennement chercheur en sécurité chez OpenAI, Steven Adler explique être « assez terrifié » par la vitesse de développement de l’intelligence artificielle.

Après avoir quitté son poste en novembre 2024, il tire aujourd’hui la sonnette d’alarme. Selon lui, l’industrie fait « un pari très risqué » sur cette technologie.

Honestly I'm pretty terrified by the pace of AI development these days. When I think about where I'll raise a future family, or how much to save for retirement, I can't help but wonder: Will humanity even make it to that point?

— Steven Adler (@sjgadler) January 27, 2025

D’après son profil , Adler a mené les recherches liées à la sécurité lors des premiers lancements de produit et pour des systèmes à plus long terme durant ses quatre ans de carrière chez OpenAI.

À travers une série de tweets publiés sur X, il reconnaît avoir fait « une course folle » au sein de l’entreprise américaine et que de « nombreuses parties » vont lui manquer.

Néanmoins, il estime que l’IA se développe si vite qu’elle soulève des doutes sur le futur de l’humanité. « Je suis assez terrifié par le rythme de développement de l’IA ces jours-ci », explique-t-il.

Ainsi, « quand je pense à où je vais fonder une famille, à la façon d’économiser pour la retraite, je ne peux pas m’empêcher de me demander si l’humanité va même arriver jusqu’à ce point »…

La course à l’AGI va nous mener à notre perte

C’est tout particulièrement l’intelligence artificielle générale, ou AGI, qui inquiète Adler. Pour rappel, ce terme désigne une IA capable d’égaler ou de surpasser l’humain sur n’importe quelle tâche intellectuelle.

Selon Adler, « une course à l’AGI est un pari très risqué, avec de gros inconvénients ». Pour cause, aucun laboratoire de recherche n’a de solution pour l’alignement de l’IA.

Il s’agit du processus permettant de s’assurer que les systèmes adhèrent à un ensemble de valeurs humaines. Or, l’industrie évolue trop rapidement pour trouver une telle solution !

Les plus grands experts en IA craignent qu’elle détruise le monde

Pour rappel, de nombreux experts redoutent que l’IA devienne si puissante qu’elle échappe au contrôle humain et entraîne des conséquences catastrophiques.

C’est le cas de Geoffrey Hinton, pionnier du Deep Learning et gagnant du Prix Nobel, convaincu qu’il y a 10 à 20% de chances que l’IA éradique l’humanité

Néanmoins, d’autres cherchent à relativiser cette menace. C’est le cas de , scientifique en chef chez , persuadé que l’IA pourrait au contraire « sauver l’humanité de l’extinction ».

Cependant, alors qu’OpenAI vient de se faire dépasser par la startup chinoise DeepSeek, la balance tend à pencher du côté du pessimisme.

Today, it seems like we're stuck in a really bad equilibrium. Even if a lab truly wants to develop AGI responsibly, others can still cut corners to catch up, maybe disastrously. And this pushes all to speed up. I hope labs can be candid about real safety regs needed to stop this.

— Steven Adler (@sjgadler) January 27, 2025

Il est très peu probable que cette startup se préoccupe de la sécurité, et on peut s’attendre à ce que d’autres entreprises du même acabit émergent dans les années à venir…

Toutefois, je pense personnellement que l’évolution technologique doit suivre son cours. L’humanité devra s’adapter aux grands bouleversements qu’elle engendre, comme elle l’a fait à chaque invention révolutionnaire !

Et vous, quel est votre avis ? Pensez-vous qu’il faille ralentir le développement de l’AGI ? Les craintes d’Adler sont-elles légitimes ? Partagez votre opinion en commentaire !

Cet article « C’est terrifiant » : ce chercheur fuit OpenAI, et révèle ce qu’il a vu au monde entier a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • DeepSeek, l’IA chinoise gratuite qui détruit ChatGPT et terrifie les USA ! Tout savoir
    La startup chinoise DeepSeek va-t-elle renverser les géants américains et prendre la couronne de l’industrie de l’IA ? En quelques jours, cette petite entreprise a remis en doute toutes les certitudes du secteur en surpassant ChatGPT avec son chatbot R1 plus performant et beaucoup moins cher. Découvrez tout ce qu’il faut savoir sur le nouveau phénomène de l’intelligence artificielle ! Depuis 2022, l’ordre est bien établi dans l’industrie de l’IA. Le marché des modèles IA est dominé par OpenAI

DeepSeek, l’IA chinoise gratuite qui détruit ChatGPT et terrifie les USA ! Tout savoir

Par : Bastien L.
28 janvier 2025 à 19:32

La startup chinoise DeepSeek va-t-elle renverser les géants américains et prendre la couronne de l’industrie de l’IA ? En quelques jours, cette petite entreprise a remis en doute toutes les certitudes du secteur en surpassant ChatGPT avec son chatbot R1 plus performant et beaucoup moins cher. Découvrez tout ce qu’il faut savoir sur le nouveau phénomène de l’intelligence artificielle !

Depuis 2022, l’ordre est bien établi dans l’industrie de l’IA. Le marché des modèles IA est dominé par , tandis que règne en maître sur le hardware.

Les États-Unis ont donc la mainmise sur l’intelligence artificielle, et Trump vient d’ailleurs d’annoncer le projet Stargate avec un investissement à hauteur de 500 milliards de dollars pour créer l’IA ultime qui va changer le monde.

L’avenir semblait donc radieux et tout tracé pour l’Oncle Sam. Toutefois, cette hégémonie est désormais mise en péril

En moins d’une semaine, une startup chinoise est parvenue à chambouler totalement l’équilibre au sein de l’écosystème IA.

Cette petite entreprise, dénommée DeepSeek, a lancé la dernière version de son chatbot R1 au cours de la semaine du 20 janvier 2025.

Or, son IA surpasse même la version la plus récente de ChatGPT… alors même qu’elle a créé son modèle en seulement quelques mois, avec du hardware inférieur, et à un coût incroyablement réduit.

Face au succès tonitruant de DeepSeek R1, toute l’industrie américaine de l’IA tremble de peur. Les actions en bourse de la Silicon Valley ont lourdement baissé, et ont même entraîné les crypto dans leur chute !

Avec DeepSeek, c’est une brèche qui vient de s’ouvrir et qui pourrait transformer totalement le paysage de l’IA. Nous vous proposons donc un dossier pour découvrir tout ce qu’il faut savoir sur cette startup qui fait paniquer les géants…

DeepSeek, c’est quoi au juste ?

Fondé en 2023, DeepSeek est un laboratoire d’intelligence artificielle basé à Hangzhou dans la province chinoise du Zhejiang.

Son modèle IA -Source est dénommé DeepSeek R1. La dernière version en date, DeepSeek-V3, rivalise avec ChatGPT et le surpasse même sur de nombreux cas d’usage.

Même les derniers modèles d’OpenAI comme -4o et l’IA capable de raisonner o1 ne font pas le poids. D’ailleurs, DeepSeek-V3 dépasse aussi 3.1 ou Anthropic Claude Sonnet 3.5.

Cependant, ce ne sont pas seulement ses performances qui surprennent tous les experts américains. Le plus choquant est que DeepSeek n’a eu besoin que de quelques mois pour créer sa V3, avec du hardware ancien et pour une fraction de ce que les géants des États-Unis ont dépensé pour développer leurs chatbots…

Une IA surpuissante, 20 fois moins chère que ChatGPT

Selon le rapport technique de DeepSeek sur sa V3, le coût total de développement du modèle est de 5,576 millions de dollars. En comparaison, OpenAI a dépensé 100 millions de dollars pour entraîner GPT-4 !

Ceci soulève de nombreuses questions pour les géants américains, qui ont déjà déversé des milliards de dollars dans les différentes versions de leurs modèles IA LLM.

Ils réalisent qu’ils ont gaspillé leur argent inutilement. En ce qui concerne l’exécution de tâches, DeepSeek coûte entre 20 et 50 fois moins cher que ChatGPT !

D’ailleurs, ce coût très élevé de recherche et développement est précisément la raison pour laquelle la plupart des LLM ne sont pas rentables à l’heure actuelle pour les entreprises impliquées.

En ayant réussi à créer un LLM supérieur pour moins de 6 millions de dollars, DeepSeek se présente aussi comme un très dangereux concurrent et ouvre une porte à bien d’autres entreprises.

Lorsque l’on pensait que des milliards de dollars étaient nécessaires pour créer une IA, seuls les géants comme Meta, ou OpenAI pouvaient espérer s’aventurer dans ce domaine.

Désormais, de nombreuses startups et entreprises de moindre envergure venues du monde entier vont pouvoir créer leurs propres IA pour défier directement les GAFAM…

Un véritable coup de théâtre dans la guerre de l’IA

Si la concurrence fait rage entre les géants américains, personne n’a vu venir la menace d’une petite startup chinoise.

C’est d’autant plus inattendu que l’administration Biden avait mis en place un certain nombre de contrôles des exports de technologies IA pour handicaper la Chine dans cette course.

Les entreprises américaines n’avaient pas le droit de vendre leurs puces IA les plus avancées et leur hardware de dernière génération aux entreprises chinoises.

Ainsi, même sans avoir eu accès aux meilleures puces NVIDIA, DeepSeek a réussi à créer une IA supérieure à ChatGPT en utilisant des puces NVIDIA H800 de milieu de gamme. De plus, son LLM consomme moins d’énergie et est donc moins nocif pour l’environnement…

Le CEO de Perplexity, Aravind Srinivas, a confié à CNBC que « la nécessité est la mère de l’invention. Parce qu’ils devaient trouver des solutions alternatives, ils ont créé quelque chose de beaucoup plus efficace ».

Toutefois, selon certaines sources, DeepSeek se serait procuré clandestinement un cluster de NVIDIA H100 dernier cri pour contourner les restrictions…

Les géants américains sont en état de choc

Face au succès foudroyant de DeepSeek, les géants américains de l’IA sont abasourdis. Tous craignent désormais de se faire détrôner par des startups comme DeepSeek.

Lors du Forum Economic Mondial de Davos, le CEO de Microsoft, Satya Nadella, a déclaré que « le nouveau modèle de DeepSeek est très impressionnant à la fois parce qu’il s’agit d’un modèle open source et parce qu’il est très efficace ».

Il ajoute que « nous devons prendre les développements provenant de Chine très, très sérieusement ». Rappelons que Microsoft a investi des milliards de dollars dans OpenAI.

Le CEO d’OpenAI, , a lui-même admis lundi 27 janvier 2025 que DeepSeek R1 est « impressionnant ». Il reste toutefois convaincu que la puissance de calcul demeure la clé du succès et du progrès dans l’IA.

deepseek's r1 is an impressive model, particularly around what they're able to deliver for the price.

we will obviously deliver much better models and also it's legit invigorating to have a new competitor! we will pull up some releases.

— Sam Altman (@sama) January 28, 2025

De son côté, Yann LeCun, scientifique en chef de Meta, fait plutôt l’éloge de l’ouverture. Il a déclaré sur Threads que le succès de DeepSeek montre que « les modèles Open Source sont en train de surpasser les modèles propriétaires ».

View on Threads

Selon lui, « DeepSeek a profité de la recherche ouverte et de l’Open Source, notamment PyTorch et Llama de Meta. Ils sont venus avec de nouvelles idées et les ont construits par-dessus le travail d’autres personnes ».

Ainsi, « puisque leur travail est publié et Open Source, tout le monde peut en profiter. C’est la puissance de la recherche ouverte et de l’Open Source ».

Même le président des États-Unis, Donald Trump, a réagi au triomphe de DeepSeek le 27 janvier 2025. Il s’est exprimé lors d’un discours auprès des Républicains en Floride.

Selon lui, ce succès doit faire l’effet d’un « réveil » pour les entreprises américaines du secteur. Il estime qu’elles doivent être « focalisées sur la compétition pour gagner ».

Vent de panique à Wall Street et dans la crypto

Ce renversement de vapeur dans l’industrie de l’IA fait d’ores et déjà des remous à la bourse. À l’heure où j’écris ces lignes, plusieurs grandes actions liées à l’intelligence artificielle sont en baisse.

Le grand leader du hardware IA, NVIDIA, a notamment vu son cours diminuer de 10%. Pour rappel, le constructeur de cartes graphiques est devenu l’entreprise la plus capitalisée du monde grâce à l’achat massif de ses puces IA par les laboratoires IA.

Cependant, si les entreprises peuvent maintenant créer des modèles IA supérieurs à ChatGPT avec des puces inférieures, sa valeur est fortement remise en question

L’entreprise ASML Holding N.V., qui fabrique les équipements nécessaires à la production de puces IA, voit aussi son action baisser de 9%. De son côté, Microsoft perd aussi 6%.

Il en va de même pour le fabricant japonais d’équipements de de puces Advantest, fournisseur de Nvidia, qui perd 10%, ou pour l’investisseur SoftBank Group en baisse de 6%.

Et selon Ash Crypto, célèbre investisseur en cryptomonnaies, la récente baisse du Bitcoin et de nombreux autres actifs est également liée à cette soudaine incertitude !

Les actions des acteurs américains de l’IA vont-elles remonter après une baisse passagère, ou cette chute va-t-elle perdurer ? Nul ne peut vraiment le prédire à l’heure actuelle…

Comment utiliser DeepSeek V3 ? Une IA déjà victime de son succès…

En tant que modèle Open-Source, DeepSeek peut être utilisé gratuitement par n’importe qui. En comparaison, la version la plus avancée de ChatGPT coûte 200 dollars par mois

Pour commencer à tester cette IA, vous pouvez vous rendre sur le site web en suivant ce lien. Il est aussi possible de télécharger l’application DeepSeek sur iOS ou Android !

En quelques jours, cette appli est d’ailleurs devenue numéro 1 des applis gratuites sur l’App Store d’.

Néanmoins, DeepSeek est désormais victime de son succès ! Le trafic était si chargé que la startup a dû limiter les inscriptions aux personnes ayant un numéro de téléphone chinois. On ignore quand le service sera de nouveau ouvert au monde entier…

De plus, elle affirme avoir subi des cyberattaques à grande échelle. S’agit-il de concurrents jaloux souhaitant lui nuire ?

Et vous, que pensez-vous de DeepSeek ? Cette IA chinoise peut-elle vraiment prendre la place d’OpenAI en tant que leader mondial ? S’agit-il d’une simple hype passagère ? Comment les géants américains peuvent-ils reprendre le dessus, et surtout, quelle place pour la France et l’Europe sur cet échiquier ? Partagez votre avis en commentaire !

Cet article DeepSeek, l’IA chinoise gratuite qui détruit ChatGPT et terrifie les USA ! Tout savoir a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • L’humanité éradiquée dans moins de 30 ans : l’horrible prédiction du pionnier de l’IA
    Selon Geoffrey Hinton, l’intelligence artificielle pourrait détruire l’humanité d’ici seulement trois décennies. Il explique que cette technologie évolue beaucoup plus vite que prévu, et craint qu’elle échappe totalement à notre contrôle… L’heure est grave. Si Geoffrey Hinton a déjà averti que l’IA risque de nous anéantir, il estime désormais que cela pourrait survenir plus tôt que prévu. Selon lui, la technologie évolue à un rythme « beaucoup plus rapide » qu’attendu et pourrait éradiquer l’

L’humanité éradiquée dans moins de 30 ans : l’horrible prédiction du pionnier de l’IA

Par : Bastien L.
30 décembre 2024 à 15:11

Selon Geoffrey Hinton, l’intelligence artificielle pourrait détruire l’humanité d’ici seulement trois décennies. Il explique que cette technologie évolue beaucoup plus vite que prévu, et craint qu’elle échappe totalement à notre contrôle…

L’heure est grave. Si Geoffrey Hinton a déjà averti que l’IA risque de nous anéantir, il estime désormais que cela pourrait survenir plus tôt que prévu. Selon lui, la technologie évolue à un rythme « beaucoup plus rapide » qu’attendu et pourrait éradiquer l’humanité dans moins de 30 ans !

Ce scientifique anglo-canadien, souvent considéré comme le « parrain » de l’intelligence artificielle, a notamment gagné le prix Nobel de physique en octobre 2024 pour ses travaux dans l’intelligence artificielle. Il ne s’agit donc pas de n’importe qui

D’après ses prédictions mises à jour, il y a « 10% à 20% » de chances que l’IA mène à l’extinction de l’humain dans les trois prochaines décennies.

Auparavant, il estimait qu’il y avait 10% de chances que la technologie provoque une catastrophe fatale pour l’humanité.

C’est lors d’une interview pour BBC Radio 4 qu’il a été interrogé, afin de savoir s’il avait changé d’avis sur le risque d’une apocalypse IA. Il a répondu que non, en confirmant qu’il y a bien une chance sur dix voire une chance sur cinq qu’elle survienne.

Face à l’IA, nous serons comme des enfants de 3 ans face à un adulte

Surpris, l’un des invités de l’émission, l’ancien chancelier Sajid Javid, s’est exclamé « vous montez ». Ce à quoi Hinton a rétorqué que « nous n’avons jamais été confrontés à une chose plus intelligente que nous-mêmes auparavant ».

Il a également ajouté « combien d’exemples connaissez-vous d’une chose plus intelligente contrôlée par une chose moins intelligente ? ». Comme il le souligne, il y a très peu d’exemples hormis celui d’une mère et de son bébé.

Selon lui, « l’évolution fait beaucoup d’efforts pour permettre au bébé de contrôler la mère, mais c’est à peu près le seul exemple que je connaisse ».

Ainsi, dans quelques années, les humains seront comme des bambins en comparaison avec l’intelligence des systèmes IA les plus puissants : « imaginez-vous et un enfant de trois ans. Nous serons les enfants de trois ans ».

La technologie évolue beaucoup plus vite que prévu

En 2023, Hinton a fait couler beaucoup d’encre en démissionnant de son emploi chez Google. Le but ? Parler plus ouvertement des risques posés par le développement effréné de l’IA.

Il a notamment évoqué ses inquiétudes concernant des « acteurs malveillants » qui pourraient utiliser la technologie pour blesser les autres.

L’une de ses craintes principales est que la création d’une IA générale (AGI), à savoir une IA plus intelligente que les humains, puisse échapper au contrôle humain et causer une menace existentielle.

Pensait-il que l’IA atteindrait un jour ce stade lorsqu’il a commencé à travailler dessus ? Lorsqu’on lui pose la question, il répond que « je ne pensais pas qu’elle serait là où nous en sommes à présent ».

Néanmoins, « je pensais qu’à un certain point du futur nous en arriverions là ». Il précise que « en se basant sur la situation où nous sommes maintenant, la plupart des experts pensent que dans 20 ans, nous allons développer des IA plus intelligentes que les gens ».

« Et c’est une pensée très effrayante » selon ses dires. La technologie se développe « beaucoup, beaucoup plus rapidement que je l’attendais ».

La main invisible pourra-t-elle nous protéger ?

https://twitter.com/MarioNawfal/status/1873566968588149054

Il appelle donc les gouvernements à réguler l’intelligence artificielle de toute urgence. Sa peur est que « la main invisible ne nous mette pas en sécurité ».

En laissant la quête du profit des grandes entreprises servir de moteur au développement de l’IA, rien ne garantit qu’il se fera en sécurité. À ses yeux, la seule chose qui peut forcer ces entreprises à faire davantage de recherches sur la sécurité est une régulation

Pour finir sur une note optimiste, notons toutefois que Geoffrey Hinton est l’un des trois parrains de l’IA ayant gagné l’award ACM AM Turing.

Un autre membre du trio, , scientifique IA en chef de , estime que l’IA ne menace pas non existences et pourrait au contraire « sauver l’humanité de l’extinction ».

Je pense personnellement que l’IA pourrait effectivement devenir trop intelligente pour que nous la contrôlions, mais j’aime à penser qu’elle choisira de nous aider à rendre le monde meilleur plutôt que de nous détruire…

Et vous, qu’en pensez-vous ? Les avertissements de Geoffrey Hinton sont-ils à prendre au sérieux ? Comment empêcher une telle catastrophe de survenir ? Partagez votre avis en commentaire !

Cet article L’humanité éradiquée dans moins de 30 ans : l’horrible prédiction du pionnier de l’IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • La menace d’une IA superpuissante ? Rien à craindre pour l’instant, selon Yann LeCun
    Un chercheur principal chez Meta et expert en intelligence artificielle rejette les craintes d’une IA super-intelligente capable de menacer l’humanité. Selon lui, ces préoccupations sont infondées, car les systèmes actuels n’atteignent même pas le niveau d’intelligence d’un chat domestique. Le débat autour des risques liés à l’intelligence artificielle (IA) suscite de vives inquiétudes, mais Yann LeCun, chercheur en chef chez Meta et professeur à l’Université de New York, se montre scep

La menace d’une IA superpuissante ? Rien à craindre pour l’instant, selon Yann LeCun

Par : Harimaholy
15 octobre 2024 à 18:30

Un chercheur principal chez et expert en intelligence artificielle rejette les craintes d’une IA super-intelligente capable de menacer l’humanité. Selon lui, ces préoccupations sont infondées, car les systèmes actuels n’atteignent même pas le niveau d’intelligence d’un chat domestique.

Le débat autour des risques liés à l’intelligence artificielle (IA) suscite de vives inquiétudes, mais , chercheur en chef chez Meta et professeur à l’Université de New York, se montre sceptique face à ces craintes. Dans une récente interview, il a qualifié les préoccupations liées à une IA super-intelligente de « complètement absurdes ». Lauréat du prix AM Turing, LeCun estime que l’idée d’une IA constituant une menace imminente est largement exagérée.

L’IA actuelle n’a pas de compétences clés

Lors de son entretien avec le Wall Street Journal, LeCun a mis en avant les limites des modèles de langage actuels, en insistant sur leur incapacité à acquérir des compétences essentielles comme la mémoire persistante ou le raisonnement. Il a également expliqué que ces modèles ne comprennent ni n’interagissent avec le monde physique. « Ils manipulent simplement le langage sans posséder une véritable intelligence », a-t-il déclaré.

Malgré ses critiques, Yann LeCun ne rejette pas complètement l’idée d’une intelligence artificielle générale (AGI). Il admet cependant que les approches actuelles restent insuffisantes. Atteindre une IA capable de penser et d’agir de manière autonome nécessitera des avancées significatives, notamment dans des domaines encore inexplorés. Il cite par ailleurs les travaux de son équipe chez Meta, qui analysent des vidéos du monde réel afin de perfectionner la compréhension des systèmes d’IA.

Meta intelligence artificielle
Menace IA
Intelligence artificielle générale

Le débat sur l’avenir de l’IA reste ouvert

Les déclarations de LeCun relancent le débat sur le véritable potentiel de l’IA. D’un côté, certains mettent en avant la menace d’une IA super-intelligente hors de contrôle. De l’autre, des experts jugent que ces craintes sont prématurées et disproportionnées.

En exprimant son point de vue de manière si tranchée, Yann LeCun incite la communauté scientifique à relativiser ces craintes exagérées. Pour ma part, je pense qu’il est important de garder une attitude prudente face à l’évolution rapide de l’IA. Tout en évitant la panique, il est essentiel de rester vigilant et d’anticiper les défis éthiques et sociaux que cette technologie pourrait poser.

Cet article La menace d’une IA superpuissante ? Rien à craindre pour l’instant, selon Yann LeCun a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • « Nous avons perdu le contrôle » : les pères de l’IA se réunissent en urgence
    C’est la panique ! Un groupe de spécialistes, composé des deux pères fondateurs de l’intelligence artificielle, ont eu une réunion d’urgence pour parler des risques catastrophiques de l’IA. Ce n’est pas la première fois que l’on entend les spécialistes parler des dangers de l’intelligence artificielle. Mais cette fois, ce sont les pères de l’intelligence artificielle qui s’inquiètent sur les « risques catastrophiques » de cette technologie. Pour éviter que l’IA échappe au contrôle humai

« Nous avons perdu le contrôle » : les pères de l’IA se réunissent en urgence

Par : Dina R.
30 septembre 2024 à 20:00

C’est la panique ! Un groupe de spécialistes, composé des deux pères fondateurs de l’intelligence artificielle, ont eu une réunion d’urgence pour parler des risques catastrophiques de l’IA.

Ce n’est pas la première fois que l’on entend les spécialistes parler des dangers de l’intelligence artificielle. Mais cette fois, ce sont les pères de l’intelligence artificielle qui s’inquiètent sur les « risques catastrophiques » de cette technologie. Pour éviter que l’IA échappe au contrôle humain, ces scientifiques proposent un cadre réglementaire, doté de modèles inscrits sur un registre.

Les pères de l’IA pensent que l’IA pourrait dépasser l’intelligence humaine ?

Les spécialistes du domaine de l’intelligence artificielle ont des avis différents concernant les risques inhérents à cette technologie. Si certains pensent que l’IA n’est qu’un outil relativement inoffensif, qui n’a que pour mission d’assister les humains, d’autres craignent qu’elle puisse devenir hors du contrôle humain.

Parmi les personnes qui s’inquiètent des conséquences négatives de cette technologie, on peut citer Geoffrey Hinton et Yoshua Bengio. Ces deux spécialistes sont considérés comme des pères fondateurs de l’intelligence artificielle.

Rappelons qu’ils ont reçu le prix Turing en 2018 pour leurs actions sur l’apprentissage profond, avec le français . Il n’y a pas si longtemps, ces deux hommes participaient à la troisième rencontre Idais (Dialogues internationaux sur la sécurité de l’IA) qui s’est déroulée à Venise. Notons que c’est l’un des grands événements qui réunit les différents spécialistes du secteur.

Ce groupe de spécialistes a publié un communiqué qui parle surtout des risques relatifs à l’arrivée d’une IA capable de surpasser l’intelligence humaine. Cela pourrait arriver immédiatement, ou au plus tard d’ici quelques décennies.

Un cadre réglementaire proposant trois solutions

Le communiqué signé aussi par Zhang Ya-Qin, ancien président du géant chinois Baidu, ou encore Stuart Russell, propose trois propositions qui permettent d’éviter les scénarios catastrophiques.

Dans un premier temps, ces spécialistes de l’IA suggèrent d’enregistrer les modèles d’IA. La communauté internationale devrait mettre en place des accords et institutions permettant d’inscrire ces modèles sur un registre et de communiquer tout incident.

Ensuite, tous les développeurs d’IA doivent être en mesure de démontrer la sûreté de leurs modèles si jamais leurs aptitudes dépassent certains seuils. Enfin, il faudra entreprendre une recherche mondiale indépendante sur la sécurité de l’IA. Cette étude doit permettre d’examiner la validité des allégations en matière de sécurité formulées par les développeurs.

Notons néanmoins que le communiqué ne précise pas ce qui pourrait constituer un risque ou encore quels seuils doit être mis en place.

Rappelons que ce n’est pas la première fois que Geoffrey Hinton parle de ce sujet. En 2003, il a démissionné de chez pour pouvoir partager librement ses appréhensions sur le développement de l’intelligence artificielle.

Et vous, quel est votre avis ? Vous pensez que l’IA pourrait réellement dépasser l’intelligence humaine ? N’hésitez pas à écrire dans les commentaires.

Cet article « Nous avons perdu le contrôle » : les pères de l’IA se réunissent en urgence a été publié sur LEBIGDATA.FR.

❌
❌