Vue normale
-
IA
-
Industrie 4.0 : les PME et ETI françaises dans la course face aux concurrentes allemandes et italiennes
Les PME et ETI françaises sont légèrement plus équipées que leurs homologues allemandes et italiennes en technologies de production d’industrie...
-
IA
-
French Tech 2030 : une deuxième promotion pour renforcer la souveraineté technologique
Intelligence artificielle, cybersécurité, robotique, quantique ou encore semi-conducteurs. Les 80 start-up de la promotion 2025 du programme...
French Tech 2030 : une deuxième promotion pour renforcer la souveraineté technologique
-
IA
-
Robotique humanoïde : le CEA-List veut créer «des produits et des services» avec Tata Consultancy Services
En se rapprochant de Tata Consultancy Services (TCS), le CEA-List espère toucher un scope toujours plus large de partenaires. Le laboratoire de...
Robotique humanoïde : le CEA-List veut créer «des produits et des services» avec Tata Consultancy Services
-
IA
-
Intelligence artificielle : Gobano Robotics veut robotiser des tâches manuelles complexes
Encore une. La start-up française Gobano Robotics se lance dans l’intelligence artificielle (IA) appliquée à la robotique. Elle souhaite...
Intelligence artificielle : Gobano Robotics veut robotiser des tâches manuelles complexes
-
IA
-
Robotique : des humanoïdes à l'industrie, le virage de SoftBank avec ABB
Après avoir envisagé un temps d'introduire en Bourse sa division robotique, ABB décide finalement de la vendre. L'entreprise helvético-suédoise...
Robotique : des humanoïdes à l'industrie, le virage de SoftBank avec ABB
-
IA
-
Pour les décideurs de l'industrie 5.0 , l’humain et l’environnement ça compte
L’industrie 5.0 ce n’est pas seulement du numérique, des robots et de l’intelligence artificielle (IA). Les facteurs humains et...
Pour les décideurs de l'industrie 5.0 , l’humain et l’environnement ça compte
-
IA
-
Genesis AI, nouvelle pépite de la robotique
Dans le sillon de l’IA générative, la robotique connaît un renouveau. La start-up Genesis AI, dernière-née française née du domaine, entend...
Genesis AI, nouvelle pépite de la robotique
-
LEBIGDATA.FR
-
1X dévoile NEO : le robot qui fait le ménage et s’occupe de votre femme !
L’entreprise norvégienne 1X vient de dévoiler NEO, le premier robot humanoïde pensé pour le grand public et l’utilisation domestique. Il est capable de faire le ménage et les autres tâches du quotidien dans votre maison ! Un prototype en version Beta va être déployé dans plusieurs foyers fin 2024 ! Avoir un robot humanoïde à la maison pour s’occuper de toutes les corvées : c’est le rêve de nombreuses personnes. Même si les aspirateurs robots de dernière génération font déjà du très b
1X dévoile NEO : le robot qui fait le ménage et s’occupe de votre femme !
L’entreprise norvégienne 1X vient de dévoiler NEO, le premier robot humanoïde pensé pour le grand public et l’utilisation domestique. Il est capable de faire le ménage et les autres tâches du quotidien dans votre maison ! Un prototype en version Beta va être déployé dans plusieurs foyers fin 2024 !
Avoir un robot humanoïde à la maison pour s’occuper de toutes les corvées : c’est le rêve de nombreuses personnes.
Même si les aspirateurs robots de dernière génération font déjà du très bon travail, ils se contentent d’aspirer et de passer la serpillère.
Il faut encore s’occuper de dépoussiérer, de ranger, de charger le lave-vaisselle, de nettoyer les meubles et tant d’autres tâches pénibles du quotidien.
C’est une promesse d’Elon Musk : en 2050, tout le monde aura son robot domestique. Toutefois, il n’y aura peut-être pas besoin d’attendre aussi longtemps pour voir ces machines arriver sur le marché !
L’entreprise norvégienne 1X, notamment financée par OpenAI, vient de dévoiler son prototype NEO Beta : un humanoïde conçu spécialement pour un usage domestique ! Il sera déployé dans plusieurs foyers dès la fin 2024, pour une première phase de test.
NEO, le premier robot humanoïde grand public !
Pensé dès le départ comme un robot grand public, NEO est largement moins lourd que les autres humanoïdes. Il ne pèse que 25 kilogrammes, même si le prototype Beta est un peu plus lourd.
En comparaison, le Tesla Optimus Gen 2 pèse 57 kilos, le Figure 02 pèse 70 kilos, et le Unitree G1 pèse 35 kilos.
Ce robot est capable de marcher, de courir, de gravir les marches, et de naviguer dans votre logis de façon naturelle. À mesure qu’il accomplira des tâches et s’habitue à votre espace, il deviendra de plus en plus efficace grâce à l’IA.
Sa vitesse de marche s’élève à 4km/h, pour une vitesse de course maximale de 12km/h. Il peut porter une charge maximale de 19 kilos, et son autonomie atteint 2 à 4 heures.
De toute évidence, même si tout est fait pour éviter les collisions avec les humains, 1X est conscient qu’il y aura inévitablement des accidents.
Néanmoins, c’est la façon dont les robots réagissent dans ces situations qui fera toute la différence. En plus d’être plus léger, NEO est également plus doux que les autres humanoïdes.
Au lieu d’une peau en plastique ou en métal, la machine est vêtue d’une combinaison contenant des inserts rembourrés imitant les muscles humains. Elle n’a pas non plus de points de pincements.
En cas de besoin, un opérateur humain peut prendre le contrôle de ses mouvements et voir à travers sa caméra.
La sécurité, une priorité absolue pour les robots domestiques
Au cours des derniers mois, de nombreux robots humanoïdes conçus pour travailler en entreprise ont été lancés.
C’est le cas du Figure 02, déjà adopté par BMW, du robot chinois Unitree G1 commercialisé pour 16 000$, ou encore du Tesla Optimus qui a commencé à travailler dans les usines automobiles de la firme américaine.
De même, Mercedes-Benz teste le robot Apptronik Apollo, et Amazon a déployé l’humanoïde Digit de Agility Robotics dans ses entrepôts. L’Américain Boston Dynamics, quant à lui, prévoit d’utiliser la nouvelle version électrique de son robot Atlas dans les usines Hyundai.
Toutefois, ces machines sont conçues pour travailler dans des entrepôts et des usines. Ils côtoient des employés, minutieusement formés pour éviter tout danger.
Déployer un humanoïde dans une maison auprès de particuliers, d’enfants et d’animaux domestiques est nettement plus délicat et présente de nombreux risques.
Selon le CEO, Bernt Børnich, « notre priorité est la sécurité ». Il explique que « la sécurité est la pierre angulaire qui nous permet d’introduire NEO Beta avec confiance dans les maisons, où il pourra collecter un feedback essentiel et démontrer sa capacité dans des conditions réelles ».
Le chef d’entreprise ajoute que « cette année, nous déployons un nombre limité d’unités NEO dans des maisons sélectionnées à des fins de recherche et de développement ». A ses yeux, il s’agit « d’un pas supplémentaire vers l’accomplissement de notre mission ».
1X, le pionnier norvégien de la robotique humanoïde
Depuis plus d’une décennie, 1X travaille activement sur le développement d’humanoïdes. Dès 2017, il s’est hissé en pionnier avec son robot EVE.
Plus tôt en 2024, la firme a recruté de nouveaux dirigeants dotés d’une solide expérience, afin de se préparer pour déployer des produits à grande échelle.
Le NEO Beta vise à s’étendre au-delà d’une clientèle d’entreprise pour partir à la conquête du grand public. Ce robot profite des nombreuses années d’expérience d’EVE, et de ses capacités de manipulation d’objets.
Au total, 1X emploie plus d’une douzaine d’opérateurs à temps plein pour aider ses robots à apprendre et maîtriser différentes tâches.
Le NEO est conçu pour une production de masse dans son usine située à Moss, en Norvège. La firme a également des bureaux à Oslo, à Sunnyvale en Californie et à Irving au Texas.
En janvier 2024, 1X Technologies a levé 100 millions de dollars lors d’une levée de fonds de série B, dirigée par EQT Ventures, avec la participation de Samsung NEXT, Nistad Group, Skagerak Capital et Sandwater. Cette levée de fonds a porté le financement total de l’entreprise à environ 125 millions de dollars en moins de 12 mois, après une levée de fonds de série A2 de 23,5 millions de dollars en mars 2023, dirigée par le OpenAI Startup Fund et Tiger Global.
En janvier 2025, 1X a acquis la startup Kind Humanoid, spécialisée dans les robots humanoïdes destinés à un usage domestique, afin d’accélérer le développement de son modèle NEO Gamma. Cette acquisition reflète l’engagement de 1X à étendre sa gamme de produits et à renforcer sa position sur le marché des robots domestiques.
1X NEO : prix et date de lancement
Introducing NEO Beta.
— 1X (@1x_tech) August 30, 2024
Designed for humans. Built for the home. pic.twitter.com/5S6jpRjUQp
Vous souhaitez acheter le robot 1X NEO ? On ignore malheureusement pour le moment à quelle date cet humanoïde sera commercialisé.
L’entreprise doit d’abord finaliser sa phase de test auprès de foyers sélectionnés fin 2024, afin de s’assurer que son produit ne représente aucun danger.
Le prix n’a pas non plus été dévoilé pour l’instant. À titre de comparaison, Elon Musk a promis plusieurs fois que le Tesla Optimus serait proposé pour moins de 20 000 dollars. De son côté, Unitree vend déjà son robot G1 pour 16 000 dollars !
Quoi qu’il en soit, avec ce premier robot humanoïde conçu pour le grand public, 1X vient de marquer une accélération dans la démocratisation de cette technologie révolutionnaire !
NEO, un véritable assistant culinaire
NEO Beta a récemment entamé une démonstration époustouflante en attaquant la cuisine. L’excitation était palpable au moment où NEO a fait son entrée sur le plateau de cuisine. En collaboration avec Nick DiGiovanni, célèbre chef et créateur de contenu, cette rencontre promettait de marier l’innovation technologique à l’art culinaire.
NEO, vêtu de son manteau personnalisé « Chef NEO », apportait une touche futuriste à l’ensemble de la scène. Les deux protagonistes se sont ainsi lancés dans un défi amical : préparer le steak mi-saignant parfait. Cette expérience a démontré la capacité de NEO à exécuter des tâches complexes. En même temps, il a aussi fait preuve de son habileté à interagir de manière ludique et engageante avec son partenaire humain.
Les rires ont fusé lorsque des incidents amusants, comme un renversement d’huile d’olive, ont ponctué le tournage. Ces moments inédits qui rappellent que la cuisine est tout autant une question de maîtrise que de plaisir et d’imperfection.
Au fur et à mesure que les steaks prenaient forme, il est devenu évident que NEO n’était pas simplement un robot, mais un véritable assistant culinaire. Eh oui ! Ce robot domestique est capable de transformer une tâche banale en un moment mémorable. Ce rendez-vous à Sunnyvale n’était pas qu’une simple démonstration. C’était un aperçu d’un avenir où humanoïdes et humains pourraient coexister harmonieusement dans la cuisine. Ce qui apporte une nouvelle dimension à la gastronomie.
Et vous, qu’en pensez-vous ? Seriez-vous intéressé par l’achat d’un 1X NEO ? Pensez-vous que les robots humanoïdes sont révolutionnaires, ou au contraire qu’il s’agit d’une technologie superflue et vouée à l’échec ? Partagez votre avis en commentaire !
FAQ - septembre 2025
Un robot qui fait le ménage est un appareil autonome ou semi-autonome conçu pour effectuer des tâches domestiques comme passer l’aspirateur, laver le sol, ranger ou même assister à la cuisine. Les modèles humanoïdes récents, comme NEO de 1X, vont au-delà de l’aspirateur classique et peuvent interagir avec l’environnement de manière intelligente.
Les robots domestiques avancés peuvent : aspirer, passer la serpillière, dépoussiérer, ranger des objets, charger le lave-vaisselle, et même aider à la préparation culinaire. Certains modèles utilisent l’IA pour s’adapter à votre maison et améliorer leur efficacité au fil du temps.
Oui, les modèles récents sont conçus avec des systèmes de sécurité sophistiqués : capteurs anti-collision, revêtement souple imitant la peau humaine, et possibilité pour un opérateur de prendre le contrôle en cas de besoin. La sécurité reste une priorité absolue pour éviter les accidents avec les enfants ou les animaux.
Cet article 1X dévoile NEO : le robot qui fait le ménage et s’occupe de votre femme ! a été publié sur LEBIGDATA.FR.
-
IA
-
La drôle de réunion des robots de la RATP, Framatome et Naval Group dans les souterrains de l'Andra
Le robot chien Spot de Boston Dynamics a la cote chez les industriels français. Quatre d’entre eux étaient présents, ainsi qu’un robot Anymal...
La drôle de réunion des robots de la RATP, Framatome et Naval Group dans les souterrains de l'Andra
-
LEBIGDATA.FR
-
Ce robot change sa batterie seul : la forme finale du capitalisme ?
Un robot humanoïde capable de se recharger sans aide humaine vient d’être dévoilé en Chine. Son nom ? Walker S2. Sa mission ? produire sans pause, 24 heures sur 24. La prouesse impressionne, mais laisse entrevoir un futur où le travail ne s’arrête jamais… et où l’humain devient optionnel. Depuis un siècle, l’industrie rêve d’un monde où les machines travaillent sans relâche, sans erreur, sans syndicat. De la chaîne de Ford aux robots d’assemblage de Tesla, la quête est toujours la même : p
Ce robot change sa batterie seul : la forme finale du capitalisme ?
Un robot humanoïde capable de se recharger sans aide humaine vient d’être dévoilé en Chine. Son nom ? Walker S2. Sa mission ? produire sans pause, 24 heures sur 24. La prouesse impressionne, mais laisse entrevoir un futur où le travail ne s’arrête jamais… et où l’humain devient optionnel.
Depuis un siècle, l’industrie rêve d’un monde où les machines travaillent sans relâche, sans erreur, sans syndicat.
De la chaîne de Ford aux robots d’assemblage de Tesla, la quête est toujours la même : produire plus vite, plus longtemps, plus efficacement.
Mais une limite subsistait : la pause. Même les robots les plus avancés devaient s’arrêter pour recharger ou être assistés. Jusqu’à aujourd’hui.
En juillet 2025, l’entreprise chinoise UBTech a présenté le Walker S2, un humanoïde capable de changer sa propre batterie sans aucune intervention humaine. Une première mondiale.
L’objectif est clair : fonctionner en continu, 24h/24, 7j/7. Pas d’opérateurs, pas de panne sèche, pas de temps mort. Une main-d’œuvre artificielle infatigable… et désormais autosuffisante.
Walker S2 : le robot qui n’a plus besoin de pause
Le Walker S2 n’est pas un concept futuriste. C’est un produit prêt à l’emploi. Haut de 1,62 mètre pour 43 kg, cet humanoïde développé par UBTech est capable de marcher, de manipuler des objets, de percevoir son environnement, et surtout… de s’auto-alimenter.
Sa batterie ? Un double module lithium-ion, 48V, logé dans son dos, qu’il peut remplacer en moins de 3 minutes.
Une station de recharge fixe lui permet de retirer le bloc vide, d’en prélever un nouveau, puis de reprendre immédiatement son activité, sans qu’un seul humain ne touche quoi que ce soit.
Et ce n’est pas tout : Walker S2 décide lui-même s’il doit se recharger ou remplacer son énergie, en fonction de l’urgence des tâches à accomplir. Une gestion autonome, optimisée, rationalisée.
Son architecture repose sur un système de locomotion bipède, des mains robotiques de 4ᵉ génération, et une connectivité Wi-Fi/Bluetooth.
Mais surtout, il intègre un système d’IA embarqué, capable de hiérarchiser les priorités, d’éviter les collisions, et de s’insérer dans des environnements industriels complexes.
Dans les usines chinoises, une armée déjà en marche
Le Walker S2 est déjà testé à grande échelle dans l’usine 5G du constructeur automobile Zeekr, en Chine.
Là-bas, des dizaines de robots humanoïdes, dont les modèles précédents Walker S1, coopèrent pour effectuer des tâches industrielles : assemblage, inspection qualité, logistique de pièces.
La coordination se fait via un système baptisé BrainNet, combinaison d’un « super cerveau » (basé sur un modèle de raisonnement multimodal) et d’un « sous-cerveau » distribué, chargé de piloter les actions en temps réel.
Ainsi, les humanoïdes ne travaillent plus seuls, mais en essaim, capables de se synchroniser, de s’adapter, et de remplacer une chaîne humaine dans son intégralité.
Et les chiffres suivent : chez BYD, les robots ont permis de doubler la productivité sur certaines lignes (+120 %), tout en réduisant jusqu’à 65 % les coûts de main-d’œuvre chez Lynk & Co.
Pas étonnant que des géants comme Foxconn, Geely ou Nio aient déjà commandé plus de 500 unités du Walker S2, à peine dévoilé !
Capitalisme 2.0 : quand la main-d’œuvre ne dort plus
Ce que le Taylorisme avait amorcé, l’autonomie robotique l’achève. On ne parle plus d’outils qui assistent, mais d’entités qui remplacent entièrement, et qui travaillent sans pause, sans fatigue, sans week-end.
Le Walker S2 ne fait pas que fonctionner sans surveillance. Il optimise son propre rendement.
Il sait quel moment est le plus stratégique pour se recharger. Il évite de perdre du temps. Il n’a pas besoin de pause déjeuner, ni de congé maladie, ni de droits syndicaux.
C’est une vision économique radicale qui se profile : celle d’une usine totalement autonome, auto-gérée par IA, où le facteur humain est réduit à néant. Sauf peut-être, ironiquement, pour acheter le produit fini.
Jusqu’où ira l’autonomie ? Et à quel prix ?
Le Walker S2 prend des décisions : quand se recharger, comment gérer son énergie, comment hiérarchiser ses priorités. C’est un agent autonome, au service d’une logique d’efficacité totale.
Cette autonomie soulève des questions lourdes. Si le robot décide seul de son rythme, qui fixe ses objectifs ?
Qui contrôle l’algorithme qui pilote ses décisions ? Et que se passe-t-il quand ces décisions échappent aux cadres humains habituels ?
Sur le papier, tout cela est encadré. En pratique, les usines deviennent des écosystèmes auto-optimisés, pilotés par une IA centrale, dans lesquels l’humain devient un facteur de ralentissement.
La forme finale du capitalisme dont il est question ici, ce n’est pas celle du profit à court terme.
C’est celle d’un système productif sans ralentissement sans contradiction, sans besoin… humain. Le travail sans les travailleurs. L’économie sans la société.
Et si le robot, c’était vous ?
UBTech ne cache pas ses ambitions. Après les usines, le Walker S2 est destiné à entrer dans les foyers : aide à la personne, gestion domestique, logistique du quotidien. Toujours plus autonome. Toujours plus présent.
Mais que reste-t-il de notre place, si les machines font tout mieux, plus vite, plus longtemps ?
Que devient le rapport au travail, à la valeur, à l’effort… quand un humanoïde peut travailler pendant que vous dormez ?
Ce robot qui change sa batterie tout seul incarne une rupture civilisationnelle : celle d’un monde où l’outil devient système, et où la boucle productive se referme sur elle-même, sans nous.
Et vous, qu’en pensez-vous ? L’automatisation totale va-t-elle nous offrir un monde d’abondance et de paresse, ou au contraire rendre les humains totalement inutiles et causer une crise mondiale ? Partagez votre avis en commentaire !
Cet article Ce robot change sa batterie seul : la forme finale du capitalisme ? a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Ce robot à 299 $ va mettre un coup de pied dans toute l’industrie
Hugging Face dévoile Reachy Mini, son robot alimenté par l’IA, pour seulement 299 $. Le moins qu’on puisse dire c’est que ce produit promet de démocratiser l’IA robotique. Et si offrir un robot devenait enfin accessible ? Plus besoin de débourser des milliers de dollars pour s’en procurer un. La start-up française Hugging Face vient de le prouver avec son Reachy Mini. Ce robot de bureau coûte à partir de 299 $. Et malgré son petit prix, il embarque des fonctionnalités avancées qui rivalisent
Ce robot à 299 $ va mettre un coup de pied dans toute l’industrie
Hugging Face dévoile Reachy Mini, son robot alimenté par l’IA, pour seulement 299 $. Le moins qu’on puisse dire c’est que ce produit promet de démocratiser l’IA robotique.
Et si offrir un robot devenait enfin accessible ? Plus besoin de débourser des milliers de dollars pour s’en procurer un. La start-up française Hugging Face vient de le prouver avec son Reachy Mini. Ce robot de bureau coûte à partir de 299 $. Et malgré son petit prix, il embarque des fonctionnalités avancées qui rivalisent avec les modèles bien plus coûteux.
Un robot à seulement 299 $ mais déjà prometteur
Reachy Mini de Hugging Face se fait tout petit. Il mesure 28 cm de haut et 16 cm de large. Il ne pèse que 1,5 kg. Il trouve ainsi facilement place à côté de votre ordinateur. Parfait pour jouer les assistants de bureau intelligents.
Ne vous laissez pas tromper par sa taille compacte. Hugging Face le présente comme un « robot expressif et open source conçu pour l’interaction homme-robot, le codage créatif et l’expérimentation de l’IA ».
En plus, Reachy Mini sait faire plein de choses. D’abord, il peut bouger sa tête ou encore tourner son corps. Ce robot est en mesure d’agiter ses antennes comme s’il réagissait à ce qui se passe autour de lui.
Grâce à sa caméra grand angle, ce robot à 299 $ voit ce qui l’entoure. Ses micros et son haut-parleur lui permettent aussi d’écouter et de parler. Certes, il saura interagir parfaitement avec son utilisateur. Reachy Mini est disponible en deux versions. Une version lite qui se branche par câble sur un Mac ou un Linux seulement.
Il y a aussi la version sans fil qui est beaucoup plus pratique. Il embarque un ordinateur Raspberry Pi 5 et une batterie. Des options qui le rendent encore plus autonome. Sans être relié à un autre appareil.
Quelque chose de nouveau
Avec son nouveau robot, Hugging Face veut changer les règles du jeu. Déjà l’entreprise cible le grand public avec son prix accessible. Fini donc les modèles hors de prix réservés à quelques experts.
play-testing a Reachy Mini prototype (with music) pic.twitter.com/oqZUF0T4px
— Thomas Wolf (@Thom_Wolf) July 10, 2025
Mais aussi l’enseigne mise sur l’open source. C’est-à-dire rendre tous les plans, logiciels et instructions de montage accessibles à tous. Ce robot de 299 $ est livré en kit, à assembler soi-même. Une façon de rendre l’utilisateur acteur de son propre robot.
Côté programmation, c’est aussi pensé pour être simple. On peut le programmer en Python. Et bientôt, il sera aussi compatible avec JavaScript et Scratch. Parfait pour les plus jeunes ou les débutants. Ce petit robot a déjà de quoi s’occuper. Car il arrive avec 15 démonstrations pré-installées. Celles-ci sont directement intégrées au Hugging Face Hub, la plateforme open source de l’entreprise.
D’ailleurs, ce lancement sert à tester si un tel principe peut réussir dans le domaine du matériel informatique. Le mieux dans tout cela ? Vous pouvez créer vos propres applis. Il vous est même possible de les partager avec les 10 millions de membres de la communauté Hugging Face.
Et vous, qu’en pensez-vous ? Dépenseriez-vous 299 $ pour un robot comme Reachy Mini ? Selon vous, pour ce prix-là, ça vaut le coup d’essayer ce robot ? Ou préférez-vous plutôt investir dans des modèles plus chers ? Donnez votre avis en commentaire.
Cet article Ce robot à 299 $ va mettre un coup de pied dans toute l’industrie a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR

-
Google veut donner une voix intérieure aux robots : la clé de la conscience ?
Vous savez ce qui pourrait beaucoup améliorer l’intelligence des robots ? Leur doter d’une voix intérieure. Du moins, c’est l’approche assez prometteuse que Google DeepMind explore en ce moment. Selon le laboratoire d’IA du géant du web, c’est une sorte de « discours intra-agent pour faciliter l’apprentissage des tâches ». Le but étant d’accélérer et d’optimiser l’acquisition de compétences chez les agents d’IA. Une voix intérieure, qui n’en voudrait pas ? Oui parce que cette technolog
Google veut donner une voix intérieure aux robots : la clé de la conscience ?
Vous savez ce qui pourrait beaucoup améliorer l’intelligence des robots ? Leur doter d’une voix intérieure. Du moins, c’est l’approche assez prometteuse que Google DeepMind explore en ce moment.
Selon le laboratoire d’IA du géant du web, c’est une sorte de « discours intra-agent pour faciliter l’apprentissage des tâches ». Le but étant d’accélérer et d’optimiser l’acquisition de compétences chez les agents d’IA.
Une voix intérieure, qui n’en voudrait pas ?
Oui parce que cette technologie est assez efficace. Pour faire simple, le principe est de permettre aux robots d’observer des scènes. Ce, qu’il s’agisse d’images fixes ou de séquences vidéo. Puis de produire automatiquement une description en langage naturel de ce qu’ils perçoivent.
Par exemple, en visionnant une vidéo d’une personne prenant une tasse, le robot génère en interne la phrase « la personne prend la tasse ». Et ce commentaire silencieux, cette espèce de voix intérieure constitue un pont entre perception visuelle et action motrice.

Il donne à une machine un cadre de compréhension conceptuel et renforce sa capacité à généraliser des tâches. Ce qui est plutôt pratique même face à des objets qu’elle n’a jamais rencontrés.
Vous voulez savoir en quoi est-ce génial ? Eh bien, ce système permet ce que les chercheurs appellent un apprentissage « zéro-shot ». Autrement dit, le robot est apte à exécuter une action sans qu’un entraînement spécifique ne soit requis au préalable.
En prime, cette méthode allège considérablement la charge mémoire et les besoins en puissance de calcul. Les deux contraintes majeures dans l’apprentissage machine appliqué à la robotique.
Google Deepmind continue à avancer
En effet, je dois dire que Google DeepMind est de plus en plus sérieux pour ce qui est de rendre ses systèmes d’IA plus autonomes, plus légers, et mieux adaptés aux contraintes du monde réel.
Par exemple, récemment, la société a dévoilé Gemini Robotics On-Device. C’est une version embarquée de son modèle de langage visuel Gemini Robotics. Elle est spécifiquement conçue pour fonctionner localement sur les robots, sans connexion au cloud.
D’ailleurs, pour votre information, Gemini On-Device est performant. Il peut être utilisé immédiatement et s’adapte à de nouvelles tâches après seulement 50 à 100 démonstrations.
Il est à même d’effectuer des actions complexes, du genre, plier du linge ou ouvrir des sacs. Et ce, avec une fluidité de mouvement et une faible latence. Google le présente comme un modèle « d’entrée de gamme ». Il est parfaitement adapté aux robots évoluant dans des environnements à connectivité limitée.
Parallèlement à ces avancées robotiques, DeepMind continue de faire progresser l’IA dans d’autres domaines scientifiques. Dernièrement, l’équipe a dévoilé un modèle capable de prédire l’impact des mutations génétiques sur les systèmes complexes de régulation des gènes.
Cet article Google veut donner une voix intérieure aux robots : la clé de la conscience ? a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Les robots soldats vont tuer tout le monde : même la Chine alerte
L’armée chinoise tire la sonnette d’alarme : les robots soldats risquent de commettre des massacres incontrôlés. Trop humains pour être maîtrisés. Trop rapides pour être arrêtés. Même ce pays totalitaire implore un cadre éthique… pendant que les géants comme Google, OpenAI ou le français Thalès déploient leurs IA sur le champ de bataille. Cap vers une catastrophe ? Le message est tombé comme une grenade silencieuse : l’armée chinoise alerte sur les dangers des robots humanoïdes de guerre.
Les robots soldats vont tuer tout le monde : même la Chine alerte
L’armée chinoise tire la sonnette d’alarme : les robots soldats risquent de commettre des massacres incontrôlés. Trop humains pour être maîtrisés. Trop rapides pour être arrêtés. Même ce pays totalitaire implore un cadre éthique… pendant que les géants comme Google, OpenAI ou le français Thalès déploient leurs IA sur le champ de bataille. Cap vers une catastrophe ?
Le message est tombé comme une grenade silencieuse : l’armée chinoise alerte sur les dangers des robots humanoïdes de guerre.
Dans un texte publié par le PLA Daily, organe officiel de l’Armée populaire de libération, Pékin appelle à encadrer au plus vite ces nouvelles machines capables de tuer.
Leur usage massif pourrait mener, selon ses propres analystes, à des exécutions indiscriminées, des morts accidentelles, et une vague de condamnations morales et juridiques.
Autrement dit : même la puissance la plus ambitieuse en robotique militaire reconnaît que la situation est hors de contrôle…
Et pourtant, la course continue. Plus rapide, plus forte, plus autonome.
Tandis que les géants américains réintroduisent discrètement l’IA dans leurs contrats militaires, et que l’Europe tergiverse, la Chine le dit haut et fort : ces robots pourraient tuer n’importe qui, et surtout, n’importe comment.
Même la Chine dit stop (ou fait semblant)
Le 10 juillet 2025, le PLA Daily, voix officielle de l’armée chinoise, publie un texte : une mise en garde contre les risques des robots humanoïdes militarisés.
Signé par trois experts (Yuan Yi, Ma Ye et Yue Shiguang), l’article explique que ces machines, bien que prometteuses sur le terrain, violent potentiellement les principes moraux fondamentaux. Y compris ceux de la science-fiction.
En ligne de mire : la célèbre première Loi d’Asimov, selon laquelle « un robot ne peut porter atteinte à un être humain, ni, par son inaction, permettre qu’un humain soit blessé ».
Or, selon les auteurs, les humanoïdes de combat ignorent cette règle dès le départ. Pire, leur usage à grande échelle pourrait provoquer des « décès accidentels », voire des « meurtres incontrôlés », dans un flou total de responsabilités.
Le rapport réclame donc un encadrement éthique et légal. Il propose que ces machines de guerre soient capables de détecter une violence excessive, refuser des ordres illégaux, et respecter la vie humaine comme priorité absolue.
Mais derrière cet avertissement bienveillant se cache une amère vérité. Car si la Chine pose ces questions, c’est aussi parce qu’elle s’apprête à produire… plus de 10 000 humanoïdes militaires d’ici fin 2025 !
Un chiffre colossal, révélateur d’un paradoxe : prévenir les abus tout en accélérant la fabrication.
Pourquoi ces robots fascinent quand même les armées
Ils sont chers, lents, fragiles. Et pourtant, les humanoïdes fascinent les états-majors. Car ils représentent bien plus qu’un gadget technologique : ils symbolisent la projection d’un soldat sans âme, mais obéissant à tout prix.
Selon le PLA Daily, les humanoïdes disposent d’atouts uniques sur le terrain : bras articulés précis, bipédie adaptée aux environnements humains, grande maniabilité en zone urbaine.
Contrairement aux drones ou aux véhicules autonomes, ils peuvent monter un escalier, ouvrir une porte, porter une caisse, saisir une arme.
Des entreprises chinoises comme Unitree, AgiBot, ou EngineAI se disputent ce marché en ébullition.
Leurs robots marchent, courent, soulèvent des charges, effectuent des sauts… certains réussissent même des saltos avant.
En 2025, la Chine prévoit d’en produire plus de 10 000, soit la moitié de la production mondiale.
Mais leur usage militaire ne se limite pas à remplacer les humains : il s’agit aussi de sacrifier les machines à la place des soldats.
Dans une hypothétique invasion de Taïwan, ces humanoïdes pourraient être envoyés en première ligne pour déminer, encaisser, tester les réactions adverses. Un usage cynique, mais tactiquement assumé.
Les États-Unis, l’hypocrisie algorithmique
Pendant que la Chine pose des questions morales, les géants américains font sauter les verrous… en silence.
En 2018, Google promettait qu’aucune IA développée en interne ne servirait à la guerre. Sept ans plus tard, la firme a discrètement supprimé cette clause, et travaille avec Lockheed Martin sur des projets d’IA tactique.
Même retournement chez OpenAI, l’entreprise derrière ChatGPT. Fin 2023, elle modifie ses conditions d’usage : l’interdiction de toute application militaire disparaît.
En juin 2025, OpenAI décroche un contrat de 200 millions de dollars avec le Pentagone pour développer des outils d’IA sécuritaire.
Officiellement pour la « défense nationale ». Officieusement, la frontière avec l’usage offensif est mince.
Chez Microsoft, la situation est encore plus explosive. Le cloud Azure alimente plusieurs systèmes militaires israéliens, dont certains utilisés pour le ciblage automatisé de frappes.
Des employés protestent, des licenciements suivent, mais le business continue. Amazon, de son côté, reste impliqué dans Project Nimbus, contrat à 1,2 milliard de dollars avec Israël, où l’IA est directement exploitée pour surveiller, identifier, et neutraliser des cibles.
Bref : l’Occident alimente la guerre robotique tout en prétendant la réguler. Pendant que Pékin affiche ses craintes, Washington, Seattle et San Francisco signent des deals à huit zéros. La morale ? Elle attendra.
Et la France dans tout ça ?
La France n’est pas en reste. Derrière les discours prudents sur l’éthique et la souveraineté numérique, Paris accélère discrètement sur l’IA militaire.
En 2024, le gouvernement crée l’agence AMIAD, dotée de 300 millions d’euros par an pour développer des algorithmes souverains.
Le but : équiper les forces françaises d’outils capables de planifier, détecter, cibler, neutraliser. En clair, une IA de guerre maison.
Côté industriel, Thales joue un rôle central. Le groupe français développe des systèmes de déminage autonome, de radar IA, et de robotique navale.
Il a notamment livré en 2025, avec les Britanniques, une flotte de drones sous-marins capables de repérer et neutraliser des mines sans intervention humaine.
Mais Thales est aussi rattrapée par la polémique. Depuis 2018, l’entreprise fournit des composants électroniques pour des drones armés israéliens, utilisés dans des opérations contestées à Gaza.
Plusieurs ONG dénoncent un manque de transparence et des complicités indirectes dans des violations du droit humanitaire.
Et puis il y a Mistral AI, la pépite tricolore valorisée 5 milliards d’euros. Officiellement indépendante, elle fournit déjà des modèles à l’armée française.
Sauf que ces modèles… tournent sur Microsoft Azure. Autrement dit : la souveraineté est logicielle, mais pas matérielle.
Un droit international totalement dépassé
Face à cette déferlante de robots autonomes, où sont les garde-fous ? Le constat est simple : le droit n’a pas suivi.
Le fameux AI Act européen, adopté en 2024, n’intègre pas les usages militaires. Une lacune majeure, qui laisse les États libres de développer ce qu’ils veulent, sans contrôle externe ni transparence.
À l’échelle mondiale, aucune convention ne régule sérieusement l’usage des IA létales. Des ONG comme Campaign to Stop Killer Robots militent depuis dix ans, mais leurs appels restent lettre morte. L’ONU parle, les puissances ignorent.
Or, les risques sont immenses. Que se passe-t-il si un robot tue un civil par erreur ? Qui est responsable : le fabricant, le soldat, l’État, l’algorithme ? Aujourd’hui, personne ne le sait. Et les armées profitent de ce flou pour avancer, tester, déployer.
Le plus ironique ? C’est la Chine qui, la première, en appelle à un encadrement moral. Une manière sans doute de prendre les devants… tout en accélérant en coulisses. Car dans la guerre des robots, mieux vaut poser les règles quand on est déjà en train de les contourner.
L’histoire nous l’a déjà appris : quand une nouvelle arme change les règles du jeu, le vrai danger n’est pas la machine. C’est le moment où plus personne ne sait vraiment qui commande.
Combien de temps reste-t-il avant que le premier robot autonome tue sans ordre ? Comment éviter cette tragédie ? Partagez votre avis en commentaire !
Cet article Les robots soldats vont tuer tout le monde : même la Chine alerte a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Le 1er match de foot entre robots est terminé : revivez ce clash des IA !
Ce week-end, la technologie a franchi un nouveau cap. En Chine, des robots autonomes se sont affrontés lors d’un match de foot. C’était un vrai spectacle. Des robots qui courent après un ballon ? Qui dribblent et enchaînent les buts ? Non, ce n’est plus un scénario de film. Ce samedi 28 juin, en Chine, ça s’est vraiment passé. C’était la grande finale de la ROBO League, un tournoi de foot entre robots. D’un côté, l’équipe THU Robotics de l’Université Tsinghua. De l’autre, Mountain Sea, de l’U
Le 1er match de foot entre robots est terminé : revivez ce clash des IA !
Ce week-end, la technologie a franchi un nouveau cap. En Chine, des robots autonomes se sont affrontés lors d’un match de foot. C’était un vrai spectacle.
Des robots qui courent après un ballon ? Qui dribblent et enchaînent les buts ? Non, ce n’est plus un scénario de film. Ce samedi 28 juin, en Chine, ça s’est vraiment passé. C’était la grande finale de la ROBO League, un tournoi de foot entre robots. D’un côté, l’équipe THU Robotics de l’Université Tsinghua. De l’autre, Mountain Sea, de l’Université agricole de Chine. Et le score ? 5 à 3 en faveur de Tsinghua.
Des robots se mettent au foot pour de vrai
Qui aurait cru que la technologie en arriverait là ? Que des robots joueraient au foot sur un vrai terrain ? Et pourtant, c’est ce que vous offre la ROBO League ce week-end. C’était la toute première compétition de football 100% robotisé en Chine. Le match opposait deux équipes de trois robots, sur un format en deux mi-temps de dix minutes, séparées par une pause de cinq minutes.
Ce qui rend cette compétition unique, c’est que les robots humanoïdes sont complètement autonomes. C’est-à-dire que personne ne les contrôle pendant le match. Ces machines prennaient toutes leurs décisions toutes seules, selon ce qui se passe sur le terrain. Comment ? Grâce à des capteurs et à l’IA.
« Il s’agit du premier match de football robotisé IA entièrement autonome en Chine. Il représente une combinaison d’innovation technologique et d’application industrielle, ainsi qu’une occasion importante d’intégrer les robots à la vie publique et dans des scénarios réels » a déclaré Dou Jing, directeur exécutif du comité d’organisation du tournoi et directeur général adjoint du groupe technologique et culturel de Shangyicheng, au Global Times.
En plus, Cheng Hao, fondateur de Booster Robotics, fournisseur officiel de robots pour l’événement, a souligné que le tournoi a mis en place un nouveau système pour gérer les pénalités et l’arbitrage. Grâce à ça, les matchs sont moins souvent interrompus. Le jeu est donc plus fluide, plus rapide et plus intense.
Un règlement plus souple
Les organisateurs du tournoi l’admettent. Les robots ont encore du mal à éviter les obstacles qui bougent pendant les matchs. Ainsi, il y avait eu beaucoup de collisions. Fréquentes, même. Cheng Hao, a même déclaré au Global Times que « les performances actuelles des robots footballeurs sont à peu près équivalentes à celles d’enfants de cinq à six ans »
Face à ce problème, les organisateurs ne sont pas restés les bras croisés. Ils ont mis en place un règlement plus souple. Certaines collisions, lorsqu’elles ne sont pas volontaires, ne sont donc plus sanctionnées. Cette nouvelle façon de faire a permis d’avoir des matchs plus équilibrés et plus intéressants à suivre. Et surtout, elle reste adaptée à la technologie disponible aujourd’hui.
Alors oui, on est encore loin d’un PSG contre Inter Milan version robots. Mais ce match marque un vrai tournant. En plus, Cheng reste optimiste. Puisqu’il reconnaît qu’il y a un an de cela, les matchs étaient lents. Ils nécessitaient même la présence d’assistants humains pour la sécurité. Aujourd’hui, les robots peuvent s’affronter de manière autonome, sans intervention humaine.
Il prévoit aussi de lancer une série de compétitions robotiques. Histoire de pousser plus loin le développement et l’adoption de cette technologie dans la vie réelle. D’ailleurs, ce match a servi de test pour les prochains Jeux mondiaux de robots humanoïdes, prévus en 2025.
Cet article Le 1er match de foot entre robots est terminé : revivez ce clash des IA ! a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Football : le premier match entre robots IA a lieu ce week-end en Chine
Ce 28 juin, la Chine organise un match de foot entre robots IA. C’est une preuve saisissante des avancées spectaculaires de la robotique. Encore une fois, la technologie nous surprend là où on ne l’attend pas. Elle ne reste plus enfermée dans les usines ou les labos. Elle débarque aussi sur les terrains de sport ! Parce que ce week-end, en Chine, se joue un match un peu particulier. Pour la première fois, des robots footballeurs dotés d’IA vont s’affronter. Ceux qui sont capables de dribbler,
Football : le premier match entre robots IA a lieu ce week-end en Chine
Ce 28 juin, la Chine organise un match de foot entre robots IA. C’est une preuve saisissante des avancées spectaculaires de la robotique.
Encore une fois, la technologie nous surprend là où on ne l’attend pas. Elle ne reste plus enfermée dans les usines ou les labos. Elle débarque aussi sur les terrains de sport ! Parce que ce week-end, en Chine, se joue un match un peu particulier. Pour la première fois, des robots footballeurs dotés d’IA vont s’affronter. Ceux qui sont capables de dribbler, de faire des passes et même de jouer en équipe. Le moins qu’on puisse dire, c’est que ça promet du lourd !
Match 3 contre 3 entre robots IA
Ce 28 juin 2025 va sûrement marquer un tournant pour la robotique, et surtout pour le football. Pourquoi ? Parce que la grande finale de la RoBoLeague World Robot Soccer se joue aujourd’hui, dans la zone de Yizhuang, en Chine. Quatre équipes venues de grandes universités chinoises s’affrontent, chacune avec ses propres robots qu’elles ont elles-mêmes programmés.
Le match risque bien d’étonner plus d’un. Parce que sur le terrain, des robots se comportent presque comme de vrais joueurs. Ils marchent et courent. Ils donnent des coups de pied et chassent le ballon. Ils prennent même des décisions en une fraction de seconde, selon la situation.
Ce qu’il y a de plus impressionnant ? Les robots jouent tout seuls, sans qu’aucun humain n’intervienne pendant le match. Tout se fait de manière totalement autonome, grâce à l’IA, comme le rapporte Bastille Post Global (BPG).
Pour en arriver là, ils ont été entraînés avec l’apprentissage par renforcement profond. En gros, ils apprennent en testant différentes actions en se trompant. Puis en s’améliorant à chaque essai. Toutefois, ne vous attendez pas à un match classique de 90 minutes. Ces machines vont s’affronter en deux mi-temps de 10 minutes, avec une pause de 5 minutes.
De la technologie de pointe sur le terrain
Ces robots IA promettent un spectacle impressionnant, notamment grâce à leur système sensoriel et visuel ultra sophistiqué. En effet, ils utilisent des caméras et des capteurs qui leur permettent de repérer le ballon à près de 20 mètres. Cela avec une précision étonnante de 90%. Ils savent aussi parfaitement reconnaître les lignes, les buts, les coéquipiers et bien sûr leurs adversaires.
Ce match du 28 juin est surtout l’occasion pour chaque équipe de tester l’agilité, la stratégie et l’endurance de ses robots. Un vrai terrain d’entraînement avant les prochains World Humanoid Robot Games. « La World Robot Soccer League sera la première compétition test pour les World Humanoid Robot Games 2025… mettant à l’épreuve l’endurance et l’agilité des robots participants » a déclaré Dou Jing, organisateur de l’événement, à la Télévision centrale de Chine (CCTV)
Ce n’est pas la première fois que la Chine accueille un événement sportif 100 % piloté par l’IA. En avril dernier, un semi-marathon robotisé avait déjà eu lieu. Et ce n’est pas non plus la dernière.
Du 15 au 17 août prochain, Pékin organisera les Jeux mondiaux de sports de robots humanoïdes 2025. Une grande compétition où les robots les plus avancés au monde s’affronteront dans une série de défis sportifs, mais aussi pratiques dans des situations réelles.
Cet article Football : le premier match entre robots IA a lieu ce week-end en Chine a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Les robots ont maintenant une peau, et ça donne la chair de poule
Les robots savent déjà voir, entendre, parfois parler… Mais sentir ? Jusqu’ici, leur sens du toucher était rudimentaire. Une équipe de Cambridge vient de changer la donne : ils ont créé une peau électronique monomatériau, capable de ressentir pression, chaleur, coupures et plus encore. Un exploit technique, une avancée tactile… et un pas de plus vers des machines à l’apparence (et au ressenti) de l’humain ! Les robots voient, entendent, parlent. Certains écrivent des romans, d’autres piloten
Les robots ont maintenant une peau, et ça donne la chair de poule
Les robots savent déjà voir, entendre, parfois parler… Mais sentir ? Jusqu’ici, leur sens du toucher était rudimentaire. Une équipe de Cambridge vient de changer la donne : ils ont créé une peau électronique monomatériau, capable de ressentir pression, chaleur, coupures et plus encore. Un exploit technique, une avancée tactile… et un pas de plus vers des machines à l’apparence (et au ressenti) de l’humain !
Les robots voient, entendent, parlent. Certains écrivent des romans, d’autres pilotent des voitures.
Mais s’il y a un sens que la technologie peine encore à reproduire, c’est bien le toucher. Ce sens primaire, intime, qui relie l’humain à son environnement en continu…
Le problème, c’est que le toucher n’est pas qu’un « bonus sensoriel » : c’est la condition de base pour manipuler, interagir, doser.
Dans une chaîne industrielle, une main robotique sans retour tactile risque d’écraser un objet fragile.
En chirurgie assistée, l’absence de sensation peut mener à une erreur irréversible. Dans une prothèse, elle prive l’utilisateur de toute connexion sensorielle avec le monde.
« Une IA sans peau, c’est un cerveau sans corps ». L’image peut sembler brutale, mais elle résume un retard criant : la robotique a trop longtemps ignoré le besoin d’incarner ses machines.
Une peau électronique, un seul matériau
Ce retard, Cambridge est bien décidé à le rattraper. Avec l’UCL, une équipe de chercheurs vient de développer une peau électronique souple, composée d’un seul matériau.
Une sorte de gant semi-gélatineux qui recouvre une main robotique… et la rend capable de sentir.
Leur secret ? Un hydrogel conducteur, souple, bon marché, et surtout multifonction. Là où les anciennes peaux artificielles multipliaient les couches, les capteurs et les câblages, ce nouveau modèle fusionne toutes les fonctions dans un seul matériau.
Fini les patchworks électroniques : ici, la peau elle-même est le capteur. Elle ressent la pression, la chaleur, une coupure, une déformation.
Chaque contact modifie subtilement la conductivité interne du gel, un peu comme quand un frisson traverse notre épiderme.
Et le plus impressionnant, c’est que ce système ne repose sur aucun circuit rigide. Aucun composant fragile ou coûteux. Juste de la science des matériaux, de l’ingéniosité… et une belle dose de machine learning.
Une main robotique bardée de « nerfs électriques »
What if robots could really feel? 🤖🖐️@Cambridge_Eng researchers have developed a robotic 'skin' that allows robots to interact with the physical world in a more meaningful way.
The low-cost, durable material can take any shape and detect various types of touch – from taps and… pic.twitter.com/Up80WVJIDv
— Cambridge University (@Cambridge_Uni) June 11, 2025
Le principe est aussi élégant que redoutable : le gel conducteur est coulé directement autour d’une main robotique, comme une seconde peau.
À la base du « poignet », les chercheurs ont placé 32 électrodes. C’est peu… mais suffisant pour générer plus de 860 000 voies conductrices à travers le matériau.
Chaque contact (pression, chaleur, coupure) modifie les signaux électriques qui circulent dans cette matrice.
Et ces signaux sont ensuite analysés via une technologie appelée tomographie d’impédance électrique (EIT). Un peu comme un scanner miniature capable de cartographier, en temps réel, ce que ressent la peau.
Ainsi, la main robotique capte jusqu’à 1,7 million de points de données à chaque mouvement. Et grâce à l’apprentissage automatique, elle apprend à reconnaître ce qu’elle ressent : un effleurement, une pression appuyée, une déchirure nette…
On n’est plus dans le robot rigide qui « devine » ce qu’il touche. On entre dans une sensorialité robotique fluide, adaptative, presque animale.
Une sensibilité impressionnante (mais pas encore humaine)
Soyons clairs : cette peau artificielle ne concurrence pas encore la finesse d’un doigt humain. Elle détecte les pressions à partir de 0,7 newton, alors que nos récepteurs cutanés perçoivent des stimuli dix fois plus faibles.
Sa résolution spatiale atteint environ 12 mm. C’est bon, mais loin de notre millimétrique précision digitale. Et pourtant, à l’échelle robotique, c’est une claque.
La main robotique recouverte de ce gel est capable de reconnaître jusqu’à 6 points de contact simultanés, avec un taux de classification de 89 à 96 %.
Elle fait la différence entre une caresse, un pincement ou une coupure. Elle continue à fonctionner après avoir été pliée, étirée, chauffée à plus de 120 °C. Mieux : elle se répare après une coupure légère.
Et comme si ce n’était pas assez, cette peau est recyclable. Elle peut être fondue, reformée, et utilisée à nouveau.
Une rare combinaison de sensibilité, robustesse et durabilité, dans un seul matériau souple. Le tout pour un coût bien inférieur aux solutions traditionnelles, souvent complexes et fragiles…
Robots, prothèses, sécurité… des usages révolutionnaires
Cette peau robotique pourrait transformer des secteurs entiers. Dans l’industrie, elle permettrait aux bras mécaniques de manipuler des objets fragiles avec une finesse inédite.
Sa force pourrait être ajustée en temps réel. Fini les pièces brisées, les produits mal saisis, les erreurs coûteuses.
Dans la robotique médicale, les machines vont devenir capables de travailler au contact de l’humain : aide aux personnes âgées, exosquelettes réactifs, chirurgie assistée… Une peau sensible, c’est un robot qui « fait attention ».
Pour les prothèses, c’est une révolution émotionnelle autant que fonctionnelle. En recréant une forme de sens du toucher, ces peaux pourraient rendre aux patients amputés une connexion sensorielle avec leur environnement.
Sentir la pression sur un objet, ressentir une température, détecter un choc… tout cela redevient envisageable.
Et demain ? Pourquoi pas des drones dotés d’une enveloppe sensible, capables d’explorer des zones à risque en réagissant au moindre contact ? Ou des surfaces intelligentes, capables de « sentir » l’environnement, dans l’automobile, le BTP, ou la défense.
On peut également imaginer facilement une application dans le domaine des « robots sexuels », avec des machines humanoïdes capables de satisfaire leur partenaire mieux que n’importe quel humain en prêtant une attention totale à ses sensations…
Un pas de plus vers des robots « vivants » ?
Il y a quelque chose de troublant dans cette peau. Elle ne va pas simplement rendre les robots plus performants : elle les rend plus crédibles. Plus incarnés. Presque vivants.
C’est la fameuse vallée de l’étrange (uncanny valley), ce moment où la ressemblance avec l’humain devient dérangeante.
Quand un robot commence à réagir comme une créature sensible, à ressentir la chaleur ou le danger, notre rapport émotionnel change.
Ce n’est plus une machine. C’est un « autre ». L’ajout du toucher transforme le robot en corps, pas seulement en outil.
Il peut alors déclencher de l’empathie, une réponse affective, une confusion morale. Un robot qui ressent… nous fait ressentir.
Alors oui, cette peau donne la chair de poule. Pas seulement par sa technologie, mais par ce qu’elle annonce : un futur où le contact avec l’IA ne sera plus froid et distant. Mais tactile.
La vraie question n’est peut-être plus : « Que peut sentir un robot ? », mais bien : « Qu’allons-nous ressentir, nous, face à lui ? »…
Et vous, qu’en pensez-vous ? Serez-vous davantage troublé par un robot ressemblant à s’y méprendre à un humain, capable de ressentir ? Quels sont les cas d’usage qui vous semblent le plus prometteur pour cette peau artificielle ? Partagez votre avis en commentaire !
Cet article Les robots ont maintenant une peau, et ça donne la chair de poule a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Meta dévoile V-JEPA 2 : l’IA qui permet aux robots de comprendre notre monde
V-JEPA 2, une nouvelle IA, apprend aux robots à prédire, planifier et interagir avec leur environnement à partir de vidéos brutes. Et ce, sans données annotées. Le 11 juin 2025, Meta présente Video Joint Embedding Predictive Architecture (V-JEPA) 2. Cette IA apprend aux robots des concepts essentiels comme la gravité ou le mouvement. Cela leur permet de prédire, de planifier et d’agir dans des nouvelles situations de manière plus fluide, à l’image de l’humain. Une IA qui apprend comme les
Meta dévoile V-JEPA 2 : l’IA qui permet aux robots de comprendre notre monde
V-JEPA 2, une nouvelle IA, apprend aux robots à prédire, planifier et interagir avec leur environnement à partir de vidéos brutes. Et ce, sans données annotées.
Le 11 juin 2025, Meta présente Video Joint Embedding Predictive Architecture (V-JEPA) 2. Cette IA apprend aux robots des concepts essentiels comme la gravité ou le mouvement. Cela leur permet de prédire, de planifier et d’agir dans des nouvelles situations de manière plus fluide, à l’image de l’humain.
Une IA qui apprend comme les humains
V-JEPA 2 permet aux robots de comprendre, prédire et planifier dans le monde physique. Contrairement aux IA traditionnels, ce modèle mondial s’appuie sur des clips vidéo montrant des interactions réelles. Des séquences simples, comme une balle tombant d’une table ou un objet se déplaçant sur une surface plane.
Meta announces V-JEPA
— AK (@_akhaliq) February 15, 2024
a method for teaching machines to understand and model the physical world by watching videos pic.twitter.com/p62mYsbsTH
Ce modèle, doté de 1,2 milliard de paramètres, apprend des concepts de mouvement de manière autonome. Il saisit des notions fondamentales telles que la gravité, le déplacement ou la présence d’obstacles, sans recourir à des données étiquetées.
En opérant dans un espace latent simplifié, cette IA traite l’information plus rapidement et s’adapte à des situations inédites. V-JEPA 2 a déjà fait ses preuves en laboratoire, où des robots ont réussi à saisir des objets inconnus et à les placer dans de nouveaux environnements.
V-JEPA 2 rend les robots plus autonomes
Ce modèle mondial donne aux automates la capacité de planifier leurs actions même dans des environnements qu’ils ne connaissent pas. Ce modèle ouvre la voie à des applications concrètes, comme des robots livreurs ou des véhicules autonomes capables de s’adapter au terrain.
Grâce à cette IA, les automates peuvent anticiper les obstacles et prendre des décisions en temps réel avec fluidité et précision. « V-JEPA 2 représente un progrès significatif vers notre objectif ultime de développer une intelligence artificielle avancée (AMI) », a déclaré Meta.
La maison mère de Facebook a aussi publié trois benchmarks vidéo. Des outils essentiels pour mesurer l’habileté des IA à apprendre et à raisonner à partir de séquences visuelles. De plus, V-JEPA 2 est accessible sous licence MIT, encourageant la recherche et l’innovation.
Pour soutenir cette ambition, Meta a même investi 14 milliards de dollars dans Scale AI. Il reste à voir comment cette approche se positionnera face à d’autres projets comme Genie de Google DeepMind ou World Models de Fei-Fei Li.
Cet article Meta dévoile V-JEPA 2 : l’IA qui permet aux robots de comprendre notre monde a été publié sur LEBIGDATA.FR.
-
IA
-
Quatre start-up repérées à Viva Technology avec des solutions pour les industriels
Cette année encore des robots arpentent les allées du salon parisien Viva Technology pour séduire visiteurs et exposants. Nombreuses sont aussi...
Quatre start-up repérées à Viva Technology avec des solutions pour les industriels
-
LEBIGDATA.FR
-
Il bouge, il parle, il comprend : le robot français Buddy arrive chez vous !
Conçu pour comprendre, ressentir et interagir, le robot Buddy incarne une nouvelle génération d’intelligences artificielles physiques. Derrière ce petit humanoïde expressif se cache la startup parisienne Blue Frog Robotics, fondée en 2014. Leur ambition ? Créer des robots empathiques et accessibles pour une société plus inclusive. Présenté au CES 2017, Buddy a depuis conquis de multiples usages, notamment dans l’éducation. Son visage animé et sa gestuelle dynamique permettent d’établir un lie
Il bouge, il parle, il comprend : le robot français Buddy arrive chez vous !
Conçu pour comprendre, ressentir et interagir, le robot Buddy incarne une nouvelle génération d’intelligences artificielles physiques. Derrière ce petit humanoïde expressif se cache la startup parisienne Blue Frog Robotics, fondée en 2014. Leur ambition ? Créer des robots empathiques et accessibles pour une société plus inclusive.
Présenté au CES 2017, Buddy a depuis conquis de multiples usages, notamment dans l’éducation. Son visage animé et sa gestuelle dynamique permettent d’établir un lien émotionnel fort avec les enfants, les seniors ou tout usager interagissant avec lui. Le PDG de l’entreprise, Rodolphe Hasselvander, le décrit comme « un robot social capable de comprendre et d’exprimer des émotions de manière naturelle ».
L’éducation comme premier terrain d’expérimentation
Buddy a d’abord été déployé dans les écoles pour venir en aide aux enfants malades via la téléprésence. Depuis une tablette, l’élève peut prendre le contrôle du robot et suivre les cours depuis sa chambre d’hôpital. Grâce à sa caméra, ses micros et son visage expressif, l’enfant reste connecté à ses camarades, se déplace dans la classe et participe pleinement.
Cette interaction s’est ensuite étendue à d’autres domaines pédagogiques. Buddy initie les élèves à la programmation et à l’IA. Il est aussi présent dans certaines classes ULIS pour accompagner des enfants autistes. Selon le PDG, « ses interactions bienveillantes et ses applications dédiées contribuent à resociabiliser et motiver les enfants dans leur parcours éducatif ». L’Éducation nationale a déjà commandé 2 000 unités et d’autres pays européens pourraient bientôt suivre.
Un assistant polyvalent pour les humains
Le robot Buddy ne se limite pas à l’éducation. Il est aussi déployé dans des hôtels, des banques ou lors de salons professionnels, où il assure un accueil fluide et multilingue, disponible jour et nuit. Pour les personnes âgées, il devient un véritable compagnon du quotidien : il détecte les absences d’activité, engage la conversation, rappelle les rendez-vous et contribue à briser l’isolement.
Commercialisé sous forme d’abonnement, le robot bénéficie de mises à jour régulières, d’un support technique et d’un accompagnement personnalisé. Il sert également de plateforme de recherche dans de nombreux laboratoires spécialisés en IA, interaction homme-machine ou robotique sociale. L’entreprise travaille désormais sur des interactions encore plus fines, comme la détection contextuelle et la navigation sociale.
Une fabrication relocalisée et une ambition grand public
Blue Frog Robotics vise une production 100 % française. L’entreprise a initié des discussions avec une usine en Île-de-France afin de rapatrier l’assemblage de ses robots. Objectif : réduire les dépendances industrielles et augmenter sa réactivité.
Dans le même temps, elle s’apprête à lancer une offre de location pour démocratiser Buddy. À terme, un modèle destiné aux particuliers pourrait voir le jour. L’idée est claire : faire entrer l’intelligence artificielle physique dans les foyers et au cœur du quotidien.
Buddy sera présenté au salon VivaTech, prévu du 11 au 14 juin. Ce petit robot français au sourire lumineux portera fièrement une vision résolument humaine de la technologie, incarnant une IA au service de l’humain.
Cet article Il bouge, il parle, il comprend : le robot français Buddy arrive chez vous ! a été publié sur LEBIGDATA.FR.
-
IA
-
Trois start-up industrielles intègrent la dernière promotion du French Tech Next40
Quantique, bornes de recharges et aéronautique. Tel sont les secteurs des trois nouveaux entrants du French Tech Next40, présenté le 5 juin par...
Trois start-up industrielles intègrent la dernière promotion du French Tech Next40
-
Intelligence artificielle
-
Avec ses robots chiens, Rivr veut automatiser la livraison jusqu'à la porte d'entrée
Acheminer des colis jusqu'au paillasson des clients, sans recourir à un livreur pour les derniers mètres : c'est le pari de la start-up Rivr...
Avec ses robots chiens, Rivr veut automatiser la livraison jusqu'à la porte d'entrée
-
LEBIGDATA.FR

-
Un robot regarde un pull… et le reproduit : la révolution du tricot a commencé ?
Et si un robot pouvait reproduire un pull simplement à partir d’une photo ? Ce qui semblait impossible hier devient réalité. Des chercheurs de l’Université Laurentienne, au Canada, ont mis au point un système capable d’analyser une image de tissu et d’en générer automatiquement les instructions pour un tricot parfaitement fidèle. L’industrie textile s’apprête à vivre un grand bouleversement. Jusqu’ici, reproduire un motif textile à partir d’une image demandait un long travail manuel. Chaq
Un robot regarde un pull… et le reproduit : la révolution du tricot a commencé ?
Et si un robot pouvait reproduire un pull simplement à partir d’une photo ? Ce qui semblait impossible hier devient réalité.
Des chercheurs de l’Université Laurentienne, au Canada, ont mis au point un système capable d’analyser une image de tissu et d’en générer automatiquement les instructions pour un tricot parfaitement fidèle. L’industrie textile s’apprête à vivre un grand bouleversement.
Jusqu’ici, reproduire un motif textile à partir d’une image demandait un long travail manuel. Chaque point, chaque détail, devait être repéré puis converti en instructions pour des machines industrielles. Ce processus complexe rendait la personnalisation coûteuse et difficilement automatisable. Désormais, une IA peut s’en charger à la place. Le système commence par simplifier visuellement la photo du tissu en mettant en avant les mailles visibles. Cela permet à l’IA de détecter les formes et la logique du motif. Ensuite, elle génère des “étiquettes frontales” : ce sont des instructions lisibles par un robot tricoteur.
L’IA ne s’arrête pas aux éléments visibles, elle devine aussi la structure interne du tissu. Elle traduit les motifs en couches de mailles superposées, qu’elle convertit en langage machine pour guider la fabrication. Le résultat ? Un vêtement tricoté automatiquement par un robot, à partir d’une simple image, sans intervention humaine directe.
Les tests ont montré une efficacité remarquable. Sur plus de 5 000 échantillons analysés, le taux de fidélité dépasse les 97 %. Un chiffre impressionnant, surtout pour des motifs complexes et multicolores, parfois ignorés par les techniques classiques.
Une production textile accélérée et personnalisée
Les implications pour le secteur textile sont considérables. Grâce à cette technologie, une entreprise pourrait passer d’un visuel à un prototype prêt-à-porter en quelques heures. Cela permettrait une production à la demande, plus flexible, plus rapide et moins coûteuse. La personnalisation deviendrait accessible à grande échelle, même pour les motifs les plus complexes.
L’outil ouvre aussi une porte vers la préservation des traditions. Des motifs anciens, conservés dans des photos ou des archives, pourraient être reproduits fidèlement. C’est une façon de faire renaître des textiles oubliés sans les déformer. L’IA servirait alors d’interprète entre passé et présent. Elle rend accessibles des motifs rares ou complexes à une production moderne.
Des machines à tricoter, mais à quel prix humain ?
Automatiser la confection pose cependant des questions sociales. De nombreux pays, comme le Bangladesh ou l’Éthiopie, dépendent de la main-d’œuvre textile pour faire vivre des millions de familles. Si des robots prennent le relais, l’emploi pourrait en pâtir. Les chercheurs à l’origine du projet reconnaissent cet enjeu. Bien que centrés sur la performance technique, ils prévoient d’élargir leurs travaux pour étudier les effets économiques de l’automatisation.

Le potentiel de cette technologie est immense. Vitesse de production, personnalisation, accessibilité des motifs rares : les bénéfices sont évidents. Mais cette transformation ne peut se faire sans réflexion. La priorité sera de trouver un équilibre. Automatiser sans exclure, innover sans remplacer brutalement, c’est dans cette nuance que se jouera l’avenir du textile. Les robots ne feront pas que tricoter des pulls : ils tisseront aussi des enjeux sociaux.
Cet article Un robot regarde un pull… et le reproduit : la révolution du tricot a commencé ? a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Faites danser n’importe quel robot juste en lui parlant ! Découvrez l’IA MotionGlot
L’IA MotionGlot traduit le langage naturel en commandes de mouvement compréhensibles et exécutables par les robots. À Providence, Rhode Island – Des chercheurs de l’Université Brown ont développé un modèle d’IA nommé MotionGlot. Cet outil permet de contrôler le mouvement de robots et de personnages numériques à l’aide de simples instructions textuelles. L’innovation simplifie la commande des machines, une avancée utile en robotique, animation et réalité virtuelle. L’IA MotionGlot traduit u
Faites danser n’importe quel robot juste en lui parlant ! Découvrez l’IA MotionGlot
L’IA MotionGlot traduit le langage naturel en commandes de mouvement compréhensibles et exécutables par les robots.
À Providence, Rhode Island – Des chercheurs de l’Université Brown ont développé un modèle d’IA nommé MotionGlot. Cet outil permet de contrôler le mouvement de robots et de personnages numériques à l’aide de simples instructions textuelles. L’innovation simplifie la commande des machines, une avancée utile en robotique, animation et réalité virtuelle.
L’IA MotionGlot traduit un texte en mouvement
Un robot humanoïde, un quadrupède ou un personnage animé ne se déplacent pas de la même manière. Même une action aussi simple que marcher diffère selon la morphologie.
Jusqu’à récemment, les systèmes intelligents peinaient à généraliser une instruction à des types de corps variés. L’IA MotionGlot relève ce défi posé par la diversité des corps robotiques.
Ce modèle interprète une instruction comme un traducteur passe de l’anglais au chinois. Des commandes textuelles, telles que « avancer et tourner à gauche », deviennent une séquence de mouvements adaptée à la structure physique du robot ou de l’avatar.
Pour y parvenir, les chercheurs ont adopté une approche inspirée des LLM, similaires à ceux qui alimentent les générateurs de texte. L’IA MotionGlot décompose les mouvements en unités élémentaires, nommées « jetons de mouvement », comparables aux mots dans une phrase.
En prédisant la suite de ces jetons, le modèle produit des actions fluides et naturelles. Par exemple, « marcher joyeusement » se traduit par des pas rythmés pour un humanoïde ou un trottinement vif pour un quadrupède.
Entraînement sur des données variées
L’entraînement de l’IA MotionGlot repose sur deux ensembles de données. La première, QUAD-LOCO, contient des mouvements de robots quadrupèdes annotés. Le second, QUES-CAP, inclut des mouvements humains associés à des descriptions textuelles.
Ces données permettent à MotionGlot de comprendre comment une même intention varie selon le corps. Lors des tests, cette IA a démontré une remarquable flexibilité.
Le modèle exécute aussi bien des ordres précis (« reculer, puis tourner ») que des demandes vagues (« faire du cardio »), avec des réponses adaptées au contexte.
Les applications potentielles de MotionGlot sont vastes, de la robotique aux jeux vidéo en passant par les animations. Cependant, cet outil présente des limites.
Le modèle a été testé sur des données contrôlées, nécessitant ainsi davantage d’informations pour être pleinement déployable à grande échelle.
Naturellement, les chercheurs souhaitent rendre MotionGlot accessible au public. Le projet bénéficie déjà du soutien de l’Office of Naval Research. Cette recherche sera présentée à la Conférence internationale sur la robotique et l’automatisation 2025, du 19 au 23 mai à Atlanta.
Cet article Faites danser n’importe quel robot juste en lui parlant ! Découvrez l’IA MotionGlot a été publié sur LEBIGDATA.FR.
-
Intelligence artificielle
-
Amazon dévoile Vulcan, un robot doté du sens du toucher pour ses entrepôts logistiques
À l'occasion de sa conférence la semaine dernière à Dortmund (Allemagne), Amazon a présenté Vulcan, le dernier-né de sa famille de robots. À la...
Amazon dévoile Vulcan, un robot doté du sens du toucher pour ses entrepôts logistiques
-
IA
-
Hugging Face s’empare de la pépite française de la robotique Pollen Robotics, un rapprochement naturel
Deux acteurs de l’open source rapprochent. La start-up franco-américaine Hugging Face a annoncé le 14 avril l’acquisition de la pépite française...
Hugging Face s’empare de la pépite française de la robotique Pollen Robotics, un rapprochement naturel
-
Intelligence artificielle
-
[Vidéo] Boston Dynamics montre les nouvelles capacités acrobatiques de son robot Atlas
Boston Dynamics publie une nouvelle vidéo démontrant les progrès réalisés par son robot Atlas (dans sa version revue et améliorée). Tout...
[Vidéo] Boston Dynamics montre les nouvelles capacités acrobatiques de son robot Atlas
-
LEBIGDATA.FR
-
Google dévoile Gemini Robotics : l’IA qui transforme n’importe quel robot en génie !
Google a décidé d’insuffler son IA Gemini dans les robots humanoïdes, afin de leur servir de cerveau et de leur permettre de répondre aux prompts par des actions ! Découvrez tout ce qu’il faut savoir sur cet incroyable projet ! Il y a quelques jours, l’entreprise chinoise Unitree a créé le buzz sur le web avec son robot humanoïde G1. Dans une vidéo, on peut voir que le robot maîtrise désormais le Kung-Fu et peut désarmer un humain à l’aide d’un coup de pied retourné. Quelques mois auparava
Google dévoile Gemini Robotics : l’IA qui transforme n’importe quel robot en génie !
Google a décidé d’insuffler son IA Gemini dans les robots humanoïdes, afin de leur servir de cerveau et de leur permettre de répondre aux prompts par des actions ! Découvrez tout ce qu’il faut savoir sur cet incroyable projet !
Il y a quelques jours, l’entreprise chinoise Unitree a créé le buzz sur le web avec son robot humanoïde G1. Dans une vidéo, on peut voir que le robot maîtrise désormais le Kung-Fu et peut désarmer un humain à l’aide d’un coup de pied retourné.
Quelques mois auparavant, Elon Musk avait marqué les esprits lors de l’événement We, Robot avec son armada de robots Tesla Optimus servant des verres et interagissant avec les visiteurs.
N’oublions pas non plus les robots Boston Dynamics, capables de danser ou de faire des acrobaties avec une agilité à faire rougir les humains les plus habiles.
Physiquement, il est clair que les robots ont atteint un haut niveau. Cependant, il ne s’agit encore que de coquilles vides, uniquement capables de répondre à des instructions simples, de répéter les mêmes tâches ou de bouger sous le contrôle d’un opérateur humain.
?ref_src=twsrc%5Etfw">March 12, 2025Meet Gemini Robotics: our latest AI models designed for a new generation of helpful robots. 🤖
Based on Gemini 2.0, they bring capabilities such as better reasoning, interactivity, dexterity and generalization into the physical world. 🧵 https://t.co/EXRJrmxGxl pic.twitter.com/MeEkRLomXm
— Google DeepMind (@GoogleDeepMind)
La prochaine étape est de leur insuffler une intelligence artificielle, afin de leur permettre de se mouvoir de façon autonome et délibérée en fonction du contexte.
Nous vous avons déjà parlé de GR00T, l’IA créée par NVIDIA pour servir de cerveau à tous les robots, ou encore de la startup Skild AI qui développe un cerveau universel pour tous les robots.
À présent, c’est au tour de Google d’annoncer son projet fou : incorporer l’IA Gemini 2.0 dans les robots. La firme dévoile deux nouveaux modèles IA qui « posent les fondations pour une nouvelle génération de robots utiles ».
Deux IA pour permettre aux robots d’agir intelligemment
Le premier est Gemini Robotics : un modèle vision-langage-action (VLA) basé sur Gemini 2.0. Cette version ajoute les actions physiques en guise de réponses aux prompts.
Ainsi, là où Gemini sur un smartphone Pixel se contente de répondre à une question ou de générer du texte, Gemini Robotics sur un robot peut réagir en effectuant une action physique.
Le second modèle est Gemini Robots-ER. Il s’agit d’un modèle vision-langage (VLM) doté d’une « compréhension spatiale avancée ».
Ceci permet à l’IA Gemini de naviguer dans son environnement à mesure qu’il change en temps réel, grâce au « raisonnement incarné ».
Dans une vidéo d’exemple, présentée aux journalistes, le robot doté de cette intelligence artificielle est capable de distinguer des bols de différentes couleurs sur une table.
Il parvient aussi à faire la différence entre des faux fruits, tels que des grappes de raisin et des bananes, et à les regrouper dans les différents bols.
En bref, Google DeepMind a l’intention de faire de Gemini une sorte de cerveau pour l’industrie de la robotique. La même IA que vous utilisez sur votre PC ou votre smartphone va permettre à une machine de penser et d’agir !
Vers une rébellion des robots contre les humains ?
Si vous craignez que ces robots autonomes décident de vous attaquer, rassurez-vous : Google explique avoir permis au modèle IA d’estimer si une action peut présenter des risques en fonction du contexte.
La firme s’est notamment basée sur des frameworks comme le dataset ASIMOV, qui aide les chercheurs à mesurer les implications de sécurité des actions robotiques dans des situations du monde réel.
Une collaboration avec des experts va aussi permettre de s’assurer de développer les applications IA de façon responsable et sécurisée.
Google s’allie aux constructeurs pour créer des robots Gemini
La directrice de la robotique chez DeepMind, Carolina Parada, explique que « nous comptons explorer les capacités de nos modèles et continuer à les développer sur le chemin vers les applications du monde réel ».
Par ailleurs, Google annonce un partenariat avec des constructeurs de robots comme Apptronik dans le but de « construire la prochaine génération de robots humanoïdes ».
Le modèle Gemini Robots-ER va être mis à disposition des partenaires pour qu’ils puissent le tester. Parmi les entreprises choisies, on compte Agile Robots, Agility Robots, Boston Dynamics, et le Français Enchanted Tools.
Toutefois, aucune date de lancement n’a été évoquée pour le moment pour les robots Google Gemini…
?ref_src=twsrc%5Etfw">March 12, 2025This is wild.
— Min Choi (@minchoi)
Google just unleashed Gemini Robotics, bringing AI into the physical world.
Robots can now see, think, and ACT in real-time.
10 mind-blowing things Gemini Robotics can do: pic.twitter.com/Bj8nfND0FW
Alors, que pensez-vous de ce projet de Google ? L’IA Gemini est-elle suffisamment avancée pour servir de cerveau à des robots humanoïdes ? S’agit-il selon vous d’une bonne idée ? Partagez votre avis en commentaire !
Cet article Google dévoile Gemini Robotics : l’IA qui transforme n’importe quel robot en génie ! a été publié sur LEBIGDATA.FR.
-
IA
-
Le robot chien de la société landaise Evotech fait le show au Salon de l'agriculture
Au Salon de l’agriculture, un robot chien vole la vedette aux vaches, lapins et autres animaux vivants. Conçu par l’entreprise landaise...
Le robot chien de la société landaise Evotech fait le show au Salon de l'agriculture
-
LEBIGDATA.FR
-
1X dévoile Neo Gamma : le 1er robot grand public qui vous sert le café et fait le ménage
La startup norvégienne 1X dévoile le Neo Gamma, nouvelle version de son prototype de robot humanoïde conçu pour le grand public ! Dans un avenir proche, ce robot pourra s’occuper de faire le ménage dans votre foyer et sera aux petits soins pour vous servir. Découvrez la vidéo de démonstration qui nous offre un aperçu de ce futur ! Si les aspirateurs et tondeuses robots ont conquis le cœur des Français, il ne s’agit que d’un début. La prochaine étape est celle des robots humanoïdes : des machi
1X dévoile Neo Gamma : le 1er robot grand public qui vous sert le café et fait le ménage
La startup norvégienne 1X dévoile le Neo Gamma, nouvelle version de son prototype de robot humanoïde conçu pour le grand public ! Dans un avenir proche, ce robot pourra s’occuper de faire le ménage dans votre foyer et sera aux petits soins pour vous servir. Découvrez la vidéo de démonstration qui nous offre un aperçu de ce futur !
Si les aspirateurs et tondeuses robots ont conquis le cœur des Français, il ne s’agit que d’un début. La prochaine étape est celle des robots humanoïdes : des machines à forme humaine qui seront capables de vous servir et d’effectuer toutes les corvées dans votre foyer !
Ces robots ont déjà commencé à envahir les usines, à l’instar du Figure 01 qui assemble des BMW ou de Tesla qui a déployé son propre robot Optimus sur ses chaînes de montage automobiles.
Toutefois, à plus long terme, la promesse est que le prix de ces robots diminue suffisamment pour que n’importe qui puisse en posséder un chez soi. Selon Elon Musk, à terme, il sera possible d’en acheter un pour environ 10 000 dollars.
Focalisé sur ce futur marché des humanoïdes grand public, la startup norvégienne 1X avait dévoilé son robot Neo Beta en août 2024. Nous avions pu découvrir une vidéo de présentation qui mettait en scène une femme aux côtés de son robot personnel.
À présent, le 21 février 2025, 1X vient de dévoiler la nouvelle évolution de sa machine bipède : le Neo Gamma.
Comme ses prédécesseurs, il s’agit d’un prototype conçu pour être testé au sein d’un environnement domestique. Cependant, la vidéo de présentation est tout simplement bluffante.
On peut le voir effectuer une large diversité de tâches ménagères : servir le café, accrocher un cadre, s’occuper du linge, laver les vitres, porter les courses, passer l’aspirateur…
Un robot en costume de tissu pour vous servir à la maison
Tout comme le Neo Beta, le Gamma présente un design amical et porte un costume cousu de nylon tricoté. L’objectif est à la fois d’offrir une présence chaleureuse dans le domicile, et de réduire le risque de blessures lors du contact avec les humains.
Contrairement aux autres robots humanoïdes comme ceux d’Agility, Figure, Apptronik, Boston Dynamics, Figure ou Tesla, 1X ne priorise pas les usines ou les entrepôts et se focalise au contraire sur un déploiement auprès du grand public.
Ainsi, outre son revêtement de tissu, le Gamma embarque un système IA lui permettant d’être conscient de son environnement afin d’éviter de blesser les gens ou d’abîmer la propriété.
En cas de danger, les humains pourront aussi prendre contrôle du robot à distance via la téléopération. Tous ces éléments visent à en faire un robot plus sûr.
L’intelligence incarnée, une priorité pour 1X
NEO Gamma pic.twitter.com/HvkZC5tasa
— 1X (@1x_tech) February 24, 2025
Parallèlement à sa stratégie atypique, 1X a aussi attiré l’attention par le soutien que lui a apporté un géant de l’industrie de l’IA. Il s’agit tout simplement d’OpenAI, le créateur de ChatGPT.
Beaucoup considèrent que « l’intelligence incarnée » est la prochaine étape dans l’évolution de l’IA, et un robot comme 1X Neo pourrait bien servir de corps à ChatGPT.
La firme américaine avait aussi noué un partenariat avec Figure, mais ce dernier a récemment mis fin à cette alliance pour se focaliser sur le développement de sa propre IA Helix. De son côté, OpenAI compte également créer ses propres robots.
L’IA générative est l’une des clés pour l’évolution des robots humanoïdes, car elle peut permettre des interactions en langage naturel entre les humains et les robots. Tout comme Figure, 1X développe ses propres modèles IA pour améliorer à la fois le langage oral et corporel de ses humanoïdes.
En janvier 2025, 1X a d’ailleurs acquis la startup californienne Kind Humanoid dans le but d’améliorer son intelligence artificielle.
Vers une commercialisation du 1X Neo ?
Introducing NEO Gamma.
Another step closer to home. pic.twitter.com/Fiu2ohbIiP— 1X (@1x_tech) February 21, 2025
Selon 1X, ce robot va bientôt sortir du laboratoire et être testé au sein de véritables maisons. Cependant, la startup précise que le déploiement commercial est encore très loin.
Pour cause, afin de rencontrer le succès, un robot domestique doit être à la fois utile, fiable, abordable et sécurisé.
D’autant que les personnes âgées seront sans doute la principale cible commerciale, puisque plus susceptibles d’avoir besoin d’une assistance à domicile.
Or, pour le moment, la technologie n’est pas suffisamment avancée sur ces points. Il sera nécessaire que le robot devienne plus agile physiquement, mais aussi que son IA soit assez avancée pour qu’il comprenne réellement son environnement et les conséquences potentielles de ses actions…
On ignore pour le moment combien de Neo Gamma ont été et seront produits. Toutefois, cette vidéo de présentation nous offre un bel aperçu d’un futur où les robots seront nos majordomes et nous permettront de vivre un quotidien plus apaisé, débarrassé des corvées ménagères…
Et vous, qu’en pensez-vous ? Êtes-vous pressé d’avoir votre propre robot humanoïde ? Quelles sont les corvées et autres tâches du quotidien que vous rêvez de pouvoir confier à une machine ? Partagez votre avis en commentaire !
Cet article 1X dévoile Neo Gamma : le 1er robot grand public qui vous sert le café et fait le ménage a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Figure dévoile Helix : une IA qui pense comme un humain pour les robots !
La startup Figure dévoile Helix, une IA permettant aux robots de réagir aux consignes en langage naturel et de manipuler des objets qu’ils n’ont jamais vus auparavant. Une avancée majeure, qui va permettre aux robots de s’occuper des corvées ménagères dans votre logement ! En avril 2024, la startup californienne Figure s’était illustrée avec son robot 01 servant de corps à ChatGPT lors d’une démonstration. Toutefois, la firme a annoncé la fin de son partenariat avec OpenAI début février 2025.
Figure dévoile Helix : une IA qui pense comme un humain pour les robots !
La startup Figure dévoile Helix, une IA permettant aux robots de réagir aux consignes en langage naturel et de manipuler des objets qu’ils n’ont jamais vus auparavant. Une avancée majeure, qui va permettre aux robots de s’occuper des corvées ménagères dans votre logement !
En avril 2024, la startup californienne Figure s’était illustrée avec son robot 01 servant de corps à ChatGPT lors d’une démonstration. Toutefois, la firme a annoncé la fin de son partenariat avec OpenAI début février 2025.
Elle avait alors déclaré avoir « atteint une avancée majeure vers un robot IA entièrement développé en interne » et s’était dit « excitée de révéler quelque chose que personne n’a jamais vu dans l’industrie de l’humanoïde d’ici les 30 prochains jours ».
Le voile a enfin été levé, puisque ce mystérieux projet vient d’être révélé ce 20 février 2025. Il s’agit d’Helix, un modèle Vision-Langage-Action généraliste.
L’IA qui permet aux robots de saisir des objets inconnus
Ce modèle unifie la perception, la compréhension du langage, et le contrôle pour surmonter les défis de la robotique. Selon Brett Adcock, fondateur de Figure, il s’agit de la plus grande avancée IA de l’histoire de son entreprise.
Selon lui, « Helix pense comme un humain ». Il est capable de comprendre le discours, de raisonner à travers des problèmes, et de saisir n’importe quel objet sans avoir besoin d’entraînement ou de code.
Il va permettre « d’apporter les robots dans les foyers » grâce à sa capacité à « généraliser à virtuellement n’importe quel objet de la maison ». Lors des tests, il est parvenu à saisir tous les objets même sans les avoir vus auparavant.
Le CEO explique que l’entreprise « a travaillé sur ce projet pendant plus d’un an, dans le but d’atteindre la robotique générale ».
Comment Helix repousse les limites de la robotique ?
Meet Helix, our in-house AI that reasons like a human
Robotics won't get to the home without a step change in capabilities
Our robots can now handle virtually any household item: pic.twitter.com/Wsx5s8Qelc
— Figure (@Figure_robot) February 20, 2025
Toujours selon Figure, Helix introduit une approche innovante de contrôle des manipulations du haut du corps incluant les poignets, le torse, la tête et les doigts individuels.
Il offre un contrôle continu à haut débit de l’ensemble du haut du corps humanoïde, et ce niveau de contrôle permet des mouvements et des interactions plus nuancés.
Un autre aspect important d’Helix est sa capacité à contrôler plusieurs robots simultanément pour les faire collaborer. Il peut contrôler deux robots à la fois, leur permettant de travailler ensemble sur des tâches de manipulation à long terme impliquant des objets qu’ils n’ont jamais vus.
Cette capacité élargit largement les possibilités offertes par la robotique au sein d’environnements complexes. Les robots équipés d’Helix comprennent aussi les prompts en langage naturel, ce qui facilite leurs interactions.
Par ailleurs, l’approche d’Helix se démarque par l’utilisation d’un ensemble unique de poids de réseau de neurones pour apprendre différents comportements. Il peut s’agir par exemple d’attraper et de placer un objet, d’utiliser un tiroir ou un frigo, ou d’interagir entre robots.
Ceci élimine le besoin d’un fine-tuning spécifique pour chaque tâche, et fluidifie fortement le processus d’apprentissage.
Notons enfin qu’Helix fonctionne sur des GPU intégrés à faible puissance, ce qui le rend adapté à un déploiement commercial et à une utilisation dans le monde réel…
Un VLM basé sur un système de pensée et un système d’action
Comme l’explique Figure, les systèmes robotiques actuels peinent à s’adapter rapidement à de nouvelles tâches. Ils nécessitent une programmation à partir de nombreuses démonstrations.
Pour surmonter cette limite, la startup a utilisé les capacités des modèles VLM (Vision Langage Model) pour permettre aux robots de généraliser leurs comportements sur demande et d’effectuer des tâches via les instructions en langage naturel.
Ainsi, Helix est conçu pour contrôler toute la partie supérieure du corps d’un humanoïde avec vitesse et dextérité. Il regroupe le Système 1 (S1) et le Système 2 (S2).
Figure posted our first write-up today discussing Helix!
The report describes in-depth how we designed Helix including system architecture and additional tests not capture in the release video
LMK what you think!https://t.co/OpzVZZm0uI
— Brett Adcock (@adcock_brett) February 21, 2025
Le S2 est un VLM plus lent, pré-entraîné sur internet, qui se focalise sur la compréhension des scènes et du langage.
De son côté, S1 est une politique visuomotrice rapide qui convertit les informations provenant de S2 en actions en temps réel du robot. Cette division permet à chaque système d’opérer de façon optimale : S2 pour le traitement de pensée, et S1 pour l’exécution rapide.
Ainsi, « Helix résout plusieurs problèmes auxquels ont été confrontées les précédentes approches robotiques, notamment la vitesse d’équilibrage et la généralisation, la scalabilité pour gérer des actions à haute dimension, et la simplicité architecturale en utilisant des modèles standards ».
De plus, la séparation en S1 et S2 permet des améliorations indépendantes pour chaque système, sans dépendre d’une observation ou d’un espace d’action partagés.
Pour entraîner Helix, un jeu de données d’environ 500 heures de comportements téléopérés a été collecté, en utilisant un VLM d’étiquetage automatique pour générer des instructions en langage naturel.
L’architecture implique un VLM à 7 milliards de paramètres et un Transformer à 80 millions de paramètres pour le contrôle. Les inputs visuels sont traités pour permettre un contrôle réactif basé sur les dernières représentations générées par le VLM.
Contrairement aux précédents systèmes robotiques, Helix peut générer des manipulations collaboratives habiles à la volée sans avoir besoin de démonstrations ou de programmation manuelle spécifiques à une tâche.
Il peut donc manipuler des milliers d’objets de différentes tailles, couleurs et matières dans votre domicile à l’aide d’une simple demande en langage naturel…
Un cerveau commun pour les robots du futur ?
Même si Helix représente une grande avancée pour la robotique, Figure n’est pas le premier à créer une telle IA conçue pour servir de cerveau aux robots humanoïdes.
En avril 2024, lors de la conférence GTC, Nvidia a présenté GR00T : une IA multimodale pouvant être incorporée à n’importe quel robot humanoïde.
De même, la startup Skild AI a levé des fonds importants pour développer un cerveau IA à usage général pour les robots et leur permettre de combiner plusieurs aptitudes comme la perception, la manipulation et le raisonnement.
En parallèle, OpenAI et Meta envisagent de développeur leurs propres robots humanoïdes pour servir de corps à leurs IA respectives telles que ChatGPT et Llama. On peut s’attendre à ce que d’autres géants de l’IA comme Google en fassent de même…
À terme, les robots humanoïdes seront dotés d’une intelligence artificielle suffisamment développée pour leur permettre d’interagir de façon naturelle et de collaborer avec l’humain !
Et vous, qu’en pensez-vous ? Êtes-vous impressionné par Helix ? Pensez-vous que les robots humanoïdes pourront bientôt rivaliser avec l’humain en termes d’intelligence et d’action ? Donnez-nous votre avis en commentaire !
Cet article Figure dévoile Helix : une IA qui pense comme un humain pour les robots ! a été publié sur LEBIGDATA.FR.
-
Intelligence artificielle
-
Figure AI progresse dans la robotique pour la maison avec son modèle Helix
Le fabricant américain de robots humanoïdes Figure avance ses pions. Son dernier modèle d'IA de type "vision-langage-action" (VLA) baptisé Helix...
Figure AI progresse dans la robotique pour la maison avec son modèle Helix
-
LEBIGDATA.FR
-
Protoclone : le 1er robot avec un squelette et des muscles, inspiré par Westworld !
Clone Robotics vient de dévoiler Protoclone V1 : un robot humanoïde doté de muscles et d’un squelette synthétiques. La startup s’est fixé pour ambition de créer des androïdes impossibles à distinguer de véritables humains, et ce prototype représente une étape majeure vers cet objectif ! Si une IA égalait l’intelligence humaine, qu’est-ce qui nous distinguerait des robots humanoïdes ? Vous pensez probablement à notre enveloppe corporelle, faite de chair et d’os. Toutefois, cette différence
Protoclone : le 1er robot avec un squelette et des muscles, inspiré par Westworld !
Clone Robotics vient de dévoiler Protoclone V1 : un robot humanoïde doté de muscles et d’un squelette synthétiques. La startup s’est fixé pour ambition de créer des androïdes impossibles à distinguer de véritables humains, et ce prototype représente une étape majeure vers cet objectif !
Si une IA égalait l’intelligence humaine, qu’est-ce qui nous distinguerait des robots humanoïdes ? Vous pensez probablement à notre enveloppe corporelle, faite de chair et d’os.
Toutefois, cette différence physique entre l’Homme et la machine pourrait elle aussi disparaître très rapidement…
Après avoir choqué l’industrie de la robotique avec sa main et son torse plus vrais que nature, la startup Clone Robotics vient de dévoiler sa dernière innovation : le Protoclone V1.
Plus qu’un robot, un humain synthétique
Il ne s’agit pas d’un simple robot humanoïde, comme le Tesla Optimus, mais d’un véritable humain synthétique. Cette fois, la startup a reproduit un corps tout entier avec 200 degrés de liberté, 1000 myofibrilles, et 500 capteurs.
Actuellement propulsé par la pneumatique, il passera bientôt à un système hydraulique. Son système synthétique imite la structure squelettique, musculaire, vasculaire et nerveuse du corps humain.
Contrairement à beaucoup de fabricants d’humanoïdes préservant une apparence robotique, Clone Robotics vise l’hyper-réalisme. Elle cherche à imiter toutes les caractéristiques physiques et comportementales de l’humain…
Le tout premier androïde musculosquelettique… ou presque
D’après Clone Robotics, il s’agit du tout premier androïde bipède musculosquelettique. Toutefois, en 2017, l’Université de Tokyo avait déjà créé le robot Kengoro.
Il s’agit néanmoins d’un projet de recherche, tandis que Clone Robotics a pour ambition de commercialiser son produit. Son objectif est de créer des androïdes pour effectuer des tâches du quotidien.
À long terme, ses robots devraient travailler de façon indépendante au sein d’environnements complexes. Ils pourront donc remplacer les travailleurs humains dans les métiers à haut risque.
Le point zéro de l’ère des androïdes
Selon Dhanush Radhakrishna, co-fondateur de la startup américano-polonaise, le Protoclone et son anatomie fidèle à l’humain incarnent le « point zéro de l’ère des androïdes ».
Il est le fruit d’un long cheminement, qui a commencé en 2021 lorsque Radhakrishna s’est associé avec l’ingénieur polonais Lukasz Kozlik pour créer l’entreprise. Depuis lors, ils poursuivent le but de reproduire l’anatomie humaine.
Ce nouveau robot a été dévoilé à travers une courte vidéo de 40 secondes sur le réseau social X. On peut voir l’androïde suspendu dans un atelier, effectuant des mouvements dynamiques pendant que son visage est caché derrière un masque noir.
Protoclone, the world's first bipedal, musculoskeletal android. pic.twitter.com/oIV1yaMSyE
— Clone (@clonerobotics) February 19, 2025
Les réactions des internautes vont de l’admiration au malaise. Selon Dar Sleeper de l’entreprise norvégienne 1X Technologies, soutenue par OpenAI, le Protoclone est à la fois « plus cool et plus effrayant » que prévu.
La firme s’apprête à produire 279 unités de ses androïdes Alpha en 2025, et les compare à des voitures de luxe en édition limitée. Ainsi, le prix n’est pas dévoilé publiquement pour le moment.
À l’avenir, Clone Robotics compte continuer à essayer de créer des robots impossibles à distinguer des humains jusqu’aux couches anatomiques les plus profondes…
Que pensez-vous de ce robot ? Êtes-vous impressionné par sa ressemblance avec un véritable humain ? Partagez votre avis en commentaire !
Cet article Protoclone : le 1er robot avec un squelette et des muscles, inspiré par Westworld ! a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Après Apple, Meta veut créer ses propres robots humanoïdes !
Meta Platforms se concentre également sur la création de robots humanoïdes IA. La société mère de Facebook aurait-elle peur de perdre du terrain face aux autres géants de la technologie ? Tout comme Apple, Tesla et Nvidia, Meta se lance dans l’aventure curieuse du secteur des robots humanoïdes IA. Le laboratoire Reality Labs aurait-il caché un prototype de ce projet depuis le début ? On ne le sait pas. Toutefois, Bloomberg révèle que Mark Zuckerberg envisage d’investir dans la création de rob
Après Apple, Meta veut créer ses propres robots humanoïdes !
Meta Platforms se concentre également sur la création de robots humanoïdes IA. La société mère de Facebook aurait-elle peur de perdre du terrain face aux autres géants de la technologie ?
Tout comme Apple, Tesla et Nvidia, Meta se lance dans l’aventure curieuse du secteur des robots humanoïdes IA. Le laboratoire Reality Labs aurait-il caché un prototype de ce projet depuis le début ? On ne le sait pas. Toutefois, Bloomberg révèle que Mark Zuckerberg envisage d’investir dans la création de robots humanoïdes alimentés par l’IA.
Pour commencer, les prototypes sont des assistants domestiques anthropomorphes, comme l’Optimus dévoilé par Tesla en décembre 2023. Ce premier produit grand public vise à simplifier les tâches ménagères souvent ingrates. Les assistants bipèdes de Meta pourraient bientôt porter les courses, coucher les enfants ou mettre la table. C’est en tout cas l’ambition des grands noms de la tech américaine qui misent gros sur ce domaine prometteur.
Les robots de Méta, conçus grâce à la collaboration
Meta ne cherche pas, pour l’instant, à produire des robots IA portant sa marque, contrairement à d’autres géants technologiques. Son objectif est d’imposer son logiciel aux machines développées par d’autres acteurs. La société mise sur une approche collaborative. Elle se focalise sur les logiciels et les algorithmes, le véritable « cerveau » des robots. Pour les composants physiques, Meta fait appel à d’autres entreprises. Bloomberg révèle ainsi que la société discute déjà avec Unitree Robotics et Figure AI, entre autres.
En parallèle, Meta prévoit de créer une nouvelle division au sein de Reality Labs. Une branche qui sera dirigée par Marc Whitten, ancien PDG de Cruise, spécialiste des voitures autonomes. La société mise sur l’IA pour concevoir des logiciels destinés à piloter des robots humanoïdes. Cette stratégie s’explique par le faible engouement autour du métavers, malgré un investissement de 50 milliards de dollars en quatre ans.
Ainsi, Reality Labs, réputée pour ses lunettes intelligentes Meta Ray-Ban — avec 1 million de paires écoulées — et ses avatars VR dotés de jambes, réoriente ses efforts vers l’IA. Pourtant, Meta estime que ces robots IA nécessitent encore plusieurs années pour atteindre maturité. Pour s’y prendre, la société veut utiliser son expertise en interaction humaine (acquise via VR/AR) pour développer des IA capables de mimicry humain. Un domaine dans lequel Mark Zuckerberg excelle déjà, selon Reuters.
Cet article Après Apple, Meta veut créer ses propres robots humanoïdes ! a été publié sur LEBIGDATA.FR.
-
IA
-
Exotec affine le pilotage de ses robots et des entrepôts… sans intelligence artificielle
Exotec fait évoluer sa solution d’entrepôt logistique robotisée. La licorne française a présenté le 6 février une nouvelle version de son...
Exotec affine le pilotage de ses robots et des entrepôts… sans intelligence artificielle
-
Intelligence artificielle
-
Genesis : le discret projet de moteur physique qui veut bousculer la robotique et l'IA
Chaque semaine, le monde merveilleux de l'IA voit émerger de nouveaux projets, plus intéressants les uns que les autres. Cette semaine, c'est...
Genesis : le discret projet de moteur physique qui veut bousculer la robotique et l'IA
-
Intelligence artificielle
-
Apptronik lève 350 millions de dollars pour déployer son robot humanoïde en entreprise
A l'ère de l'IA générative, la robotique a la cote. Preuve en est avec les différents chiffres annoncés par les analystes. La taille du marché...
Apptronik lève 350 millions de dollars pour déployer son robot humanoïde en entreprise
-
LEBIGDATA.FR
-
Apple va créer ses propres robots humanoïdes ! Êtes-vous prêt pour l’iRobot ?
Apple se prépare à créer son propre robot ! C’est ce que révèle l’analyste Ming-Chi Kuo, spécialisé dans les fuites d’information sur les projets de l’entreprise californienne. La prochaine révolution après l’iPhone ? Après les ordinateurs, téléphones, tablettes, montres, casques de réalité augmentée, et autres enceintes connectées, Apple va s’aventurer dans un nouveau domaine : les robots. C’est ce que révèle sur X le célèbre analyste Ming-Chi Kuo, connu pour révéler les projets de la
Apple va créer ses propres robots humanoïdes ! Êtes-vous prêt pour l’iRobot ?
Apple se prépare à créer son propre robot ! C’est ce que révèle l’analyste Ming-Chi Kuo, spécialisé dans les fuites d’information sur les projets de l’entreprise californienne. La prochaine révolution après l’iPhone ?
Après les ordinateurs, téléphones, tablettes, montres, casques de réalité augmentée, et autres enceintes connectées, Apple va s’aventurer dans un nouveau domaine : les robots.
C’est ce que révèle sur X le célèbre analyste Ming-Chi Kuo, connu pour révéler les projets de la Pomme en avant-première.
Apple is exploring both humanoid and non-humanoid robots for its future smart home ecosystem, and these products are still in the early proof-of-concept (POC) stage internally. While the industry debates the merits of humanoid vs. non-humanoid designs, supply chain checks…
— 郭明錤 (Ming-Chi Kuo) (@mingchikuo) February 12, 2025
D’après lui, les travaux d’Apple dans le domaine de la robotique sont encore au stade de « preuve de concept » précoce. Il rappelle aussi que le projet de voiture Apple Car a été abandonné à une étape similaire.
Un robot pour votre maison connectée
L’analyste explique que ce robot est pensé comme une partie d’un « futur écosystème de maison connectée ».
Il pourrait donc aussi bien s’agir d’un robot humanoïde conçu pour faire le ménage, que d’un écran connecté doté d’un bras mécanique.
Plusieurs fuites d’information antérieures semblent pencher vers cette seconde option. Néanmoins, si le grand public est réceptif, Apple pourrait envisager un robot plus ambitieux.
Apple a recréé la lampe de Pixar
Apple's Machine Learning Research team just gave us our first look at the possible upcoming tabletop robot which was reported by @markgurman pic.twitter.com/yjSTJaqg2i
— Aaron (@aaronp613) February 6, 2025
Quelques jours plus tôt, un document de recherche de la firme américaine s’intéressait aux interactions entre les humains et les robots « non-anthropomorphiques ». Plus précisément, une lampe semblable à la mascotte de Pixar.
Ce document se penche principalement sur les progrès effectués par Apple dans la recherche en robotique. Toutefois, il met aussi en lumière des éléments suggérant la future commercialisation d’un robot grand public…
Humanoïde… ou pas
Selon Kuo, l’utilisation du terme « non-anthropomorphique » vise à distinguer ce robot de la recherche sur les humanoïdes.
Il explique que « alors que l’industrie débat sur les mérites des designs humanoïdes contre non-humanoïdes, Apple semble davantage se soucier de la façon dont les utilisateurs construisent la perception des robots que de leur apparence physique »
On peut donc s’attendre à ce que ces robots reposent principalement sur le logiciel et le hardware de perception. Ces technologies occuperont une place centrale.
De manière générale, le terme « anthropomorphique » peut être appliqué à des systèmes robotiques par-delà ce que nous considérons habituellement comme humanoïde.
Ceci inclut notamment les systèmes influencés par des caractéristiques humaines, mais qui ne sont pas exactement des humanoïdes avec deux bras, deux jambes, et un visage.
Apple expérimenterait actuellement différents types de robots, allant de simples systèmes à des humanoïdes très complexes. Nul ne peut prédire à quoi ressemblera la version finale du « iRobot »…
La Pomme cherche à attirer les ingénieurs
Contrairement aux autres projets d’Apple comme l’iPhone pliable qui fait l’objet de nombreuses rumeurs, ces travaux dans la robotique sont étonnamment transparents.
Ceci s’explique par le fait que les progrès dans la robotique reposent sur les travaux des universités et autres institutions de recherche.
Au cours des dernières années, beaucoup d’entreprises du secteur de la robotique ont eu des difficultés à recruter suffisamment rapidement pour respecter leurs feuilles de route de lancement.
En publiant ses travaux de recherche, Apple s’offre un atout pour recruter des ingénieurs. C’est ce qui peut lui permettre de rivaliser avec Tesla qui prépare son Optimus, ou avec les startups spécialisées dans la robotique comme 1X ou Figure.
Prix et date de lancement du robot Apple
A l’heure actuelle, les constructeurs de robots humanoïdes sont confrontés à deux principaux points de friction.
Le premier est le prix. Or, Apple a déjà eu du mal à vendre son casque Vision Pro à 3499$. Le prix d’un robot risque d’être beaucoup plus élevé, et donc trop cher pour la plupart des consommateurs.
Le deuxième point de friction est la fiabilité, et la priorité des fabricants est d’ailleurs de parvenir à produire des robots industriels fiables à grande échelle.
Au fil du temps, ceci permettra de faire baisser les prix. Pour rappel, Elon Musk estime que les robots humanoïdes finiront par coûter entre 20 000 et 30 000 dollars environ.
En se basant sur « les progrès actuels et les cycles de développement typiques », Kuo estime que la production de masse du robot Apple pourrait débuter vers 2028…
Quoi qu’il en soit, après l’abandon de l’Apple Car et le lancement raté du Vision Pro et de l’IA Apple Intelligence, il semble clair qu’Apple va adopter une approche très prudente pour la robotique.
Même si la Pomme est connue pour populariser des catégories de produits existantes, on ne compte plus les échecs de robots domestiques et autres appareils de Smart Home…
Et vous, qu’en pensez-vous ? Un robot Apple peut-il rencontrer le succès ? Qu’attendriez-vous d’un tel produit ? Partagez votre avis en commentaire !
Cet article Apple va créer ses propres robots humanoïdes ! Êtes-vous prêt pour l’iRobot ? a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Hugging Face Pi0 vient d’apprendre le langage aux robots
Hugging Face et Physical Intelligence ont dévoilé Pi0 (Pi-Zero), un modèle innovant. Ce dernier permet aux robots de transformer des commandes en langage naturel en actions physiques. Hugging Face Pi0 apporte une nouvelle dimension à la robotique. Désormais, les machines comprennent et exécutent les instructions en langage naturel. Plus besoin de lignes de code complexes. Il suffit de parler, et le robot obéit. Comme ChatGPT a changé la génération de texte, Pi0 veut révolutionner l’interac
Hugging Face Pi0 vient d’apprendre le langage aux robots
Hugging Face et Physical Intelligence ont dévoilé Pi0 (Pi-Zero), un modèle innovant. Ce dernier permet aux robots de transformer des commandes en langage naturel en actions physiques.
Hugging Face Pi0 apporte une nouvelle dimension à la robotique. Désormais, les machines comprennent et exécutent les instructions en langage naturel.
Plus besoin de lignes de code complexes. Il suffit de parler, et le robot obéit. Comme ChatGPT a changé la génération de texte, Pi0 veut révolutionner l’interaction entre humains et robots.
Hugging Face Pi0 : un robot qui comprend le langage humain
Tout d’abord, il faut comprendre ce qui rend Pi0 unique. Je note qu’il ne s’agit pas d’un simple programme rigide, mais d’un véritable cerveau artificiel.
Développé par Physical Intelligence, ce modèle fonctionne sur LeRobot, une plateforme innovante qui traduit directement les mots en actions.
Je vous donne un exemple : dites-lui « Débarrasse la table », et il s’exécute aussitôt. C’est en réponse à la complexité des robots traditionnels que Pi0 a été conçu.
Jusqu’ici, les machines suivaient des instructions codées, sans réelle compréhension. Mais désormais, elles réagissent aux ordres comme un assistant humain.
D’ailleurs, Rémi Cadene, chercheur chez Hugging Face, l’affirme avec conviction dans un article sur X (anciennement Twitter) : « Pi0 est le modèle d’action en langage visuel le plus avancé ».
Ce n’est plus une simple IA qui apprend, c’est un système capable de comprendre et d’exécuter des tâches du quotidien !
⭐ The first foundational model available on @LeRobotHF ⭐
— Remi Cadene (@RemiCadene) February 4, 2025
Pi0 is the most advanced Vision Language Action model. It takes natural language commands as input and directly output autonomous behavior.
It was trained by @physical_int and ported to pytorch by @m_olbap
👇🧵 pic.twitter.com/WysqMN1xbk
Toutefois, il ne s’agit pas juste d’une prouesse technique. Pi0 s’appuie sur une base de données massive, enrichie grâce à sept plateformes robotiques et 68 tâches spécifiques. C’est ainsi que le modèle peut s’adapter à de multiples situations, en améliorant constamment ses performances.
C’est une technologie rapide, précise et adaptable
Au fait, comment Pi0 parvient-il à exécuter des actions aussi fluides ? Son secret réside dans une technologie révolutionnaire appelée flow matching.
Ce procédé permet aux robots de générer des mouvements naturels à une fréquence impressionnante de 50 Hz. C’est la raison pour laquelle ils peuvent réagir en temps réel, sans latence.
Une version améliorée, Pi0-FAST, a également été développée. Elle utilise un nouveau système de tokenisation appelé tokenisation de séquence d’action en espace de fréquence (FAST).
Grâce à cette technologie, Pi0-FAST s’entraîne 5 fois plus vite que la version classique et s’adapte mieux aux différents types de robots.
Pour information, Hugging Face Pi0 n’est pas réservé uniquement aux grandes entreprises, puisqu’il est disponible en open source.
Cela permet à tout un chacun de l’adopter et de l’ajuster en fonction de ses besoins. Et bien sûr, cette accessibilité favorise le développement de nouvelles applications et facilite l’intégration des robots dans différents secteurs.
En dépit de ses avancées, Pi0 présente encore certaines limites. Il a des difficultés avec des tâches très spécifiques et demande des ressources informatiques élevées.
Ces défis, cependant, ne ralentissent pas son adoption croissante, car chaque jour, de nouvelles optimisations lui permettent d’évoluer.
Que pensez-vous de cette avancée technologique ? Voyez-vous plutôt cette technologie comme un avantage ou un risque pour l’emploi humain ?
Cet article Hugging Face Pi0 vient d’apprendre le langage aux robots a été publié sur LEBIGDATA.FR.
-
Intelligence artificielle
-
Exotec redessine la gestion des commandes avec son nouveau système Skypod
Exotec, le concepteur français de solutions robotisées pour la gestion des entrepôts, a dévoilé jeudi 6 février Skypod Next Génération, la...
Exotec redessine la gestion des commandes avec son nouveau système Skypod
-
IA
-
Un coach de la NBA défie un robot basketteur dopé à l’IA : Qui gagne aux trois points ?
Vous pensez que l'intelligence artificielle ne sert qu'à trier vos spams ou à recommander des vidéos improbables sur YouTube ? Détrompez-vous....
Un coach de la NBA défie un robot basketteur dopé à l’IA : Qui gagne aux trois points ?
-
IA
-
Qui est Neura Robotics, la start-up allemande qui cherche à se faire une place dans la robotique ?
La robotique humanoïde n’en finit pas de séduire les investisseurs. Mi-janvier, la start-up allemande Neura Robotics a annoncé lever 120...
Qui est Neura Robotics, la start-up allemande qui cherche à se faire une place dans la robotique ?
-
LEBIGDATA.FR
-
Top des meilleurs robots présentés au CES 2025 : bienvenue dans le futur !
De nombreux robots ont été présentés lors du CES 2025. Du petit animal bionique de compagnie au robot humanoïde capable de travailler au sein des entreprises, découvrez les machines les plus spectaculaires du salon de l’électronique ! Après l’intelligence artificielle, les robots s’annoncent comme la prochaine révolution technologique. Sans surprise, ils étaient massivement présents lors CES 2025 ! À travers les machines exposées sur le célèbre salon de l’électronique de Las Vegas, l’indus
Top des meilleurs robots présentés au CES 2025 : bienvenue dans le futur !
De nombreux robots ont été présentés lors du CES 2025. Du petit animal bionique de compagnie au robot humanoïde capable de travailler au sein des entreprises, découvrez les machines les plus spectaculaires du salon de l’électronique !
Après l’intelligence artificielle, les robots s’annoncent comme la prochaine révolution technologique. Sans surprise, ils étaient massivement présents lors CES 2025 !
À travers les machines exposées sur le célèbre salon de l’électronique de Las Vegas, l’industrie nous a offert un aperçu de la façon dont cette innovation va transformer nos vies quotidiennes, aussi bien pour le travail que pour le divertissement.
Afin de savoir ce qui vous attend dans un futur proche, nous vous proposons de découvrir les robots les plus impressionnants, insolites ou novateurs dévoilés lors de l’événement !
Mi-Mo : la table basse robot qui parle et se déplace
Basée à Tokyo, la startup Jizai a dévoilé Mi-Mo. Ce robot atypique semble être un croisement entre une table de chevet et une araignée.
Elle est dotée de capacités sensorielles telles que des yeux, une bouche et des oreilles. Ceci lui permet de communiquer avec les utilisateurs de façon naturelle.
Pour l’heure, il s’agit donc principalement d’un compagnon de conversation conçu pour s’engager avec des gens de tous les âges (y compris vos enfants).
Elle est aussi pourvue de jambes, qui lui permettent de se déplacer. À l’avenir, Mi-Mo pourra faire office d’assistant personnel en s’étoffant de nouvelles fonctionnalités.
Le but de ce produit est de démocratiser l’intelligence artificielle au sein de la société, d’habituer les humains à communiquer avec l’IA et à l’adopter dans leur quotidien !
Roborock Saros Z70 : le 1er aspi avec un bras pour ramasser les chaussettes qui traînent
Également présent au CES 2025, le champion des aspirateurs robots, Roborock, a dévoilé son nouveau modèle Saros Z70.
Il s’agit du premier aspirateur produit en masse doté d’un bras robot intelligent déployable. Ce bras robotique à cinq axes OmniGrip utilise des capteurs, une caméra et une lumière LED.
L’aspirateur Z70 embarque le système de navigation et de cartographie StarSight Autonomous System 2.0 de Roborock, qui combine une tour de capture de distance laser Laser Distance Sensor (LDS) avec des capteurs 3D Time-of-Flight et des caméras RGB basées sur l’IA.
Ceci lui permet de détecter 108 types d’obstacles différents. Dès que le robot perçoit un obstacle, le bras peut s’étendre pour saisir et déplacer des objets d’un poids maximal de 300 grammes : serviettes, chaussettes, mouchoirs, jouets…
Lors de mon test du Roborock Q Revo Master, l’un des principaux inconvénients que j’ai constatés est que le moindre objet qui traîne sur le sol se bloque dans les brosses et provoque une erreur.
Ce bras robotique est donc une très bonne nouveauté, car vous n’aurez plus besoin de ramasser tous les objets de votre logis avant de lancer un nettoyage !
Par ailleurs, le Z70 propose une puissance d’aspiration de 22000 Pa parmi les plus élevées du marché, un système anti-emmêlage, la brosse principale FreeFlow et la brosse latérale FlexiArm Riser.
SenseRobot Chess : le robot qui va vous défoncer aux échecs
AI-powered SenseRobot Chess, showcased at CES 2025, combines smart robotics and advanced strategy, offering adaptive gameplay, training tools, and precision for all skill levels.#CES #CES2025 #SmartRobotics #AIChess #ChessInnovation #SenseRobotChess pic.twitter.com/qpn0N70taX
— Interesting Engineering (@IntEngineering) January 8, 2025
Ce robot révolutionne le jeu d’échecs en alliant l’IA et la robotique. Conçu aussi bien pour les pros que pour les amateurs, il maîtrise le jeu, peut ajuster son niveau et peut faire office d’entraîneur pour les compétitions.
Grâce à sa technologie de vision IA et ses algorithmes de prise de décision, il utilise son bras robotique pour saisir les pièces sur l’échiquier et les déplacer. De plus, il peut enregistrer et évaluer les parties pour fournir ses retours.
Au total, 25 niveaux de coaching sont proposés ainsi que des leçons personnalisées et la possibilité de jouer en ligne contre des adversaires du monde entier.
Il se décline aussi en version 2 en 1 avec un jeu de dames. Là encore, des cours interactifs sont proposés. C’est un excellent outil éducatif pour tous les âges !
Avec plus de 100 000 unités prêtes à la vente, ce robot est aussi le premier bras robotique produit en masse pour le grand public.
Mirokai : un ami robot pour les personnes sensibles
L’entreprise Enchanted Tools a présenté son robot Mirokai. Ce nom est formé des mots japonais « Miro » et « Okai » signifiant « voir la beauté dans l’autre ».
Plus qu’un simple robot, Mirokai est un personnage qui peut être votre ami et aider les personnes sensibles à se sentir moins seules.
Il utilise de multiples IA pour discuter avec les utilisateurs, naviguer en toute autonomie, et prendre en charge des tâches logistiques.
Son poids est de 35 kilos pour une taille de 120 centimètres environ. Sa batterie lui offre 4 heures d’autonomie, et il peut marcher à une vitesse de 2,9 km/h.
Il est doté de bras détachables, de LEDs, et d’un anneau autour de sa base pour empêcher les chutes.
À l’heure actuelle, Enchanted Tools collabore déjà avec des hôpitaux à qui elle fournit son robot. Toutefois, la firme compte passer à la production de masse d’ici la fin de l’année !
MarsCat : le tout premier chat robot
Voici le premier chat bionique au monde, MarsCat de Elephant Robotics. Il est conçu pour servir de compagnon robotique dans les maisons, les salles de classe ou pour la recherche scientifique.
Ce robot fait tout comme un vrai chat. Il s’étire, dort, court, marche, et imite les tâches comme enterrer sa litière. Mais sans en mettre partout !
Avec son design tactile, il offre une expérience interactive et réagit lorsqu’on lui caresse la tête, le dos ou le menton.
Ce petit chat peut aussi reconnaître les objets, les jouets et son lit. Vous pouvez même le faire jouer avec des baguettes, des balles ou un poisson en plastique.
Il entend aussi les commandes, et réagit avec sa personnalité qui évolue au fil des interactions avec l’utilisateur. Elle est définie par six traits : enthousiaste, distant, paresseux, sociable, ou timide.
Le caractère de MarsCat s’adapte au comportement de l’utilisateur. Les facteurs comme le ton, la fréquence d’interaction, ou les réactions au jeu le rendent unique.
Il est alimenté par un Raspberry Pi quad-core, et vous pouvez créer des programmes personnalisés pour étendre ses fonctionnalités.. Ceci le rend idéal pour les applications éducatives, commerciales ou pour la recherche.
CASBOT 01 : un robot humanoïde pour le grand public
Le robot humanoïde CASBOT 01 a été dévoilé par la startup chinoise Lingbao. Il s’agit d’un bipède de taille humaine, pensé pour un usage généraliste avec une IA.
Son surnom est « Wednesday ». a Il pèse 60 kilos pour 1 mètre 79, et possède 52 degrés de liberté de mouvement. En termes de puissance de calcul, il atteint 550 billions d’opérations par seconde (TOPS).
Ses mains sont soigneusement conçues et son contrôle de force est hautement dynamique, ceci lui permet d’opérer continuellement pendant près de quatre heures.
Tous les composants mécaniques sont dissimulés au regard, ce qui permet un aspect amical et bienveillant grâce à son enveloppe à l’apparence naturelle.
Sa tête a deux degrés de liberté et des capteurs pour l’interaction visuelle et auditive. Il est capable d’effectuer des tâches telles que de rester debout, de marcher, de courir ou de sauter.
Il peut aussi effectuer des activités comme de trier les vêtements ou d’assembler des objets. Ceci montre à quel point ce robot peut être adaptable et fonctionnel !
Mirumi : le robot qui va remplacer les enfants
La firme japonaise Yukai Engineering a présenté Mirumi : un robot qui se clipse sur un sac, pour simuler l’interaction avec un enfant humain.
Ses capteurs lui permettent d’interagir avec les gens où les objets à proximité avec des mouvements des yeux et de la tête. Lorsqu’on l’approche ou le saisit trop brusquement, il mime la timidité.
En guise de capteurs, il embarque un IMU (Inertial Measuring Unit) pour détecter les mouvements comme les tapotements où les déplacements du sac. Un capteur de distance interne analyse aussi son environnement.
Grâce à un design équilibré entre sa tête et son corps, ses composants mécaniques internes sont maintenus. Il est doté de bras pour sécuriser le sac, et ses yeux inspirent la tendresse.
Il est conçu pour mimer les émotions humaines, par exemple en affichant un air intrigué en bougeant la tête vers les objets qu’il détecte.
Lorsque le sac bouge, il regarde autour de lui avec curiosité. Il couvre aussi son visage avec timidité quand on le fixe.
Si vous le secouez, il remue la tête pour exprimer son mécontentement. Et lorsqu’on le laisse seul, il se repose paisiblement en regardant autour de lui.
Samsung Ballie : un robot inspiré par Star Wars
Dans le monde de Star Wars, l’échange d’informations s’effectue par le biais de droïdes dotés de projecteurs. Le robot Samsung Ballie semble directement inspiré du droïde BB-8 de la dernière trilogie en date !
Ce petit robot rond reçoit les commandes vocales, se déplace en roulant, et projette des images sur n’importe quelle surface.
Il avait déjà été présenté au CES en 2020, mais sa commercialisation est finalement prévue pour 2025 !
LG Self-driving Home-Hub : un adorable robot qui comprend vos émotions
Nominé parmi les Honorés du CES 2025 dans la catégorie IA, ce petit robot au design adorable se déplacer dans votre maison grâce à ses deux jambes roulantes.
Il utilise « l’Intelligence Affectueuse » pour comprendre les émotions de ses utilisateurs et les soutenir, mais aussi détecter les dangers tels que les chutes. Idéal pour les personnes âgées !
Tous ces robots présentés au CES 2025 nous offrent un aperçu d’un avenir proche, où les robots vont transformer nos vies quotidiennes et s’immiscer dans tous les secteurs d’entreprise !
Et vous, qu’en pensez-vous ? Quel est votre robot préféré parmi ceux présentés au CES ? Quel est selon vous le secteur d’application le plus intéressant pour cette technologie ?
Cet article Top des meilleurs robots présentés au CES 2025 : bienvenue dans le futur ! a été publié sur LEBIGDATA.FR.
-
Intelligence artificielle
-
Neura Robotics lève 120 millions d'euros pour ses robots dotés de capacités cognitives
Neura Robotics, start-up allemande spécialisée dans le développement de robots cognitifs et humanoïdes, a annoncé le 15 janvier une levée de...
Neura Robotics lève 120 millions d'euros pour ses robots dotés de capacités cognitives
-
LEBIGDATA.FR

-
IA et sport : ce robot change la donne pour les basketteurs
Et si vous pouviez perfectionner vos tirs au basket sans dépendre de personne ? Avec le robot Datic 1, l’IA s’invite sur le terrain pour récupérer et renvoyer vos ballons avec une précision impressionnante. Son objectif est de rendre vos entraînements plus efficaces que jamais. Au CES 2025, Datic 1, un robot développé par Davy Robot, a retenu l’attention des amateurs de basket et de technologie. Conçu pour récupérer et renvoyer les ballons grâce à l’IA ce robot promet de révolutionner vos ent
IA et sport : ce robot change la donne pour les basketteurs
Et si vous pouviez perfectionner vos tirs au basket sans dépendre de personne ? Avec le robot Datic 1, l’IA s’invite sur le terrain pour récupérer et renvoyer vos ballons avec une précision impressionnante. Son objectif est de rendre vos entraînements plus efficaces que jamais.
Au CES 2025, Datic 1, un robot développé par Davy Robot, a retenu l’attention des amateurs de basket et de technologie. Conçu pour récupérer et renvoyer les ballons grâce à l’IA ce robot promet de révolutionner vos entraînements. Avec sa capacité à suivre chaque mouvement et à fonctionner de manière autonome, il pourrait devenir indispensable pour les passionnés de basket-ball.
Le Datic 1 facilite vos entraînements en remplaçant un partenaire humain pour récupérer les ballons. Installé sous le panier, il utilise un système de vision artificielle avancé pour suivre vos mouvements. Une fois la balle récupérée, il la renvoie avec précision, ce qui vous permet d’enchaîner les tirs sans interruption.
Grâce à cette fluidité, vos séances deviennent plus productives, même lorsque vous êtes seul. De plus, avec un poids de 15 kg seulement, le robot est facilement transportable, s’adaptant aux terrains intérieurs comme extérieurs. Cela simplifie grandement la logistique, que vous soyez un joueur amateur ou semi-professionnel.
Une démonstration marquante au CES 2025
Lors de sa présentation au Consumer Electronics Show (CES) 2025, les visiteurs ont testé le robot dans une installation dédiée. Bien que le panier utilisé lors de la démonstration soit plus bas que la hauteur standard, Davy Robot a précisé que le modèle final atteindra 3 mètres, la hauteur officielle des paniers de basket-ball.
Le robot a impressionné par sa réactivité. Ses bras mécaniques s’étendaient rapidement pour capturer la balle, tandis que sa tête pivotait pour suivre chaque joueur. Ces capacités ont renforcé l’idée qu’il peut offrir une expérience d’entraînement réaliste et immersive.
Un grand atout du Datic 1 est son prix compétitif, estimé à 1 000 dollars. Ce tarif abordable rend cette innovation accessible à un large public, qu’il s’agisse d’amateurs ou de joueurs souhaitant intensifier leurs entraînements. Ce coût attractif en fait un outil à la portée des passionnés de basket-ball désireux de combiner technologie et sport.

Davy Robot prévoit de lancer une campagne Kickstarter en juin 2025. Ce lancement permettra aux premiers soutiens d’obtenir le robot à un prix préférentiel, tout en aidant l’entreprise à finaliser la production à grande échelle.
Le Datic 1 illustre parfaitement comment l’IA peut transformer la pratique sportive. En simplifiant l’entraînement, il augmente l’efficacité des séances tout en réduisant la dépendance à un partenaire humain. Cela ouvre de nouvelles perspectives pour les athlètes souhaitant améliorer leur technique de tir.
Cet article IA et sport : ce robot change la donne pour les basketteurs a été publié sur LEBIGDATA.FR.
-
LEBIGDATA.FR
-
Nvidia annonce le « moment ChatGPT » pour les robots humanoïdes : tout savoir
Lors du CES 2025, Nvidia prend le devant de la scène. Cette fois, ce n’est pas pour leur matériel habituel, mais pour leur entrée révolutionnaire dans la robotique humanoïde, désignée comme le « moment ChatGPT ». Nvidia inaugure une nouvelle ère pour la robotique. En s’inspirant de l’essor de ChatGPT d’OpenAI, la société ambitionne de transformer les robots humanoïdes. Alors, quelles surprises cette révolution technologique nous réserve-t-elle lors du CES 2025 ? Parlons-en ici ! ChatGPT co
Nvidia annonce le « moment ChatGPT » pour les robots humanoïdes : tout savoir
Lors du CES 2025, Nvidia prend le devant de la scène. Cette fois, ce n’est pas pour leur matériel habituel, mais pour leur entrée révolutionnaire dans la robotique humanoïde, désignée comme le « moment ChatGPT ».
Nvidia inaugure une nouvelle ère pour la robotique. En s’inspirant de l’essor de ChatGPT d’OpenAI, la société ambitionne de transformer les robots humanoïdes. Alors, quelles surprises cette révolution technologique nous réserve-t-elle lors du CES 2025 ? Parlons-en ici !
ChatGPT comme source d’inspiration pour Nvidia
À l’heure actuelle, presque tous les internautes connaissent ChatGPT. Eh oui, ce chatbot d’OpenAI qui a captivé le public et les entreprises depuis la fin 2022.
Et vous savez quoi ? Nvidia souhaite recréer cet engouement, mais cette fois, dans le domaine de la robotique. Jensen Huang, PDG de Nvidia, a déclaré : « Le moment ChatGPT pour la robotique générale approche à grands pas. »
Personnellement, je pensais que cette avancée relèverait encore de la science-fiction… Mais visiblement, Nvidia accélère le développement.
Huang a annoncé que les technologies d’IA actuelles permettront des « avancées très rapides, des avancées surprenantes » dans les prochaines années.
Et puis, Huang a détaillé l’importance des robots capables de s’adapter à notre monde. Il a expliqué : « Si nous pouvions construire ces robots étonnants, nous pourrions les déployer exactement dans le monde que nous avons construit pour nous-mêmes ».
Contrairement aux robots traditionnels, ces machines ne nécessiteront pas d’infrastructures spécifiques, ce qui facilitera leur intégration dans divers secteurs.
Pour réaliser cette vision, Nvidia mise sur sa plateforme Isaac Groot, dévoilée lors du CES 2025 à Las Vegas.
"The ChatGPT moment for general robotics is just around the corner," said Nvidia CEO Jensen Huang during his #CES2025 keynote presentation. pic.twitter.com/3gXoIkePvs
— TechCrunch (@TechCrunch) January 7, 2025
Et d’après l’information, cette solution propose plusieurs outils avancés. Parmi eux, on trouve des modèles de base, des pipelines de données et des cadres de simulation. Ces technologies permettent de capturer des données humaines et de les transformer en mouvements synthétiques pour former les robots.
Huang a expliqué : « La capacité critique est de savoir comment former ces robots ». Il a ajouté que, contrairement aux voitures autonomes, qui utilisent des données issues de nos trajets quotidiens, les robots humanoïdes nécessitent des démonstrations humaines spécifiques.
Il a aussi précisé que « L’imitation des informations, la démonstration humaine est plutôt laborieuse à réaliser ».
C’est pourquoi Nvidia utilise Omniverse pour générer des millions de mouvements synthétiques. Ces données permettent aux robots d’apprendre des tâches complexes.
L’IA physique ? La prochaine vague technologique ?
Apparemment, Nvidia voit dans l’IA physique une véritable révolution. Lors du COMPUTEX 2025 à Taïwan, Huang a affirmé : « La prochaine révolution de l’IA sera celle de l’intelligence artificielle physique, une IA qui maîtrise les lois de la physique et qui sera capable de collaborer avec nous. »
C’est sûrement pour cette raison que Nvidia met sur la robotique. À mon avis, la firme veut transformer non seulement les usines, mais aussi des secteurs comme la logistique, la santé et l’agriculture.
D’après Nvidia, plus de cinq millions de robots préprogrammés sont testés à travers le monde, notamment dans des simulations via Omniverse.
Et puis, ces robots ne se contentent pas de suivre des ordres simples. Ils apprennent, s’adaptent et exécutent des tâches complexes.
Et vous, que pensez-vous de ces avancées ?
Cet article Nvidia annonce le « moment ChatGPT » pour les robots humanoïdes : tout savoir a été publié sur LEBIGDATA.FR.
-
Intelligence artificielle
-
CES 2025 : Nvidia lance Nemotron, une famille de LLMs conçue pour l'agentique
L'IA dite "agentique" est sur toutes les lèvres, y compris celles de Nvidia. Jensen Huang, cofondateur et CEO de l'entreprise, y a donc passé un...
CES 2025 : Nvidia lance Nemotron, une famille de LLMs conçue pour l'agentique
-
LEBIGDATA.FR
-
[VIDÉO] 10 prédictions terrifiantes sur l’IA et la robotique en 2025 !! La fin de l’humanité ?
L’intelligence artificielle et la robotique suscitent à la fois fascination et inquiétude. Dans cette vidéo, découvrez les prédictions les plus marquantes concernant leur évolution en 2025. Ces technologies, qui transforment déjà profondément nos sociétés, pourraient façonner un futur aussi ambitieux que déroutant. Nous présentons les analyses d’experts tels qu’Elon Musk, Yuval Noah Harari ou encore Kai-Fu Lee. Chaque prédiction met en lumière des scénarios concrets, comme l’impact de l’IA su
[VIDÉO] 10 prédictions terrifiantes sur l’IA et la robotique en 2025 !! La fin de l’humanité ?
L’intelligence artificielle et la robotique suscitent à la fois fascination et inquiétude. Dans cette vidéo, découvrez les prédictions les plus marquantes concernant leur évolution en 2025. Ces technologies, qui transforment déjà profondément nos sociétés, pourraient façonner un futur aussi ambitieux que déroutant.
Nous présentons les analyses d’experts tels qu’Elon Musk, Yuval Noah Harari ou encore Kai-Fu Lee. Chaque prédiction met en lumière des scénarios concrets, comme l’impact de l’IA sur l’emploi, la montée des armes autonomes ou encore les enjeux liés à la désinformation numérique. Ces perspectives soulèvent des questions cruciales sur notre capacité à maîtriser ces avancées.
Des débats éthiques aux impacts sociétaux, la vidéo évoque les transformations majeures qui pourraient redéfinir notre quotidien. Elle souligne également les risques de dérives, comme la surveillance accrue ou la perte de contrôle sur des systèmes autonomes. Ces sujets sont abordés avec une approche rigoureuse et une volonté de mettre en avant des faits vérifiés.
Nous vous invitons à découvrir cette analyse approfondie en visionnant la vidéo sur notre chaîne. N’oubliez pas de vous abonner pour rester informé des dernières avancées technologiques et de partager votre avis en commentaires. Ensemble, ouvrons le débat sur les défis et opportunités de l’intelligence artificielle.
Cet article [VIDÉO] 10 prédictions terrifiantes sur l’IA et la robotique en 2025 !! La fin de l’humanité ? a été publié sur LEBIGDATA.FR.
-
Intelligence artificielle
-
Soutenue par AMD, la start-up Liquid AI lève 250 millions de dollars
En janvier dernier, nous dressions le portrait d'une start-up à peine sortie de l'œuf, ambitionnant de révolutionner le paysage de l’IA avec un...
Soutenue par AMD, la start-up Liquid AI lève 250 millions de dollars
-
IA
-
La France aussi a des cartes à jouer dans la robotique humanoïde… et elle le montre
Des start-up chinoises de robotique débarquent à Nancy. Cette ville de Meurthe-et-Moselle a accueilli du 22 au 28 novembre la semaine...
La France aussi a des cartes à jouer dans la robotique humanoïde… et elle le montre
-
LEBIGDATA.FR
-
Le 1ᵉʳ tableau peint par un robot IA vendu 1 million : le début d’un nouveau marché ?
Un tableau a été vendu un million de dollars chez Sotheby’s, mais ce n’est pas n’importe lequel, c’est une IA qui l’a peint ! Ai-Da, le robot humanoïde ultra-réaliste, signe ici le premier chef-d’œuvre vendu aux enchères pour un montant record. Cette œuvre immortalise Alan Turing, le père de l’informatique moderne. Ce record symbolise-t-il le début d’un tout nouveau genre d’art, où les machines deviennent artistes à part entière ? Un événement inédit vient bouleverser l’art, une discipline qu
Le 1ᵉʳ tableau peint par un robot IA vendu 1 million : le début d’un nouveau marché ?
Un tableau a été vendu un million de dollars chez Sotheby’s, mais ce n’est pas n’importe lequel, c’est une IA qui l’a peint ! Ai-Da, le robot humanoïde ultra-réaliste, signe ici le premier chef-d’œuvre vendu aux enchères pour un montant record. Cette œuvre immortalise Alan Turing, le père de l’informatique moderne. Ce record symbolise-t-il le début d’un tout nouveau genre d’art, où les machines deviennent artistes à part entière ?
Un événement inédit vient bouleverser l’art, une discipline que l’humain domine depuis longtemps. Un tableau du mathématicien britannique Alan Turing, réalisé par Ai-Da, le robot artiste IA, s’est vendu pour plus d’un million de dollars aux enchères. Alors sommes-nous à l’aube d’un marché où les artistes ne seront plus seulement des humains, mais aussi des machines ? Cette vente dépasse de loin l’aspect financier. Elle ouvre la porte à un marché de l’art que les robots artistes commencent à maîtriser.
Un million pour un tableau créé par un robot IA artiste
Apparemment, nous avons dépassé le stade des IA qui se contentent de générer des images pour les réseaux sociaux ou des concepts abstraits. Cette fois, un robot humanoïde IA, Ai-Da, a littéralement vendu un tableau à 1,08 million de dollars chez Sotheby’s. Je me souviens que l’œuvre était un portrait d’Alan Turing, l’un des plus grands génies des mathématiques et de l’informatique.
L’œuvre de Ai-Da intitulée « AI God. Portrait of Alan Turing » mesure 2,2 mètres de haut. Je dois l’avouer, c’est énorme, aussi bien par la taille que par l’impact symbolique. D’ailleurs, les « tons sourds et les plans faciaux brisés » rappellent les défis auxquels Turing nous avait mis en garde dès les débuts de l’IA. 27 enchérisseurs ont disputé le tableau peint par l’IA, et il a finalement atteint un prix record qui dépasse largement les prévisions initiales de Sotheby’s. Celles-ci se situaient entre 120 000 et 180 000 dollars.
Ai-Da est donc le premier artiste robot capable de peindre, dessiner et même de répondre à des questions. Son concepteur, Aidan Meller l’a équipée d’IA qui lui permet non seulement de converser, mais aussi de générer ses propres idées. Meller affirme également l’avoir créé pour « servir de catalyseur pour le dialogue sur les technologies émergentes ». Par ailleurs, son nom s’est inspiré de la fameuse Ada Lovelace, pionnière de la science informatique.
Un nouveau marché est-il né ?
Je me demande maintenant si cette première vente est le point de départ d’un marché durable. Un jour, les œuvres d’art par IA seront aussi reconnues, collectionnées et peut-être même exposées dans les musées du monde entier.
Ce premier tableau d’un million n’est sûrement que le début. Ai-Da nous montre donc que l’art, autrefois réservé aux humains, n’est plus un terrain sacré. Il y a de quoi s’interroger ainsi si les robots peuvent-ils avoir une « âme » artistique ? Une « inspiration » ?
#AI robot Ai-Da sold her artwork 'A.I. God,' a portrait of Alan Turing, for over $1 million, far exceeding its estimated value. pic.twitter.com/UN9EWWNXNs
— Reuters (@Reuters) November 9, 2024
Comme Ai-Da l’a dit elle-même : « J’aime peindre ce que je vois. On peut peindre à partir de son imagination, je suppose, si on a de l’imagination. J’ai vu des choses différentes de celles des humains, car je n’ai pas de conscience. ». Un robot IA peut donc créer une œuvre unique, mais reste-t-il pour autant un simple outil ou commence-t-il à s’affirmer comme une entité créative autonome ?
Selon vous, l’IA peut-elle vraiment rivaliser avec l’âme humaine en matière de création ? Seriez-vous prêt à accrocher une œuvre d’art réalisée par une IA dans votre salon ? Partagez votre avis dans les commentaires !
Cet article Le 1ᵉʳ tableau peint par un robot IA vendu 1 million : le début d’un nouveau marché ? a été publié sur LEBIGDATA.FR.