Des textes millénaires viennent de livrer un nouveau secret grâce à une IA entraînée sur l’écriture. Ce que l’on croyait savoir des manuscrits de la mer Morte pourrait être sérieusement bouleversé.
Grâce à une alliance inédite entre IA et datation au carbone, les manuscrits de la mer Morte révèlent de nouveaux secrets. Une équipe dirigée par l’université de Groningue vient de bouleverser les certitudes historiques. Leur modèle baptisé Enoch croise les données de radiocarbone, paléographie et
Des textes millénaires viennent de livrer un nouveau secret grâce à une IA entraînée sur l’écriture. Ce que l’on croyait savoir des manuscrits de la mer Morte pourrait être sérieusement bouleversé.
Grâce à une alliance inédite entreIA et datation au carbone, les manuscrits de la mer Morte révèlent de nouveaux secrets. Une équipe dirigée parl’université de Groningue vient de bouleverser les certitudes historiques. Leur modèle baptisé Enoch croise les données de radiocarbone, paléographie et intelligence artificielle. Objectif : estimer plus précisément l’âge réel de chaque manuscrit.
Longtemps datés de manière approximative, ces textes essentiels bénéficient enfin d’un éclairage chronologique plus fiable. Les premiers résultats sont spectaculaires : plusieurs manuscrits sont bien plus anciens qu’on le pensait. Deux fragments bibliques correspondent même à l’époque supposée de leurs auteurs.
Paléographie vs IA : le changement d’approche
Jusqu’à présent, les experts se basaient sur la forme des lettres pour dater les manuscrits. Mais l’étude de l’écriture manquait d’appuis empiriques, souvent trop subjective pour donner une certitude. Enoch introduit une méthode quantitative en combinant radiocarbone et apprentissage automatique.
Ce nouveau modèle s’appuie sur BiNet, un réseau neuronal entraîné à reconnaître les détails microscopiques des encres manuscrites. Le système analyse la forme des lettres et la texture des traces, afin de croiser ces indices avec des échantillons datés. Résultat : une datation précise avec une marge d’erreur d’environ 30 ans pour les manuscrits de la mer Morte.
Les prédictions d’Enoch modifient nos repères sur deux types d’écriture : l’hasmonéenne et l’hérodienne. L’écriture hasmonéenne apparaît finalement bien avant 150 av. J.-C. et l’hérodienne dès le IIe siècle. Ces découvertes suggèrent que les deux styles ont coexisté plus longtemps que supposé. Cela influence notre compréhension de la Judée antique, notamment durant les périodes hellénistique et romaine.
L’alphabétisation, les courants religieux et les dynasties s’inscrivent désormais dans une nouvelle grille temporelle. Les manuscrits de la mer Morte deviennent ainsi des témoins directs d’un tournant politique et intellectuel de la Méditerranée orientale.
L’IA identifie des fragments à l’époque de leur rédaction
Deux fragments précis attirent particulièrement l’attention : 4QDaniel c et 4QQohelet a. D’après les estimations croisées, ils remontent à l’époque de leurs auteurs supposés. Ces fragments bibliques ont été écrits entre le IIIe et le IIe siècle avant notre ère. Le Livre de Daniel et l’Ecclésiaste n’ont probablement pas été rédigés par Salomon, mais bien par des anonymes d’époque hellénistique.
Ces résultats confirment pour la première fois une correspondance entre la datation d’un manuscrit et l’époque d’écriture estimée. Une avancée décisive pour retracer les origines du texte biblique à partir des manuscrits de la mer Morte.
Un outil scientifique, mais aussi patrimonial
Enoch n’est pas qu’un modèle technologique : c’est un instrument de mémoire historique. Sa conception explicative garantit transparence et compréhension. Cela permet aux chercheurs de suivre chaque étape de la prédiction. Plus encore, cette méthode est transposable à d’autres collections de manuscrits anciens.
À terme, l’ensemble du corpus des manuscrits de la mer Morte pourrait être reconstitué avec une précision inédite. Chaque mot, chaque lettre pourrait bientôt raconter son histoire, non plus au conditionnel, mais avec des preuves tangibles. L’IA devient alors un outil d’ancrage qui relie les écritures sacrées à leurs véritables époques et à leurs véritables mains.
Il s’agit de FutureHouse, une organisation à but non lucratif portée par Eric Schmidt, l’ex-patron de Google. Elle s’est donnée pour mission de former de véritables scientifiques en IA d’ici les dix prochaines années.
Et pour entamer ce grand chantier, FutureHouse vient tout juste de dévoiler son tout premier produit d’envergure. Une plateforme accompagnée d’une API intégrant plusieurs outils d’IA conçus pour épauler les chercheurs dans leurs travaux.
Je dois dire que ces derniers temps,
Il s’agit de FutureHouse, une organisation à but non lucratif portée par Eric Schmidt, l’ex-patron de Google. Elle s’est donnée pour mission de former de véritables scientifiques en IA d’ici les dix prochaines années.
Et pour entamer ce grand chantier, FutureHouse vient tout juste de dévoiler son tout premier produit d’envergure. Une plateforme accompagnée d’une API intégrant plusieurs outils d’IA conçus pour épauler les chercheurs dans leurs travaux.
Je dois dire que ces derniers temps, la recherche scientifique est devenue un domaine de plus en plus prisé par les startups d’IA.
Découvrez les IA de FutureHouse
FutureHouse a lancé quatre IA dédiées à la recherche scientifique : Crow, Falcon, Owl et Phoenix. Et bien sûr, chacune a sa spécialité.
Par exemple, Crow lit et synthétise la littérature scientifique. Falcon, lui, va plus loin, en explorant en profondeur les bases de données scientifiques.
Quant à Owl, il fouille les archives pour retrouver des travaux antérieurs sur un sujet donné. Et Phoenix, le chimiste du groupe, aide à planifier des expériences complexes en laboratoire.
Ce qui distingue ces IA du lot, si l’on croit FutureHouse, c’est leur accès privilégié à une base de données ouverte. Cette dernière est riche en articles scientifiques de qualité, couplée à un système de raisonnement structuré et transparent.
Ces 4 outils d’IA passent les informations au crible en plusieurs étapes, avec une traçabilité pensée pour rassurer les scientifiques.
Et doutez-vous que l’objectif affiché est ambitieux. En connectant ces outils entre eux, à grande échelle, l’organisation espère considérablement booster le rythme des avancées scientifiques.
Mais rien ne le prouve pour l’instant
Au fait, pour le moment, le compteur reste bloqué à zéro découverte. Aucune percée notable n’a encore été obtenue avec ces nouveaux assistants numériques.
Les exemples passés invitent d’ailleurs à la prudence. En 2023, Google annonçait avec fierté que son IA GNoME avait permis de synthétiser une quarantaine de nouveaux matériaux.
Mais en réalité, aucun d’eux n’était véritablement inédit. Et c’est un audit externe qui l’a déclaré.
Bien entendu, concevoir une IA capable non seulement de comprendre la science, mais aussi de naviguer parmi ses multiples zones d’ombre est complexe. Et les obstacles techniques restent nombreux : hallucinations, erreurs de précision et incertitudes…
FutureHouse ne le nie pas. L’un de ses outils, Phoenix, est encore sujet aux erreurs d’ailleurs. L’organisation assume une approche expérimentale :
« Nous la mettons à disposition dans une logique d’itération rapide », indique-t-elle dans son blog, tout en invitant les utilisateurs à remonter leurs remarques au fil de l’utilisation.
Et qui sait, ses IA finiront peut-être par briller. Juste pas pour maintenant. Vous êtes d’accord avec moi ?
Face à la difficulté d’accéder à un thérapeute, beaucoup se tournent vers l’intelligence artificielle. ChatGPT devient alors une sorte d’oreille virtuelle, un psy toujours disponible. Mais attention : derrière cette aide rapide se cachent des limites que les spécialistes ne cessent de rappeler.
L’intelligence artificielle a commencé à remplacer ou à aider dans certaines professions. Toutefois, certaines carrières résistent encore à cette tendance. Parmi elles, les psychologues (psy) et les sp
Face à la difficulté d’accéder à un thérapeute, beaucoup se tournent vers l’intelligence artificielle. ChatGPT devient alors une sorte d’oreille virtuelle, un psy toujours disponible. Mais attention : derrière cette aide rapide se cachent des limites que les spécialistes ne cessent de rappeler.
L’intelligence artificielle a commencé à remplacer ou à aider dans certaines professions. Toutefois, certaines carrières résistent encore à cette tendance. Parmi elles, les psychologues (psy) et les spécialistes de la santé mentale ne sont pas facilement remplaçables par l’IA, comme ChatGPT d’OpenAI ou d’autres modèles.
Une conversation virtuelle qui soulage, sur le moment
Certains utilisateurs choisissent ChatGPT en guise de psy. C’est ce qu’a fait Michelle, une Canadienne qui dialogue avec l’outil depuis plus d’un an. Elle l’utilise surtout dans les moments difficiles. Quand elle se sent dépassée, elle ouvre une discussion pour poser ses pensées.
Elle explique que certaines fois, ce simple échange numérique l’a aidée à éviter de s’effondrer. Elle se sentait enfermée dans ses pensées, comme si son esprit tournait en rond pendant des jours. Mais après avoir exprimé ce qu’elle ressentait à l’IA, elle se sentait un peu soulagée.
Dans ses messages, elle demande souvent comment gérer son stress. Elle écrit des phrases très précises, comme : « J’ai du mal à supporter la pression du quotidien. As-tu des astuces concrètes pour rester calme ? » L’outil lui propose alors des exercices de respiration ou des méthodes pour se recentrer.
ChatGPT ne remplace pas son thérapeute, mais l’aide à mieux comprendre certaines notions abordées en séance. Michelle dit qu’elle utilise parfois l’IA pour revoir des stratégies que son psychologue lui a déjà expliquées. Elle apprécie le fait que les réponses soient simples et faciles à relire.
Pour elle, c’est une sorte de complément, pas un remplaçant. Elle précise d’ailleurs qu’elle continue ses rendez-vous réguliers avec un professionnel humain.
En tant que machine, ChatGPT ne perçoit ni les silences ni les regards comme le fait le psy
Selon Laura, une thérapeute expérimentée, la vraie thérapie repose sur les détails invisibles. Elle observe les yeux, les gestes, les tremblements. Elle sent quand une parole sonne faux ou quand une larme est sur le point de couler.
ChatGPT, en revanche, ne voit rien, ne sent rien et ne fait que lire des mots. Selon elle, c’est là que réside le problème. Car il s’agit de souffrances humaines et cela ne peuvent pas être résolues par une suite de textes bien écrits.
D’après Jordan Thomas, spécialiste en traumatologie, l’IA peut même renforcer des pensées toxiques. Jordan Thomas explique que, malheureusement, si l’utilisateur oublie un détail important, la réponse de l’IA peut être inadaptée, voire dangereuse.
Outre cela, l’IA ne sait pas quand une personne est en crise. Elle ne peut pas intervenir si le danger est réel. Et surtout, elle ne peut pas créer ce lien de confiance, si précieux dans la relation d’aide.
Sur les réseaux, de nombreux jeunes racontent qu’ils utilisent ChatGPT pour répondre à leurs problèmes de santé mentale, plutôt que d’aller voir un psy. Alors on a voulu tester ce que ça donnait vraiment et on a demandé à une psychologue ce qu’elle en pensait de nos échanges avec… pic.twitter.com/FHZ8wj9KHN
— Brut FR (@brutofficiel)
?ref_src=twsrc%5Etfw">February 14, 2025
Il est vrai que ChatGPT peut être utile, en tout cas, c’est ce que pense Michelle. Elle l’utilise entre deux séances de thérapie. De cette façon, elle garde le cap. Elle revoit certaines idées et reformule ce que son psy lui a déjà expliqué.
Et si elle ne comprend pas une méthode, elle la redemande à l’IA. Avec des mots simples cela l’aide, clairement.
Et pourtant, même Michelle reste prudente. Elle le répète :« Jamais je ne remplacerai mon thérapeute par ChatGPT. »
En parallèle, d’autres personnes pensent à tort que l’IA peut suffire. Mais ce n’est pas le cas. Quoique les réponses puissent sembler justes, elles ne tiennent pas compte de la réalité du patient.
Afin de guérir, l’humain a besoin de chaleur humaine
Dans une thérapie, plusieurs choses comptent : la confiance, l’empathie, le respect de la culture… Et selon de nombreux experts, ces éléments sont essentiels, car ils permettent au patient de s’ouvrir, sans peur.
ChatGPT, en revanche, ne crée pas de lien émotionnel. Il ne voit pas la personne, ne comprend pas son vécu. De plus, il ne peut pas adapter sa parole à la sensibilité de l’autre.
Et ce que dit Luke est percutant :« Ce n’est pas une vraie conversation. On parle à un écran, et d’autres écoutent. »
Quoique certains s’en servent avec intelligence, comme Michelle, la majorité des utilisateurs ignorent ces risques. Ils se confient à une IA sans réaliser qu’il n’y a personne de l’autre côté.
Citons ici un fait important : même les chercheurs en IA reconnaissent que leurs outils ne remplacent pas un thérapeute. Ils peuvent, au mieux, soutenir les professionnels. Mais jamais, ils ne remplaceront une présence humaine.
À mon avis, oui, ChatGPT peut répondre rapidement. J’accepte qu’il puisse offrir des pistes, apaiser temporairement mais il ne peut pas écouter avec le cœur. L’intelligence artificielle ne peut pas s’adapter au rythme d’une personne fragile. Elle ne peut pas détecter une urgence invisible.
Et en ce qui concerne la santé mentale, chaque mot, chaque silence, chaque regard a son importance. Alors oui, ChatGPT peut accompagner mais elle ne peut pas guérir ni remplacer nos psy.
Sincèrement, pensez-vous que cela peut remplacer, même un peu, l’écoute d’un professionnel ? Ou au contraire, trouvez-vous cela risqué ? Dites-le-nous en commentaire !
L’IA causale ouvre la voie à une intelligence artificielle plus fiable, plus transparente et plus sensible aux besoins humains. En allant au-delà des simples prédictions, elle identifie les causes profondes des événements de manière à réduire les erreurs et à éclairer les décisions.
L’IA causale : De la corrélation à la causalité véritable
Les IA traditionnelles fonctionnent un peu comme des météorologues qui prédisent la pluie en voyant des gens avec des parapluies. Elles identifient des
L’IA causale ouvre la voie à une intelligence artificielle plus fiable, plus transparente et plus sensible aux besoins humains. En allant au-delà des simples prédictions, elle identifie les causes profondes des événements de manière à réduire les erreurs et à éclairer les décisions.
L’IA causale : De la corrélation à la causalité véritable
Les IA traditionnelles fonctionnent un peu comme des météorologues qui prédisent la pluie en voyant des gens avec des parapluies. Elles identifient des corrélations, mais pas toujours les véritables causes. Prenons un exemple insolite : aux États-Unis, les ventes de glaces et les attaques de requins augmentent toutes deux en été. Une IA classique pourrait conclure : « Attention, achetez moins de glaces, sinon les requins attaquent ! »
En réalité, c’est la chaleur estivale qui incite les gens à acheter des glaces… et à se baigner. Ce qui explique l’augmentation des attaques de requins. L’IA causale, elle, ne tombe pas dans ce piège : elle cherche à identifier les véritables déclencheurs des événements.
Pour y parvenir, l’IA causale utilise un raisonnement contrefactuel : elle imagine des scénarios hypothétiques pour isoler l’impact d’une action. Par exemple, si une entreprise lance une promotion en ligne, elle ne se contentera pas de constater que les ventes ont augmenté. Elle comparera cette situation avec un scénario où la promotion n’aurait pas eu lieu, en tenant compte de facteurs externes comme les vacances ou la concurrence. Le résultat est une certitude mesurée : l’entreprise sait si la promotion a réellement influencé les ventes. Ou si le succès est dû au hasard.
Dans le domaine de la santé publique, cette approche change tout. Un médicament peut sembler efficace. Mais l’IA causale va systématiquement vérifier si l’amélioration de l’état des patients ne provient pas d’autres traitements utilisés en même temps. C’est comme un laboratoire numérique en mesure d’imiter des tests médicaux pour identifier exactement ce qui influence chaque résultat.
L’arsenal de l’IA causale : Graphes, modèles structurels et réseaux bayésiens
Les graphes acycliques dirigés (DAG) sont les « cartes » de l’IA causale. Ils organisent visuellement et de manière structurée les relations de cause à effet. Par exemple, dans le cas des ventes de glaces et des attaques de requins, un DAG représenterait la température comme une variable mère (cause commune) influençant à la fois les ventes de glaces (effet 1) et les baignades (effet 2). Aucune flèche ne relie directement les glaces aux attaques, évitant ainsi la confusion entre corrélation et causalité.
De plus, ces cartes ne sont pas statiques : elles évoluent avec les données, comme une carte de métro mise à jour après des travaux.
Les modèles structurels de causalité ajoutent des chiffres à ces cartes. Par exemple, une équation structurelle pourrait quantifier : « Une hausse de 1°C de la température augmente les ventes de glaces de 5%, avec une marge d’erreur de ±1% ». Ces modèles transforment les relations causales en équations mathématiques. En finance, un modèle structurel pourrait estimer que « la baisse de 0,5% des taux d’intérêt stimule les investissements réels de 3%, en excluant l’effet de la volatilité des marchés ».
Les réseaux bayésiens gèrent l’incertitude grâce à des probabilités conditionnelles. Imaginez un patient fiévreux : un réseau bayésien calcule la probabilité que sa fièvre soit due à un rhume (80%) ou à une pneumonie (20%), en intégrant des données comme l’âge, la durée des symptômes et les antécédents médicaux. Ces réseaux ne donnent pas une réponse absolue, mais une distribution de probabilités.
Des outils comme DoWhy (pour tester des hypothèses) et Pyro (pour les calculs complexes) rendent ces méthodes accessibles. C’est comme passer d’un crayon à papier à un logiciel de conception 3D. Surtout, ces outils ne sont pas des « boîtes noires » : ils fournissent des explications étape par étape, transformant des opérations mathématiques abstraites en diagnostics clairs.
Au-delà des prédictions, la compréhension profonde
Les IA traditionnelles excellent à reconnaître des chats dans des photos ou à prédire une panne. Mais demandez-leur pourquoi votre voiture tombe en panne… elles restent muettes. C’est comme avoir un GPS qui dit « Tournez à gauche » sans expliquer que c’est pour éviter un embouteillage.
L’IA causale, elle, donne des explications. Dans une banque, elle pourrait révéler que les clients se désabonnent à cause des frais cachés, pas des taux d’intérêt. Résultat : on baisse les frais, pas les taux, et tout le monde est content. Une approche plus intelligente que de jouer aux devinettes.
Elle excelle aussi à remonter aux sources d’un problème. En cas de panne informatique, elle analyse les journaux comme un enquêteur scruterait des preuves. S’agit-il d’un bug logiciel ? D’un problème de surchauffe ? D’une cyberattaque ? Au lieu de se contenter de dire « ça plante », elle explique aussi pourquoi c’est le cas.
Par ailleurs, en évitant les raccourcis trompeurs, l’IA causale rend les décisions plus justes. En matière de recrutement, par exemple, elle fera abstraction du fait qu’un candidat vient d’une « mauvaise » université et ne s’intéressera qu’à ses compétences réelles. Tout comme un recruteur impartial, mais sous forme numérique.
L’IA causale contre les hallucinations et les biais
Les IA classiquescomme ChatGPT font parfois des « hallucinations » : elles inventent des faits. L’IA causale limite ces erreurs en se basant sur des relations vérifiées. Par exemple, si vous lui demandez pourquoi le ciel est bleu, elle expliquera la diffusion de la lumière, pas une histoire de poissons volants.
L’IA causale peut également servir de levier puissant pour lutter contre les préjugés systémiques. Imaginons un modèle traditionnel d’IA formé sur des données historiques où le prénom « Julie » apparaît fréquemment dans des profils d’infirmières et « Paul » dans ceux d’ingénieurs. Ce modèle, détectant une corrélation entre le nom et le métier, pourrait automatiquement classer un candidat nommé Julie comme mieux adapté à un poste d’infirmière, même si son CV met en avant des compétences techniques. Cette erreur découle de la faiblesse des algorithmes non causaux, qui ne distinguent pas les corrélations culturellement ancrées des compétences réelles.
Il convient toutefois de noter que l’IA causale ne « corrige » pas les stéréotypes. Elle les rend caducs en construisant des modèles dans lesquels seules les données pertinentes déterminent les décisions.
Transparence oblige : quand l’IA causale recommande un traitement médical, elle explique son raisonnement. « J’ai choisi ce médicament parce que votre taux de cholestérol est élevé et que vous avez des antécédents familiaux », pourrait-elle dire. De quoi rassurer les patients… et les médecins.
Applications concrètes et impacts immédiats
Dans lessupermarchés, elle évite les rayons vides. Comment ? En prévoyant les ruptures liées à la météo ou aux grèves, pas juste en regardant les ventes passées. Si l’hiver s’annonce rude, elle conseille de stocker plus de soupes… et moins de glaces.
À l’hôpital, elle aide à distinguer deux maladies aux symptômes similaires. Par exemple, le diabète de type 1 (génétique) et le type 2 (lié au mode de vie). Elle analyse l’historique du patient, pas juste ses analyses sanguines.
Dans les banques, elle explique pourquoi un prêt est refusé. « C’est à cause de vos retards de paiement l’an dernier, pas de votre quartier ». Une façon claire de corriger le tir, plutôt que de laisser planer le doute.
Et en cas de panne internet ? Elle trouve la source du problème en minutes : un câble endommagé, un logiciel obsolète… Plus besoin de tout redémarrer et de croiser les doigts.
Vers une IA transparente, responsable et partenaire
L’IA causale rend aussi les chatbots plus fiables et plus crédibles. Imaginez un assistant client capable de fournir des explications claires et précises, comme : « Votre colis est en retard à cause d’une grève portuaire en Asie », plutôt que d’inventer des excuses vagues ou erronées.
Cette transparence renforce la confiance des utilisateurs, qui se sentent mieux informés et pris au sérieux. En comprenant les causes réelles des problèmes, l’IA causale permet de proposer des solutions adaptées et de rassurer les clients. Un atout majeur dans un monde où la relation client est essentielle.
Avec l’émergence de nouvelles régulations, comme l’AI Act en Europe, qui exigent une plus grande transparence et responsabilité dans l’utilisation de l’intelligence artificielle, l’IA causale devient un outil incontournable.
En fournissant des explications détaillées et basées sur des relations de cause à effet, elle permet en effet aux organisations de démontrer que leurs actions sont fondées sur des données solides, et non sur de simples corrélations.
À terme, l’IA causale pourrait jouer un rôle central dans la construction de villes intelligentes et de systèmes plus efficaces. Par exemple, elle pourrait optimiser la gestion du trafic en temps réel, en s’adaptant immédiatement aux accidents ou aux perturbations. Ou encore améliorer les réseaux électriques pour éviter le gaspillage d’énergie.
En identifiant les causes profondes des problèmes, l’IA causale ne se contente pas de prédire les tendances futures. Elle propose des solutions concrètes pour façonner un avenir plus durable et résilient. Cette approche proactive en fait un partenaire essentiel pour relever les défis complexes de notre époque, en partenariat avec nous, les humains.
Imaginez pouvoir taper du texte uniquement avec votre pensée. Meta, la société de Mark Zuckerberg, affirme avoir développé un dispositif combinant IA et scanner cérébral pour interpréter vos signaux neuronaux. Mais cet appareil révolutionnaire est loin d’être prêt pour un usage quotidien.
Les résultats sont impressionnants. Le système détecte correctement les touches tapées dans 80 % des cas. Cela suffit pour reconstruire des phrases entières. Sumner Norma, fondateur de Forest Neurotech, soul
Imaginez pouvoir taper du texte uniquement avec votre pensée. Meta, la société de Mark Zuckerberg, affirme avoir développé un dispositif combinant IA et scanner cérébral pour interpréter vos signaux neuronaux. Mais cet appareil révolutionnaire est loin d’être prêt pour un usage quotidien.
Les résultats sont impressionnants. Le système détecte correctement les touches tapées dans 80 % des cas. Cela suffit pour reconstruire des phrases entières. Sumner Norma, fondateur de Forest Neurotech, souligne le potentiel de cette avancée :
— « Comme nous l’avons vu à maintes reprises, les réseaux neuronaux profonds peuvent révéler des informations remarquables lorsqu’ils sont associés à des données robustes. »
Cependant, malgré ses performances prometteuses, cet appareil ne sera jamais accessible au grand public.
Un appareil trop volumineux et coûteux
Le principal problème vient du scanner magnétoencéphalographique utilisé pour détecter les signaux magnétiques du cerveau. Ce dispositif est gigantesque, il pèse près d’une demi-tonne et nécessite une pièce blindée pour fonctionner correctement.
De plus, son coût atteint 2 millions de dollars, ce qui le rend totalement incompatible avec une production commerciale. Pire encore, l’utilisateur doit rester parfaitement immobile, sous peine de perturber les signaux captés. Ces contraintes rendent l’appareil totalement impraticable, même pour une utilisation scientifique avancée.
Même si cet appareil n’est pas destiné au marché, Meta ne considère pas cette recherche comme un échec. Selon Jean-Rémi King, responsable de l’équipe Brain & AI, ce projet pourrait influencer le développement de nouveaux modèles d’IA.
« Essayer de comprendre l’architecture ou les principes précis du cerveau humain pourrait être un moyen d’éclairer le développement de l’intelligence artificielle. C’est la voie à suivre. », affirme King. L’entreprise mise sur les liens entre neurosciences et IA pour améliorer la compréhension du langage par les machines.
Brain2Qwerty, l’IA qui apprend à décoder la pensée
Meta a développé Brain2Qwerty, un système d’apprentissage profond capable d’observer un utilisateur taper et d’anticiper ses frappes. Après avoir analysé plusieurs milliers de caractères, ce modèle devine sur quelles touches l’utilisateur va appuyer.
Cependant, cette technologie reste loin d’être parfaite. Avec un taux d’erreur de 32 %, elle est encore bien inférieure aux performances des implants neuronaux, capables d’atteindre99 % de précision.
Malgré cette avancée, le système de Meta ne sera pas exploité dans des applications concrètes. L’entreprise elle-même reconnaît ses limites techniques et son coût exorbitant.
Toutefois, cette recherche apporte une meilleure compréhension des mécanismes cérébraux et confirme l’idée que le langage seforme en hiérarchie dans notre cerveau. Cette découverte pourrait révolutionner la recherche en IA en améliorant la capacité des machines à comprendre et générer du texte de manière plus naturelle.
Meta ne commercialisera pas cet appareil, mais les avancées issues de cette étude influenceront probablement les prochaines générations d’IA et d’interfaces cerveau-ordinateur.
Perso, j’aurais adoré que cette technologie soit déployée à grande échelle. Pouvoir taper du texte par la pensée, c’est fascinant, on dirait de la télépathie. Mais son coût et ses limites actuelles rendent son utilisation impossible. Et vous, aimeriez-vous tester ce dispositif révolutionnaire de Meta ?
Pendant des siècles, des parchemins carbonisés sont restés un mystère. Ils ont été ensevelis sous la lave lors de l’éruption du Vésuve en 79 après J.-C. Aujourd’hui, grâce à l’intelligence artificielle, ces rouleaux livrent enfin leurs secrets.
Depuis plus de 2000 ans, des parchemins carbonisés défient les chercheurs. Après l’éruption du Vésuve en 79 après J.-C., ils ont été engloutis par les cendres volcaniques. Pourtant, grâce aux avancées de l’IA, ces documents livrent enfin leurs secrets.
Pendant des siècles, des parchemins carbonisés sont restés un mystère. Ils ont été ensevelis sous la lave lors de l’éruption du Vésuve en 79 après J.-C. Aujourd’hui, grâce à l’intelligence artificielle, ces rouleaux livrent enfin leurs secrets.
Depuis plus de 2000 ans, des parchemins carbonisés défient les chercheurs. Après l’éruption du Vésuve en 79 après J.-C., ils ont été engloutis par les cendres volcaniques. Pourtant, grâce aux avancées de l’IA, ces documents livrent enfin leurs secrets. Une équipe de scientifiques a utilisé des algorithmes sophistiqués pour lire ces textes sans les abîmer.
Des vestiges prisonniers du feu
Pour rappel, en 1750, des fouilles à Herculanum ont révélé près de 2 000 parchemins calcinés. Ces documents proviennent d’une villa ayant appartenu au beau-père de Jules César. Malheureusement, la chaleur intense les a transformés en blocs de carbone friables.
Lorsque des chercheurs ont essayé de les dérouler, ils se sont vite heurtés à une impasse. Dès qu’ils touchaient ces rouleaux fragiles, ils se brisaient en poussière. Alors, pendant des siècles, ces trésors de l’histoire sont restés intouchables, inexploitables, impénétrables.
Parmi ces rouleaux, PHerc. 172 a été offert à Oxford au XIXe siècle. Conservé dans les bibliothèques Bodléiennes, il est resté illisible pendant des générations. Pourtant, sous sa surface noircie, des textes antiques attendaient d’être révélés.
Les chercheurs savaient que l’encre laissait une légère différence chimique sur le papyrus. Mais aucun outil ne permettait de la détecter avec précision.
Et c’est ici qu’intervient la technologie. En combinant l’intelligence artificielle et des techniques d’imagerie avancées, les scientifiques ont trouvé une méthode pour lire ces documents sans les ouvrir.
Alors, comment la technologie a redonné vie aux parchemins d’Herculanum ?
Les experts de l’Université du Kentucky ont mis au point une technique révolutionnaire. Grâce à la tomographie à rayons X, ils ont scanné les parchemins en haute résolution. Ensuite, un réseau neuronal a analysé ces images pour identifier les traces d’encre invisibles à l’œil nu.
🚨AI UNLOCKS ANCIENT SECRETS FROM 2,000-YEAR-OLD HERCULANEUM SCROLL
Scientists have virtually unrolled a charred Herculaneum scroll using AI and x-ray scanning, revealing hidden Greek text for the first time in nearly 2,000 years.
Ce projet a pris une nouvelle dimension en 2023, avec le concours Vesuvius Challenge. Ce défi récompense les chercheurs capables de traduire des extraits de ces rouleaux.
Un jeune programmeur de 23 ans, Luke Farritor, a fait une découverte majeure. Il a réussi à lire un mot en grec ancien dans un parchemin encore fermé. Ce mot, « διατροπή », qui signifie « dégoût », est apparu deux fois dans le texte. Cette avancée lui a valu 40 000 dollars.
Grâce à cette technologie, le laboratoire britannique Diamond Light Source a pu scanner un autre rouleau en juillet 2024. En seulement six mois, les chercheurs ont reconstitué environ 26 lignes de texte par colonne.
Mais notons que ce projet, il s’agit là d’un véritable exploit collectif. Bibliothécaires, historiens, informaticiens… Tous collaborent pour ramener ces textes à la vie.
D’ailleurs, Richard Ovenden, directeur des bibliothèques d’Oxford, ne cache pas son enthousiasme : « C’est un moment historique incroyable ! Grâce aux progrès de l’IA, nous voyons enfin l’invisible… »
Pour l’heure, les chercheurs poursuivent leur travail avec une ferveur inébranlable.
D’après vous, que nous réservent encore ces parchemins endormis sous les cendres depuis 2 000 ans ?
Sur Terre, on se plaint de la pluie, de la chaleur ou des bouchons… mais sur Mars, les colons devront survivre à des températures glaciales, une atmosphère irrespirable et des tempêtes de poussière titanesques. C’est un vrai défi, non ? Pourtant, avec la technologie et une bonne dose d’ingéniosité, la Planète Rouge pourrait bien devenir notre deuxième maison. Mais à quoi ressemblerait réellement la vie là-bas ? Pour en avoir une idée, j’ai interrogé ChatGPT. Et voici ce qu’il m’a répondu…
Col
Sur Terre, on se plaint de la pluie, de la chaleur ou des bouchons… mais sur Mars, les colons devront survivre à des températures glaciales, une atmosphère irrespirable et des tempêtes de poussière titanesques. C’est un vrai défi, non ? Pourtant, avec la technologie et une bonne dose d’ingéniosité, la Planète Rouge pourrait bien devenir notre deuxième maison. Mais à quoi ressemblerait réellement la vie là-bas ? Pour en avoir une idée, j’ai interrogé ChatGPT. Et voici ce qu’il m’a répondu…
Coloniser Mars n’est plus seulement un rêve. Entre les projets de SpaceX, la NASA et d’autres agences spatiales, l’idée d’envoyer des humains sur la planète rouge devient de plus en plus crédible. Mais une fois là-bas, comment vivrions-nous ? Où dormirions-nous ? Que mangerions-nous ?
Alors, enfilez votre combinaison spatiale et embarquez avec moi pour un voyage dans le futur, direction Mars, notre potentielle deuxième Terre !
Des habitats futuristes pour survivre
ChatGPT a commencé par notre habitat sur Mars. Selon l’IA, « les premiers colons vivraient probablement dans des habitats pressurisés conçus pour résister aux conditions extrêmes de Mars, telles que de faibles températures et une forte radiation ».
Autrement dit, il n’est pas question de construire une maison avec un joli jardin. Nous vivrions soit dans des dômes gonflables renforcés, soit des structures imprimées en 3D avec du régolithe martien (la poussière rouge qui recouvre la planète).
« Les colons semi-enterreraient ou recouvriraient les habitats de régolithe pour mieux les isoler et les protéger des radiations » a ajouté ChatGPT.
Manger sur Mars, pas de fast-food, mais de l’ingéniosité
Et pour se nourrir sur Mars, la réponse de ChatGPT a été directe. « L’agriculture sur Mars reposerait sur des serres protégées où l’on utiliserait des techniques comme l’hydroponie et l’aéroponie pour cultiver des plantes sans sol ».
Adieu alors les champs de blé et les vergers en plein air ! Tout se ferait sous serre, avec des plantes poussant dans l’eau enrichie en nutriments.
En plus, ChatGPT explique que le régime alimentaire serait principalement végétal, complété par des protéines cultivées en laboratoire et des aliments importés de la Terre.
Et l’énergie et les ressources ?
ChatGPT m’a affirmé que « l’énergie serait principalement produite par des panneaux solaires, bien que la faible intensité solaire sur Mars pourrait nécessiter des compléments comme la fission nucléaire ».
Ça veut dire que nous utiliserions des mini-réacteurs nucléaires pour assurer une production stable. Niveau écologie, nous n’avons donc pas trop le choix. Nous recyclerions chaque goutte d’eau et réutiliserions chaque déchet.
Qui plus est, « ChatGPT assure que rien ne serait gaspillé. L’eau serait filtrée et purifiée en boucle, et l’oxygène produit à partir du dioxyde de carbone martien ».
Communiquer avec la Terre, « la patience obligatoire » dit ChatGPT
Et les appels vers la Terre ? J’espérais pouvoir faire des visios avec mes proches, mais ChatGPT m’a vite calmé. « La communication serait retardée de 5 à 20 minutes en raison de la distance, ce qui rendrait les échanges en temps réel impossibles ».
Nous aurions donc un internet local martien pour échanger avec nos colons, et pour le reste, retour aux bons vieux mails différés.
Ensuite, comment pourrait-on se déplacer sur Mars ? D’après ChatGPT, « des véhicules pressurisés permettraient d’explorer la surface martienne sans combinaison spatiale… On pourrait également construire un réseau de transport, comme un train magnétique reliant différentes colonies ».
Côté santé et adaptation
ChatGPT a aussi évoqué comment notre corps réagirait à la gravité martienne (environ trois fois plus faible que sur Terre).
L’IA m’a donc expliqué que sans entraînement physique, les muscles et les os des colons s’affaibliraient rapidement. Du coup, chaque colon devrait faire du sport tous les jours pour éviter de perdre trop de masse musculaire.
Et à long terme ? Là, ChatGPT m’a soufflé une idée fascinante. Selon le chatbot « des modifications médicales ou génétiques pourraient être envisagées pour aider les humains à mieux s’adapter à Mars ».
Est-ce que ça veut dire que les futurs Martiens auraient des os plus denses, des poumons optimisés, ou même des mutations génétiques ? Franchement, je trouve cela un peu flippant… mais c’est peut-être le prix à payer pour s’installer sur une autre planète.
Concernant l’évolution de la société sur Mars, ChatGPT m’a déclaré qu’ « au début, des scientifiques et des ingénieurs géreraient la colonie, mais avec le temps, des familles pourraient s’installer et une vraie société émergerait ».
Petit à petit, une culture martienne unique se développerait. Nous ne parlerions sûrement plus des Terriens sur Mars, mais des Martiens à part entière.
ChatGPT m’a vraiment fait rêver… mais ça reste une IA !
Grâce à cette discussion, j’ai pu me projeter dans un futur où l’humanité s’installe sur Mars. Ce qui m’a frappé, c’est que tout est techniquement possible, même si cela demandera encore des décennies de recherches et d’innovations.
Mais il y a une chose à garder en tête. ChatGPT n’est qu’une intelligence artificielle. Il ne fait qu’analyser des tonnes de données et générer des réponses basées sur ce qu’il a appris. Ses réponses sont fascinantes, mais elles restent une projection basée sur les connaissances actuelles.
Cela dit, je crois que l’IA sera un outil clé dans notre conquête spatiale. Que ce soit pour simuler des scénarios, résoudre des problèmes complexes ou même assister les premiers colons sur Mars, elle aura sans doute un rôle majeur à jouer.
Selon vous, avons-nous réellement une chance de coloniser la planète rouge un jour ? J’attends vos réflexions !
Ehhh oui, l’IA ne se limite pas à générer des images amusantes ou à écrire des textes captivants. Elle s’attaque aussi à nos vrais problèmes, notamment à un ennemi redoutable : le cancer colorectal.
Ce serait bon de détecter une maladie avant même que vous ne suspectiez quoi que ce soit, non ? Et bien, grâce à l’IA, une avancée prometteuse dans la détection précoce du cancer colorectal vient de voir le jour.
Des chercheurs de l’Université de Birmingham ont exploité la puissance des algor
Ehhh oui, l’IA ne se limite pas à générer des images amusantes ou à écrire des textes captivants. Elle s’attaque aussi à nos vrais problèmes, notamment à un ennemi redoutable : le cancer colorectal.
Ce serait bon de détecter une maladie avant même que vous ne suspectiez quoi que ce soit, non ? Et bien, grâce à l’IA, une avancée prometteuse dans la détection précoce du cancer colorectal vient de voir le jour.
Des chercheurs de l’Université de Birmingham ont exploité la puissance des algorithmes pour identifier des marqueurs biologiques qui pourraient révolutionner le diagnostic du cancer du côlon.
Comment les chercheurs s’y sont pris ?
Lors de l’étude, les chercheurs ont examiné l’une des plus grandes bases de données de la UK Biobank. Ils ont comparé les profils protéiques de personnes en bonne santé et de patients atteints de ce cancer.
Résultat ? Trois protéines – TFF3, LCN2 et CEACAM5 – se révèlent être des marqueurs clés. Ces protéines sont liées à l’adhésion cellulaire et à l’inflammation, deux processus essentiels dans le développement du cancer.
Pour parvenir à cette découverte, ils ont combiné trois modèles d’apprentissage automatique avec l’IA. Ce qui leur a permis d’identifier des schémas invisibles à l’œil nu dans les données.
D’après le Dr Animesh Acharjee, qui a dirigé cette étude, cette avancée pourrait améliorer considérablement la détection précoce de la maladie.
Et personnellement, je trouve cela plutôt formidable vu que le cancer colorectal est l’une des principales causes de décès liés au cancer dans le monde. D’ailleurs, son incidence va, à mon grand regret, continuer d’augmenter dans les années à venir.
Intelligence artificielle, qui que vous soyez, merci de nous aider à lutter contre le cancer !
Savez-vous que le cancer colorectal est le quatrième cancer le plus répandu au Royaume-Uni, avec près de 44 100 nouveaux cas diagnostiqués chaque année. Il se développe lorsque des cellules anormales prolifèrent de manière incontrôlée, touchant le gros intestin, composé du côlon et du rectum.
Aujourd’hui, le diagnostic du cancer colorectal repose sur des biopsies et des analyses complexes de tissus prélevés sur l’intestin. Une méthode moins invasive et accessible pourrait ainsi sauver des vies, car détecter la maladie tôt permet des traitements plus efficaces.
Cela dit, même si les résultats sont prometteurs, ils nécessitent encore des validations à plus grande échelle avant d’être intégrés dans des outils pratiques.
Au moins, ces biomarqueurs représentent un nouvel espoir pour développer de nouveaux outils de diagnostic, plus rapides et plus simples que les méthodes actuelles.
Et cet espoir, c’est justement ce dont beaucoup en ont besoin. Vous êtes d’accord avec moi ?
N’hésitez pas à partager ce que vous en pensez dans le commentaire !
C’est incroyable, mais pourtant vrai ! Ce Canadien a réussi à créer un réacteur nucléaire sur son plan de travail de cuisine en utilisant Claude AI et OpenAI o1 pro et pour seulement 3 000 $.
Hudzah, un homme canadien a réussi à créer une fusion nucléaire avec seulement 3 000 $. Ce réacteur permet de détecter les neutrons et non pour effectuer une fusion complète. Comment l’a-t-il fait ? Avec l’aide des outils dont Claude AI et OpenAI o1 pro et des matériaux comme l’hydrogène et l’oxyde de de
C’est incroyable, mais pourtant vrai ! Ce Canadien a réussi à créer un réacteur nucléaire sur son plan de travail de cuisine en utilisant Claude AI et OpenAI o1 pro et pour seulement 3 000 $.
Hudzah, un homme canadien a réussi à créer une fusion nucléaire avec seulement 3 000 $. Ce réacteur permet de détecter les neutrons et non pour effectuer une fusion complète. Comment l’a-t-il fait ? Avec l’aide des outils dont Claude AI et OpenAI o1 pro et des matériaux comme l’hydrogène et l’oxyde de deutérium. Son objectif a été de développer une chambre à basse pression et à électrolyser le gaz deutérium.
Il a créé un réacteur nucléaire avec l’aide de l’IA ?
Ce Canadien qui se fait appeler Hudzah sur son substack est aussi connu pour ses talents particuliers. En fait, il fabrique des appareils avec des matériaux facilement accessibles au grand public dans son livestream sur X. Parmi les matériaux qu’il utilise, on peut citer l’hydrocar et l’oxyde de deutérium (connu également sous le nom d’eau lourde).
Pour fabriquer son réacteur nucléaire, il a demandé à Claude la documentation. En plus, il a utilisé OpenAI o1 pro pour les instructions de débogage du projet d’énergie de fusion. Notons qu’il a spécifié la confusion sur le câblage électrique ainsi que l’assemblage.
« Je me suis principalement appuyé sur un projet claude géant rempli de documentation provenant de forums, de transcriptions d’appels de @meetgranola , de fils de discussion par courrier électronique et plus encore. Je l’utilise beaucoup pour déboguer, m’aider en matière de sécurité et suivre des instructions inconnues qui ont été décrites dans le processus de construction. J’ai également utilisé o1 pro pour m’aider avec des tâches d’assemblage ou de câblage électrique très compliquées. Je l’ai trouvé beaucoup plus utile pour ces cas ».
Pour rappel, Hudzah avait pour objectif de créer un réacteur nucléaire pouvant scinder des atomes et de produire du plasma. Il ne voulait pas un réacteur qui puisse fusionner, mais plutôt de détecter des neutrons.
Selon lui, la plus difficile était de fabriquer une chambre qui pouvait supporter une pression d’air particulièrement basse. La pression devrait être mesurable en millitorrs (Torr) à un ou deux chiffres.
Un travail de longue haleine !
« Il y a quelques mois, j’ai construit un fusor de démonstration qui produisait du plasma, mais il était loin d’être capable de faire *réellement* de la fusion. J’ai passé les dernières semaines à rassembler des pièces sur eBay, à lutter contre les grèves de Postes Canada, puis à accélérer l’assemblage en utilisant Claude Projects en moins de 2 jours. Construire un fusor pour faire de la fusion est d’un ordre de grandeur plus mortel, » a-t-il expliqué.
Selon lui, cette configuration embarque un précipitateur électrostatique 30 kV/10 mA et 3 mTorr de pression (253 333 fois plus de vide que la pression atmosphérique). Elle est également dotée d’un compteur de bulles pour compter les neutrons. Enfin, elle a un hydrocar pour électrolyser son propre deutérium.
« J’ai électrolysé mon propre gaz deutérium à partir d’eau lourde en utilisant un jouet hydrocar qui avait une cellule PEM (mini machine d’électrolyse) et j’ai stocké le gaz dans une seringue. Cela n’a coûté que 32 $ pour la voiture + 80 $ pour 50 g de D2O pour produire 56 litres de gaz D2 ! », a-t-il ajouté.
Que pensez-vous de cette réalisation ? Partager votre avis dans les commentaires !
Aujourd’hui, les outils d’IA nous permettent d’imaginer à peu près tout ! Ils permettent d’ailleurs de transformer les réflexions des grands rêveurs en quelque chose que l’on peut voir et avec lequel on peut interagir ! C’est justement le cas de ces magnifiques images générées avec ChatGPT.
On a demandé à ChatGPT d’expliquer comment il percevait l’humanité sur 5 000, 10 000 et 50 000 ans d’évolution. Ensuite, les manières dont les humains pourraient changer s’ils étaient laissés isolés sur di
Aujourd’hui, les outils d’IA nous permettent d’imaginer à peu près tout ! Ils permettent d’ailleurs de transformer les réflexions des grands rêveurs en quelque chose que l’on peut voir et avec lequel on peut interagir ! C’est justement le cas de ces magnifiques images générées avec ChatGPT.
On a demandé à ChatGPT d’expliquer comment il percevait l’humanité sur 5 000, 10 000 et 50 000 ans d’évolution. Ensuite, les manières dont les humains pourraient changer s’ils étaient laissés isolés sur différentes planètes terraformées. Ici, c’était Mars qui a été choisi avec sa gravité plus faible, ou même les lunes des géantes gazeuses. Enfin, pour donner vie aux images, l’auteur a utilisé le modèle d’image Mystic 2.5 de Freepik. Découvrez ici les résultats impressionnants de ces images !
« Les humains nés sur Mars évoluent-ils progressivement différemment des humains sur Terre ? »
Selon ChatGPT, aucun humain sur Mars ne ressemblerait plus à un humain. Toutefois, le changement ne concerne pas celui qui viendrait de notre planète dans 50 000 ans. Je dois d’ailleurs admettre que les images nous permettent d’imaginer un système solaire lointain que nous ne verrons jamais !
Mais comment tout cela a commencé ? Les images ont été obtenues à partir d’une simple invite sur ChatGPT . « Supposons que Mars soit terraformée dans le futur et qu’elle possède une atmosphère respirable par l’homme. Étant donné la taille plus petite de la planète, le climat plus froid et la gravité plus faible, les humains nés sur Mars évolueraient-ils progressivement différemment des humains sur Terre ? »
Effectivement, la réponse de ChatGPT fut « oui ». Les Martiens humains seraient plus grands avec des os beaucoup plus fragiles. Par ailleurs, leur sang circulera de manière plus efficace et ils auront une plus importante capacité à retenir la chaleur. Enfin, leur perception pourrait être transformée à cause de l’horizon plus court.
Notons que la réponse de cet outil d’IA a beaucoup utilisé le mot « isolé ». Ce qui a ensuite laissé à élargir la conversation jusqu’à comprendre à quel point l’humanité née sur Mars pourrait devenir incompatible avec l’humanité née sur Terre. En général, il faut environ 50 000 ans de véritable isolement.
À quoi nous ressemblerons dans 50 000 ans ? Voici ce que pense l’IA
« Après 50 000 ans ou plus, les Martiens pourraient être considérés comme une espèce distincte (par exemple, Homo martianus). Bien qu’ils puissent partager un ancêtre commun avec les Terriens (Homo sapiens), ils présenteraient probablement des différences anatomiques, physiologiques et génétiques importantes », a écrit ChatGPT.
De plus, on a demandé à l’IA de décrire comment les Martiens humains pourraient évoluer sur 50 000 ans . C’est ce qui a ensuite permis de créer une invite permettant de les représenter. Compte tenu de l’imperfection de DALL-E, on a demandé de générer une invite pour Freepik au lieu de créer l’image elle-même. Voici l’image et l’invite utilisé :
L’idée
« Supposons qu’une véritable spéciation se produise en raison d’un conflit entre la Terre et Mars peu après la terraformation. Cela a divisé les espèces et laissé Mars complètement isolée pendant des dizaines de milliers d’années. Générez une image d’IA qui montrerait à quoi pourrait ressembler un Homo-martien. »
Le premier résultat était un résultat de générateur d’images IA très typique utilisant des mots comme science-fiction et futuriste. Le deuxième était hyperréaliste, ce qui n’est pas génial si vous voulez qu’un modèle d’image IA crée quelque chose d’apparence réelle. La troisième invite m’a donné ce que je voulais, en spécifiant un appareil photo et un objectif.
L’invite :
« Une photographie d’un homo-martien prise avec un objectif Canon EF 50 mm f/1,8, créant une faible profondeur de champ. Le sujet est un humanoïde grand et élancé aux membres allongés et à la structure osseuse légèrement fragile, adapté à la faible gravité de Mars. Sa peau a une teinte rouge-bronze, évoluée pour un rayonnement UV accru. Ses grands yeux réfléchissants, adaptés à la faible luminosité, regardent l’appareil photo. Ses traits faciaux subtilement extraterrestres comprennent un nez plus large et des lèvres plus fines. Il porte des vêtements simples et pratiques fabriqués à partir de matériaux naturels, mélangeant des motifs semblables à ceux de la Terre avec une esthétique martienne unique. L’arrière-plan est légèrement flou, mettant en valeur un paysage martien accidenté et terraformé avec un sol rougeâtre, une végétation clairsemée et un ciel pâle et poussiéreux. L’éclairage naturel projette une lueur chaude et dorée, ressemblant à une photo prise au coucher du soleil. »
Les humains dans d’autres planètes
Ensuite, ils ont imaginé des humains sur d’autres mondes du système solaire. Parmi eux, on peut citer Vénus, Pluton et les lunes des géantes gazeuses. Après cela, l’invite était la suivante : pourquoi pas un monde rocheux en orbite autour de Proxima Centauri (à environ 4,2 années-lumière de la Terre) ? Il s’agit d’un monde rocheux près d’une naine rouge.
Homo-Vénusien
Le sujet : « Une photographie très détaillée d’un Homo-Vénusien, un descendant d’humains vivant sur une Vénus terraformée depuis 50 000 ans. L’individu a un corps grand et mince avec de longs membres pour dissiper la chaleur, et sa peau a un éclat métallique réfléchissant de bronze ou d’or, évolué pour résister au rayonnement solaire intense. Ses yeux sont grands et dorés, avec des iris réfléchissants adaptés aux longues journées de soleil intense et d’exposition aux UV. Les traits du visage comprennent des nez légèrement aplatis et des pommettes proéminentes, évolués pour respirer efficacement dans une atmosphère dense. Ils portent des tissus légers et naturels, conçus pour un climat chaud et humide. L’arrière-plan montre un paysage vénusien luxuriant avec une végétation dense, un ciel doré et une lueur chaude, faisant allusion à la proximité unique de la planète avec le Soleil. Pris à l’aide d’un objectif 35 mm f/2, avec un éclairage naturel et une profondeur de champ réaliste, comme s’il avait été pris par un voyageur sur Vénus. »
Homo-plutonius
Invite : « Une photo d’un Homo-plutonius, une espèce humaine qui a évolué sur Pluton pendant plus de 50 000 ans. L’individu a une ossature compacte et trapue avec d’épaisses couches de graisse sous-cutanée et des muscles denses pour l’isolation et la survie à des températures proches de la cryogénie. Sa peau est pâle avec une texture givrée, presque cristalline, résistante au froid extrême. De grands yeux réfléchissants d’une teinte orange ou dorée dominent son visage, adaptés à la faible luminosité et capables de détecter le rayonnement infrarouge pour ressentir la chaleur. Ils portent des vêtements bien enveloppés et isolés thermiquement, fabriqués à partir de matériaux organiques. Debout sur une plaine gelée de glace d’azote avec un faible givre de méthane scintillant sous un ciel bleuté et sombre, ils regardent vers le faible Soleil, apparaissant comme une petite étoile brillante. Capturé avec un objectif 35 mm et un éclairage doux, soulignant la froideur austère et étrangère du paysage. »
Homo-titanus
Invite : « Une photo d’un Homo-titanus, une espèce humaine qui a évolué pendant plus de 50 000 ans sur Titan. L’individu a une peau épaisse et pâle avec une texture cireuse pour retenir la chaleur et résister au froid glacial. Son corps trapu conserve l’énergie, avec de larges épaules et des membres courts. De grands yeux sombres avec des surfaces réfléchissantes dominent son visage, adaptés à la faible lumière de Titan. Leurs voies nasales sont larges et entourées de crêtes subtiles pour réchauffer l’air dense et riche en azote. Vêtus de vêtements minimalistes et isolants fabriqués à partir de fibres d’hydrocarbures locales, ils se tiennent à côté d’un lac de méthane sous un ciel orange brumeux, avec les anneaux de Saturne faiblement visibles au loin. Capturé avec un objectif 35 mm, la lumière naturelle met en valeur le paysage glacé et extraterrestre. »
Homo europaeus
Invite : « Une photo d’un Homo-europaeus, une espèce humaine qui a évolué sur Europe il y a plus de 50 000 ans. L’individu a une silhouette grande et élancée avec des mains et des pieds palmés pour naviguer dans les océans glacés. Sa peau est translucide, avec de légères veines bleues visibles sous la surface, et des tâches bioluminescentes brillent faiblement le long de ses bras et de son visage, utilisées pour la communication et la navigation dans l’obscurité. Ses yeux sont grands et réfléchissants, adaptés à la faible luminosité sous la glace d’Europe. Il porte des vêtements légers et organiques adaptés à un environnement aquatique. Debout près d’une fissure de glace déchiquetée avec une faible lueur bleue en dessous, il regarde au loin tandis que Jupiter se profile dans le ciel, projetant de faibles ombres. Pris dans des conditions de faible luminosité avec un objectif grand angle, mettant en valeur le terrain glacé et extraterrestre. »
Homo-ganymédis
Invite : « Une photo d’un Homo-ganymedis, une espèce humaine qui a évolué pendant plus de 50 000 ans sur Ganymède. L’individu a une carrure moyennement grande avec une musculature compacte et dense pour s’adapter à la faible gravité de la lune. Sa peau est d’un ton bronze métallique, évoluée pour résister aux radiations et réfléchir à l’énergie solaire. Ses yeux sont en amande et légèrement plus grands que ceux des humains de la Terre, conçus pour maximiser la visibilité dans des conditions de faible luminosité. Ses traits du visage comprennent des pommettes hautes et une poitrine large, abritant des poumons adaptés à la faible atmosphère d’oxygène de Ganymède. Ils portent des tissus naturels superposés, tissés à partir de matériaux issus de la bio-ingénierie. Debout sur une plaine accidentée et glacée avec de faibles traces d’eau liquide et des fissures dans le terrain, ils regardent vers la forme massive de Jupiter, brillant faiblement dans le ciel sombre. Pris avec un objectif 50 mm f/1,4 pour des détails nets et une faible profondeur de champ. »
Homo-proximus
Invite : « Une photographie d’un Homo-proximus, une espèce humaine qui a évolué pendant plus de 50 000 ans sur Proxima-c. L’individu a une ossature trapue et musclée avec des os denses et des proportions compactes pour s’adapter à la gravité plus élevée de la planète. Sa peau est sombre avec un éclat métallique subtil, évoluée pour résister aux radiations intenses des éruptions de Proxima Centauri. Ses yeux sont grands, en forme d’amande et légèrement rouges, conçus pour voir dans la faible lumière riche en infrarouge. Ses traits du visage comprennent de larges pommettes et un nez bas et large, adaptés au traitement de l’air dense et froid. Debout sur un terrain rocheux sous un ciel sombre et rougeâtre, l’arrière-plan montre des falaises accidentées et une atmosphère brumeuse éclairée par la faible lueur ardente de Proxima Centauri. Prise avec un objectif grand angle, la photo se concentre sur leur physiologie unique tout en mettant en valeur l’environnement étranger mais pourtant familier. »
Alors, comment trouvez-vous ces images ? Quelle image est la plus réaliste ? Est-ce que cela pourrait réellement se réaliser ?
Une fois encore, l’IA vient de pulvériser un domaine où les humains étaient les rois depuis des siècles. Prévoir le temps, cette science au mélange d’intuition et calculs complexes, a trouvé son maître. Il s’agit de Gencast, un outil signé DeepMind. Alors, préparez-vous à découvrir comment l’IA surpasse les météorologues humains.
La technologie est maintenant capable de prédire la météo plus précisément, plus rapidement, et pour une période plus longue. Et c’est exactement ce que vient de réa
Une fois encore, l’IA vient de pulvériser un domaine où les humains étaient les rois depuis des siècles. Prévoir le temps, cette science au mélange d’intuition et calculs complexes, a trouvé son maître. Il s’agit de Gencast, un outil signé DeepMind. Alors, préparez-vous à découvrir comment l’IA surpasse les météorologues humains.
La technologie est maintenant capable de prédire la météo plus précisément, plus rapidement, et pour une période plus longue. Et c’est exactement ce que vient de réaliser DeepMind avec son dernier outil, GenCast. Décrit comme une avancée majeure dans la revue Nature, cette IA laisse les météorologues humains sur le banc de touche.
D’après les scientifiques, « c’est comme si nous avions réalisé des décennies d’améliorations en un an. » Rien que ça. Ainsi, avec GenCast, la météo devient une prédiction fiable qui pourrait sauver des vies et changer la donne face aux défis climatiques.
Une IA qui cloue le bec aux météorologues !
Je me souviens quand Deepmind a annoncé GenCast ce 4 décembre. Et cette IA est une vraie claque technologique pour les météorologues. Contrairement aux systèmes classiques qui peinent à prédire précisément au-delà de 10 jours, cette IA peut aller jusqu’à 15 jours avec une précision jamais vue.
Today in @Nature, we’re presenting GenCast: our new AI weather model which gives us the probabilities of different weather conditions up to 15 days ahead with state-of-the-art accuracy. ☁️⚡
Kerry Emanuel, un grand ponte du MIT, l’a résumé parfaitement. « C’est une affaire importante » affirme-t-il. En plus, pouvoir prévoir des catastrophes naturelles avec 5 jours d’avance supplémentaire, c’est un jackpot en termes de vies sauvées et d’argent économisé. Par exemple, si vous recevez une alerte précoce pour un cyclone ou des pluies torrentielles, vous auriez tout le temps pour agir.
Ce que je trouve impressionnant avec GenCast, c’est son côté probabiliste. Au lieu de donner une réponse binaire comme « il va pleuvoir » ou « il fera sec », elle vous donne des probabilités claires. Notamment comme « 70 % de chances de pluie à 15h ».
Et devinez quoi ? Gencast n’a même pas besoin des superordinateurs géants qu’utilisent les centres météorologiques. Grâce à son design optimisé, cette IA tourne sur des machines plus petites et produit des prévisions très rapides.
DeepMind ne garde pas cette avancée pour elle
DeepMind affirme que Gencast pourrait aider à gérer les impacts du changement climatique. Prenez l’énergie éolienne, par exemple. Prévoir avec précision quand et où les vents souffleront peut améliorer la gestion des réseaux électriques.
Toutefois, un point noir persiste ! Ce sont les besoins énergétiques des IA comme celle-ci. Bien que DeepMind travaille à réduire cet impact, la question reste cruciale à une époque où chaque tonne de CO₂ compte.
Par ailleurs, DeepMind collabore également avec des centres comme l’ECMWF (Centre européen pour les prévisions météorologiques) pour partager son savoir-faire. Une IA qui aide toute une communauté scientifique à progresser, c’est beau, non ?
Et vous, que pensez-vous de Gencast ? Est-ce la fin des météorologues humains ou une collaboration prometteuse ? Partagez votre avis en commentaire !
Voyager dans le temps ? Sérieusement, qui n’y a jamais pensé ? Sauter dans le futur pour découvrir les technologies du XXIIe siècle ou revenir dans le passé pour corriger une boulette… Alors, comme je n’ai pas (encore) de DeLorean, j’ai demandé à ChatGPT, cette IA pleine de ressources, de me donner un coup de main. Et devinez quoi ? Il a réussi à rendre le voyage temporel presque plausible…
Le concept de voyage dans le temps a toujours fasciné l’humanité. Films, séries, livres, discussions an
Voyager dans le temps ? Sérieusement, qui n’y a jamais pensé ? Sauter dans le futur pour découvrir les technologies du XXIIe siècle ou revenir dans le passé pour corriger une boulette… Alors, comme je n’ai pas (encore) de DeLorean, j’ai demandé à ChatGPT, cette IA pleine de ressources, de me donner un coup de main. Et devinez quoi ? Il a réussi à rendre le voyage temporel presque plausible…
Le concept de voyage dans le temps a toujours fasciné l’humanité. Films, séries, livres, discussions animées entre potes… c’est un thème que nous adorons explorer. Et moi, curieux, j’ai donc décidé de poser LA question à ChatGPT : « Si tu pouvais m’aider à voyager dans le temps ? Des suggestions stp ? ». Ses réponses ? Des idées farfelues, des pistes sérieuses, et surtout, un voyage (virtuel) dans un univers où tout semble possible. Prêt·e à découvrir ce que l’IA m’a soufflé ? Allez, embarquons !
Voyagez dans le temps à travers la lecture et la fiction
La première réponse de ChatGPT a été simple, mais brillante. « Même si tu ne peux pas voyager physiquement dans le passé ou le futur, il existe des moyens d’explorer ces époques par la lecture et la fiction ». Et là, l’IA m’a sorti une liste de livres et films incroyables.
Pourquoi ne pas commencer avec un classique ? La Machine à explorer le temps de H.G. Wells, par exemple, est un must-read. Et si tu préfères des œuvres plus modernes, ChatGPT m’a recommandé Le Maître du Haut Château de Philip K. Dick. Par ailleurs, le chatbot m’a suggéré des films comme Retour vers le futur, Interstellar et des séries cultes comme Doctor Who et Dark.
La réalité virtuelle, un portail vers d’autres époques
« Tu peux peut-être t’évader dans un autre temps en utilisant la réalité virtuelle. Si tu veux « voyager » à travers le temps, la VR offre des simulations immersives de différentes époques », a enchaîné ChatGPT.
Avec ce genre de gadget futuriste, vous pouvez visiter des époques passées dans des reconstitutions très réalistes. Vous pouvez par exemple vous déambuler dans une Égypte antique en pleine gloire, visiter la Rome Antique ou explorer Pompéi avant l’éruption du Vésuve et les rues médiévales de Paris d’antan.
Fouiller le passé avec la généalogie
Ensuite, ChatGPT m’a surpris avec une idée plus personnelle. « Tu peux explorer ton propre passé à travers la généalogie. Comprendre tes ancêtres et leur époque, cela peut être une manière de « voyager » dans le temps ».
La généalogie, c’est un peu comme voyager dans le temps, mais version « enquête familiale ». Le chatbot a même mentionné des outils comme Ancestry et MyHeritage. Selon ChatGPT, nous pourrions y «découvrir des anecdotes, des événements historiques, ou même de voir des photos et des documents anciens des ancêtres. »
« … Le temps peut être affecté par la vitesse. À mesure qu’un objet approche de la vitesse de la lumière, le temps pour cet objet ralentit par rapport à un observateur extérieur. Ce phénomène est appelé dilatation du temps. Si tu voyageais à une vitesse proche de celle de la lumière, tu vivrais des heures ou des jours, tandis que plusieurs années pourraient s’écouler pour ceux restés sur Terre.» explique ChatGPT.
Et puis, l’IA a évoqué «les trous de ver». Ce sont des hypothétiques raccourcis dans l’espace-temps qui pourraient permettre de sauter d’un point A à un point B dans l’univers, et même dans le temps. Par contre, ChatGPT avoue que «cette idée… n’a aucune base pratique aujourd’hui.»
Essayez la méditation et la réflexion
L’idée la plus originale, selon moi, est venue à la fin de notre discussion. ChatGPT m’a suggéré une méthode qui ne coûte rien. C’est de voyager dans le temps avec notre esprit.
L’IA a mentionné que «certains pratiquent des méditations profondes ou des régimes de visualisation qui leur permettent de se projeter mentalement dans des périodes passées ou futures».
Avec des méditations guidées, par exemple, vous pouvez vous projeter dans une époque précise et vivre les sensations d’un instant marquant de votre propre passé. Et si vous préférez rêver d’avenir, essayez juste de visualiser où vous voulez être dans 5 ou 10 ans.
Un peu de philosophie du voyage dans le temps
Enfin, ChatGPT n’a pas pu s’empêcher d’ajouter un point de vue plus philosophique. L’IA m’a aussi parlé des fameux «paradoxes temporels comme celui du grand-père (où un voyageur temporel retourne dans le passé et empêche la naissance de son grand-père)».
Cette réponse m’a fait sourire… et réfléchir pendant des heures. Comment avez-vous voyagé dans le passé en premier lieu ? Je vous jure, ce genre de réflexion peut vous tenir éveillé toute une nuit !
Merci ChatGPT, mais…
Au final, ChatGPT m’a donc montré que, même si nous ne pouvons pas encore sauter dans le passé ou le futur avec une machine, il existe mille façons d’explorer le concept. Livres, réalité virtuelle, généalogie, méditation… j’avoue, tout cela m’a donné l’impression de voyager d’une manière ou d’une autre.
Mais soyons clairs, ChatGPT n’est qu’une IA. Il ne fait qu’organiser des idées en fonction des questions que nous lui posons et de nos prompts. Moi, je pense que ChatGPT est surtout un outil génial pour stimuler notre curiosité. Il donne des pistes, des idées, et parfois des réponses que nous n’attendions pas, donc il reste un guide.
Ainsi, c’est à nous de faire le vrai travail, réfléchir, explorer, tester, et, surtout, rêver. Et pour ce qui en est des voyages dans le temps, je crois que nous ne finirons jamais d’y penser. Car peut-être qu’un jour, ce sera plus qu’un rêve !
Et vous, quelle méthode vous attire le plus pour remonter ou sauter dans le temps ? Ou bien si vous avez d’autres suggestions, n’hésitez pas à les partager en commentaire !
L’intelligence artificielle (IA) dépasse les experts humains dans la prédiction de résultats neuroscientifiques. Cette découverte est le fruit d’une étude menée par l’University College London (UCL).
Je me demande si la machine a surpassé son maître. Conçue par des chercheurs, l’intelligence artificielle est maintenant capable de prédire les résultats de recherche mieux que les experts humains eux-mêmes.
Récemment, une étude a révélé que l’IA dépasse les humains dans les prédictions scient
Je me demande si la machine a surpassé son maître. Conçue par des chercheurs, l’intelligence artificielle est maintenant capable de prédire les résultats de recherche mieux que les experts humains eux-mêmes.
Récemment, une étude a révélé que l’IA dépasse les humains dans les prédictions scientifiques. Les modèles linguistiques d’intelligence artificielle peuvent prévoir les résultats d’études en neurosciences avec plus de précision que les experts.
Quand il s’agit de précision, l’IA gagne la partie
Selon cette étude de l’University College London, les performances des grands modèles linguistiques (LLM) ont surpris tout le monde. Quand il s’agit de comparer l’IA et les experts humains, les résultats sont frappants.
Les LLM analysent deux résumés d’études neuroscientifiques et doivent identifier lequel contient les véritables résultats. Pendant ce temps, 171 neuroscientifiques spécialistes tentent de relever le même défi.
D’abord, les experts humains montrent leurs limites, avec une précision moyenne de seulement 63 %. Ensuite, même les scientifiques les plus qualifiés, triés sur le volet, n’atteignent que 66 %. De l’autre côté, l’IA surclasse les humains avec une précision impressionnante de 81 %.
D’ailleurs, les LLM semblent particulièrement fiables quand ils affichent une forte confiance dans leurs réponses. De ce fait, leur capacité à traiter d’immenses volumes de données leur donne un avantage indéniable. Et selon les chercheurs, cette performance souligne l’utilité de l’IA dans des domaines complexes où les erreurs coûtent cher.
BrainGPT, une IA spécialisée, révolutionne la recherche
Toutefois, cette étude ne s’est pas arrêtée à une simple comparaison. Afin de pousser l’innovation, les chercheurs ont adapté une version de Mistral, un modèle français d’IA générative, en le formant spécifiquement à la littérature neuroscientifique. « Cette nouvelle version s’est révélée encore plus efficace pour prédire les résultats de l’étude, avec un score de précision de 86 %. »
Pour en arriver à cette conclusion, ils ont créé BrainGPT, un modèle capable de lire et d’interpréter la littérature spécialisée.
Selon le professeur Bradley Love, ces résultats montrent qu’il ne faudra pas longtemps avant que l’IA devienne indispensable : « À la lumière de nos résultats, nous pensons qu’il ne faudra pas longtemps avant que les scientifiques utilisent des outils d’IA pour concevoir l’expérience la plus efficace pour répondre à leur question. »
De ce fait, BrainGPT ne se limite pas à résumer des données passées. Il anticipe aussi les résultats futurs, économisant ainsi temps et ressources pour les chercheurs. « Bien que notre étude se soit concentrée sur les neurosciences, notre approche était universelle et devrait être appliquée avec succès à toutes les sciences », affirme Love. Quant aux chercheurs, ils y voient une opportunité unique de perfectionner leurs méthodologies.
Une collaboration prometteuse entre humains et machines
Nous savons tous à quel point la science avance grâce à des essais et des erreurs… Or, ces processus sont longs et exigeants. L’intelligence artificielle, quant à elle, offre une solution pour accélérer ces étapes cruciales. En analysant des millions de publications, elle identifie les tendances oubliées ou négligées par les chercheurs.
Et si cette alliance entre humains et machines devenait la norme ? D’ailleurs, l’étude souligne que les outils comme BrainGPT ne remplacent pas les scientifiques. Ils les complètent, afin de repousser les limites de leur créativité.
De l’autre côté, cela pose une question cruciale : les chercheurs sont-ils suffisamment innovants, ou se contentent-ils de suivre les modèles existants ?
Pour mieux exploiter ce potentiel, le Dr Ken Luo, un des auteurs de l’étude, envisage des outils interactifs. Par exemple, une plateforme où les scientifiques décriraient leur expérience, et où l’IA proposerait des ajustements ou des prédictions. Grâce à cette collaboration, les décisions seraient plus éclairées, les échecs réduits, et les résultats accélérés.
Alors, que pensez-vous des résultats de cette étude sur l’IA ? Partagez vos avis et réflexions dans les commentaires !
L’histoire du scientifique regorge de figures audacieuses qui défient les normes. Parmi elles, Fei-Fei Li se distingue. Son projet ambitieux a transformé l’intelligence artificielle. Découvrez comment ce scientifique rebelle a, par sa ténacité, déclenché le boom de l’intelligence artificielle.
Fei-Fei Li, une scientifique audacieuse, a lancé un projet ambitieux qui a transformé l’intelligence artificielle (IA) malgré le scepticisme de ses collègues. En 2007, elle crée une base de données géan
L’histoire du scientifique regorge de figures audacieuses qui défient les normes. Parmi elles, Fei-Fei Li se distingue. Son projet ambitieux a transformé l’intelligence artificielle. Découvrez comment ce scientifique rebelle a, par sa ténacité, déclenché le boom de l’intelligence artificielle.
Fei-Fei Li, une scientifique audacieuse, a lancé un projet ambitieux qui a transformé l’intelligence artificielle (IA) malgré le scepticisme de ses collègues. En 2007, elle crée une base de données géante, ImageNet, pour répondre aux besoins de l’apprentissage profond (Deep Learning).
Son travail, accompagné des efforts de visionnaires comme Geoffrey Hinton et Jensen Huang, a ouvert la voie à l’essor de l’IA moderne. Voici comment ces pionniers, en allant à contre-courant, ont tout changé.
Fei-Fei Li et son rêve d’une base de données géante
Pour débuter, Fei-Fei Li, professeure d’informatique à Princeton, pressentait qu’une grande base de données était nécessaire pour perfectionner les algorithmes de vision par ordinateur.
ImageNet visait à rassembler 14 millions d’images. Chaque image était classée dans l’une des 22 000 catégories. Cette ambition semblait folle à ses collègues.
À l’époque, personne n’aurait cru qu’une immense collection d’images classées, à savoir ImageNet, pourrait faire avancer la science. Malgré les critiques, elle poursuit son projet, consciente que l’ampleur des données pouvait changer la donne.
Avec l’aide d’Amazon Mechanical Turk, elle mobilise une main-d’œuvre internationale pour trier et étiqueter des millions d’images. Cela aurait pris 18 ans à faire manuellement, mais grâce au crowdsourcing, elle parvient à finaliser ImageNet en 2 ans seulement.
Pourtant, au départ, ImageNet ne rencontre pas le succès attendu. Ce n’est qu’en 2012, lorsqu’un modèle d’IA utilise ImageNet pour obtenir des résultats impressionnants, que son potentiel est enfin reconnu.
Les GPU et l’audace de Jensen Huang
Pendant que Fei-Fei Li développait ImageNet, un autre visionnaire, Jensen Huang, PDG de Nvidia, réfléchissait à des usages alternatifs pour les GPU(processeurs graphiques) au-delà des jeux vidéo.
Ces puces étaient conçues pour les calculs intensifs nécessaires aux graphismes 3D, mais Huang entrevoit leur potentiel pour des calculs scientifiques. En 2006, il lance CUDA, une plateforme pour que les GPU puissent s’appliquer à des tâches diverses.
Je peux imaginer à quel point son ambition a dû intriguer, voire déranger, au départ. Les scientifiques doutaient et les investisseurs restaient sceptiques, pourtant, Huang persévère.
Geoffrey Hinton, qui avait toujours cru en l’IA, utilise les GPU pour entraîner des réseaux neuronaux bien plus vite que les processeurs habituels.
En 2012, l’IA AlexNet, entraînée sur ImageNet et avec la puissance des GPU, surpasse tout ce qui avait été fait en reconnaissance d’images. C’est là que CUDA et les GPU de Nvidia trouvent leur place dans l’IA.
Trois scientifiques s’allient pour briser les frontières de l’audace
À mes yeux, les progrès de l’IA moderne sont inséparables de l’audace de ces trois scientifiques. Geoffrey Hinton, un rebelle scientifique à l’esprit ouvert, a été convaincu des capacités des réseaux neuronaux, même lorsque tous les autres se détournaient de cette approche.
Fei-Fei Li, contre toute attente, a mené son projet ImageNet à terme, inspirée par l’idée que la quantité de données pouvait faire évoluer la recherche. Enfin, Jensen Huang, visionnaire et persévérant, croyait que ses GPU pouvaient servir bien au-delà des jeux vidéo.
Ces trois pionniers, qui ont chacun suivi une intuition forte, ont permis de faire évoluer le domaine de l’IA dans des directions insoupçonnées. Quand je pense à leur histoire, je réalise combien une simple conviction, portée à son terme, peut révolutionner la science.
Aujourd’hui, les chercheurs utilisent encore ImageNet, CUDA, et les GPU Nvidia dans des domaines variés, de la reconnaissance d’images à l’analyse de données.
Et vous ? Que pensez-vous de l’audace de ces scientifiques qui ont osé défier les conventions pour transformer le domaine de l’intelligence artificielle ? N’hésitez pas à partager vos avis dans les commentaires !
Comme il l’avait annoncé en septembre dernier à l’occasion de sa levée de fonds de 5,5 millions d’euros, Probabl, l’opérateur officiel de la bibliothèque open source incontournable pour le ML, scikit-learn, a lancé le 31 octobre dernier, en partenariat avec Inria et Artefact, le premier programme de certification officiel scikit-learn.
Fondée en septembre 2023, issue d’un projet confié à Inria par le secrétariat général pour l’investissement dans le cadre de France 2030, la start-up Probabl prop
Comme il l’avait annoncé en septembre dernier à l’occasion de sa levée de fonds de 5,5 millions d’euros, Probabl, l’opérateur officiel de la bibliothèque open source incontournable pour le ML, scikit-learn, a lancé le 31 octobre dernier, en partenariat avec Inria et Artefact, le premier programme de certification officiel scikit-learn.
Fondée en septembre 2023, issue d’un projet confié à Inria par le secrétariat général pour l’investissement dans le cadre de France 2030, la start-up Probabl propose des solutions et des services basés sur la bibliothèque open-source d’apprentissage statistique en Python “scikit-learn”, l’une des plus utilisées dans le monde avec PyTorch et TensorFlow,“afin de pérenniser son existence et d’assurer son rayonnement”.
Scikit-learn : une bibliothèque open-source au cœur de l’écosystème du machine learning
Avec plus de 80 millions de téléchargements par mois, scikit-learn est devenue incontournable pour les data scientists et les chercheurs. En tant que bibliothèque open source, elle favorise une approche transparente et collaborative de la technologie, loin des solutions propriétaires qui limitent la flexibilité. Elle permet ainsi aux entreprises et aux chercheurs de concevoir des solutions sans les contraintes imposées par certains fournisseurs, un point particulièrement apprécié par la communauté technologique européenne.
Probabl souligne dans son communiqué :
“Scikit-learn est un composant essentiel pour d’innombrables projets, jouant un rôle fondamental dans près d’un million de projets et plus de 15 000 packages structurés. Elle est une pièce maîtresse de l’écosystème plus large qui stimule l’innovation en machine learning et en science des données”.
Avec la première certification officielle de scikit-learn, Probabl entend établir une nouvelle référence pour la formation de base en IA.
Une certification pour soutenir la montée en compétence en machine learning
Probabl a conçu ce programme en collaboration avec des membres clés de l’équipe scikit-learn, des experts de l’industrie et des formateurs renommés. Ce programme de certification vise à répondre aux attentes croissantes des employeurs pour des compétences vérifiables dans la data science, tout en renforçant l’utilisation éthique et responsable de l’IA.
Yann Lechelle, co-fondateur et PDG de Probabl, souligne l’importance d’une telle reconnaissance :
“Offrir un programme de certification mondial aux utilisateurs et formateurs de scikit-learn est essentiel pour reconnaître et valider les centaines, voire les milliers d’heures que les data scientists du monde entier ont consacrées à la maîtrise de ce framework. Cela établira une norme d’excellence pour maximiser leur capacité à générer de la valeur commerciale dans le machine learning et l’IA”.
Un parcours en trois niveaux pour répondre aux besoins de tous les professionnels
Le programme est structuré en trois niveaux : Associé, Professionnel et Expert, correspondant à des étapes spécifiques d’évolution dans une carrière en data science. L’objectif est de fournir une montée en compétence progressive, allant des fondamentaux pour les novices jusqu’aux applications complexes pour les experts du secteur. Ce parcours est accessible à tous, quelle que soit l’étape de carrière ou les origines des candidats.
Probabl souhaite ainsi répondre aux besoins des candidats en reconversion professionnelle, des débutants en data science, ainsi que des professionnels confirmés souhaitant renforcer leur expertise. Cette approche inclusive est soutenue par la plateforme sécurisée Webassessor de Kryterion, qui permet aux candidats de passer leurs examens en ligne, où qu’ils se trouvent. Ces examens évaluent rigoureusement leur capacité à appliquer les connaissances théoriques dans des scénarios réels. En cas de succès, un badge numérique délivré par Credly certifie les compétences acquises, que les candidats peuvent partager sur LinkedIn et d’autres plateformes professionnelles.
Inria et Artefact, des partenaires de premier plan pour un programme de qualité
Inria, institut français de recherche en sciences du numérique, joue un rôle clé dans le soutien à scikit-learn depuis sa création. Sa participation garantit que les certifications scikit-learn resteront alignées sur les dernières avancées académiques.
Artefact, expert en applications industrielles du machine learning, apporte sa vision pratique et son savoir-faire en entreprise, contribuant ainsi à un programme de certification qui répond aux réalités des usages en entreprise. Ce partenariat assure que la certification scikit-learn, soutenue par la rigueur académique et l’expertise pratique, bénéficiera autant aux chercheurs qu’aux entreprises.
En unissant des valeurs académiques, des exigences éthiques et des compétences industrielles, ce programme aspire à établir un nouveau standard pour la communauté des data scientists, où la maîtrise technique se conjugue à la responsabilité.
Probabl lance le premier programme de certification Scikit-learn
L’IA issue de la collaboration entre Alibaba Cloud, l’Université Sun Yat-sen et l’Université de Sydney a permis la découverte de 160 000 nouveaux virus à ARN. C’est une révolution !
Une étude révolutionnaire montre comment l’intelligence artificielle a identifié plus de 160 000 nouvelles espèces de virus à ARN, élargissant ainsi notre compréhension de la diversité virale.
Cette méthode, développée par une équipe internationale, utilise l’IA pour analyser la « matière noire » génétique, pe
L’IA issue de la collaboration entre Alibaba Cloud, l’Université Sun Yat-sen et l’Université de Sydney a permis la découverte de 160 000 nouveaux virus à ARN. C’est une révolution !
Une étude révolutionnaire montre comment l’intelligence artificielle a identifié plus de 160 000 nouvelles espèces de virus à ARN, élargissant ainsi notre compréhension de la diversité virale.
Cette méthode, développée par une équipe internationale, utilise l’IA pour analyser la « matière noire » génétique, permettant de découvrir des virus dans des environnements extrêmes. Cette approche pourrait transformer la virologie et la bioinformatique.
L’IA LucaProt : mieux que votre biologiste pour découvrir les virus
Cette découverte révolutionnaire résulte d’une collaboration entre Alibaba Cloud, l’Université Sun Yat-sen et l’Université de Sydney. L’équipe a créé LucaProt, un algorithme d’apprentissage profond.
Ce progrès est dirigé par le professeur Edward Holmes de l’Université de Sydney et Mang Shi de l’Université Sun Yat-sen. Et ce, avec la contribution du Dr Zhao-Rong Li d’Alibaba Cloud Intelligence.
LucaProt est conçu pour détecter les virus à ARN. Il utilise un modèle d’apprentissage profond qui dépasse les pipelines bioinformatiques traditionnels. Il analyse les séquences génétiques et les structures secondaires des protéines de réplication pour identifier rapidement les espèces virales.
Cet outil d’IA peut détecter près d’une espèce par seconde avec une grande précision. Cette capacité révolutionne la découverte de virus, réduisant considérablement le temps nécessaire à ces recherches traditionnelles.
Où est-elle, la révolution ?
Cette étude, publiée dans Cell, est la plus vaste jamais réalisée sur la découverte de virus dans des environnements variés. Elle a révélé des virus dans des milieux extrêmes, comme l’atmosphère, les sources chaudes et les sources hydrothermales.
Les résultats mettent en lumière la biodiversité exceptionnelle des virus à ARN et leur grande adaptabilité. Ce qui ouvre la porte à de nouvelles perspectives pour comprendre l’évolution des virus et d’autres formes de vie élémentaires dans ces conditions difficiles.
Les répercussions de cette découverte sont considérables, offrant des perspectives d’application en médecine, technologies de la santé et agrotechnologie. En approfondissant notre connaissance de la biodiversité virale, les chercheurs pourront mieux anticiper et contrôler les futures pandémies.
D’ailleurs, les méthodes d’intelligence artificielle développées dans cette étude pourraient conduire à de nouveaux outils en génomique microbienne et en épidémiologie. Ce qui permet des réponses plus précises et rapides aux menaces virales
Grâce à cette avancée, les chercheurs veulent améliorer leur outil d’IA pour découvrir davantage de diversité virale à l’avenir. De plus, l’intégration de l’IA en virologie accélère les découvertes et éclaire des aspects inconnus de l’évolution et de l’écologie virales. Cela représente un progrès majeur pour ce domaine.
Une équipe de chercheurs a créé une langue artificielle connectée à une IA, capable de distinguer les aliments et de détecter les produits chimiques. Elle peut être utilisée pour détecter la contamination dans la nourriture ou pour évaluer son niveau de fraîcheur, et présente un potentiel révolutionnaire pour l’industrie agroalimentaire !
Depuis les années 1940, les entreprises de l’industrie agroalimentaire font appel à des testeurs professionnels pour assurer la qualité de leurs produits.
Une équipe de chercheurs a créé une langue artificielle connectée à une IA, capable de distinguer les aliments et de détecter les produits chimiques. Elle peut être utilisée pour détecter la contamination dans la nourriture ou pour évaluer son niveau de fraîcheur, et présente un potentiel révolutionnaire pour l’industrie agroalimentaire !
Depuis les années 1940, les entreprises de l’industrie agroalimentaire font appel à des testeurs professionnels pour assurer la qualité de leurs produits.
Les laboratoires effectuent des analyses sensorielles et utilisent des méthodes scientifiques pour évaluer la saveur, l’odeur, la texture et l’apparence des aliments.
Toutefois, avec l’essor de l’intelligence artificielle, le métier d’évaluateur sensoriel pourrait très prochainement disparaître !
Les chercheurs de l’université Penn State en Pennsylvanie ont développé une langue électronique capable d’identifier les différences entre des liquides similaires.
Elle peut notamment mesurer la quantité d’eau dans du lait, ou distinguer les types de soda et les variétés de café. Le système peut même reconnaître le Pepsi et le Coca-Cola !
Publiée le 9 octobre 2024 dans le journal Nature, l’étude montre que cette langue IA est capable de détecter, classifier, et évaluer la qualité et la fraîcheur de différentes substances. Ainsi, cette langue est même capable de détecter si le lait est contaminé !
Une reproduction artificielle du système gustatif biologique
Comme l’explique Saptarshi Das, professeur à Penn State, « nous essayons de créer une langue artificielle, mais la façon dont nous expérimentons les différents aliments implique davantage que la langue».
En effet, la langue est constituée de récepteurs de goûts qui interagissent avec les variétés de nourriture et envoient leurs informations au cortex gustatif qui est un réseau de neurones biologique.
Situé dans le cerveau, le cortex gustatif perçoit et interprète les goûts au-delà des catégories basiques détectées par les récepteurs : sucré, salé, aigre et amer.
À mesure que le cerveau se familiarise avec ces goûts, il devient plus habile pour détecter la nuance subtile entre les différentes saveurs.
L’objectif des chercheurs était donc de répliquer la fonction du cortex gustatif en développant un algorithme de Machine Learning conçu pour l’imiter.
Leur langue IA est constituée de graphène et de capteurs chimiques. Ces derniers détectent et mesurent la composition chimique des liquides : glucides, protéines, lipides, acides et vitamines.
Ils convertissent ensuite cette information en signaux électriques, qu’il envoie au réseau de neurones artificiels à la manière dont la langue communique avec le cortex chez l’humain.
La langue IA reconnaît les jus de fruits avec 98% de précision
Electronic Tongue Uses AI to Detect Differences in Liquids
Researchers have created an AI-powered "electronic tongue" that can distinguish between subtle differences in liquids, such as milk freshness, soda types, and coffee blends.
Ce réseau neuronal a été entraîné sur différents jeux de données et a reçu 20 tâches spécifiques à apprendre. L’objectif était de comprendre comment les liquides affectent les propriétés électriques des capteurs.
Suite à cet entraînement, la langue IA est parvenue à détecter plusieurs échantillons avec exactitude : lait dilué, Coca, Pepsi, Coca Zero, expresso, jus de fruits…
Il lui faut environ une minute pour déchiffrer le contenu avec une exactitude de plus de 80%. Concernant les jus de fruits, elle a même identifié le type de fruit avec 98% d’exactitude et déterminé son âge avec 99% de précision.
Par la suite, « après avoir atteint une précision raisonnable avec des paramètres sélectionnés par l’humain, nous avons décidé de laisser le réseau de neurones définir ses propres critères en lui fournissant des données de capteurs brutes », explique le co-auteur Andrew Pannone.
Avec cette approche, ils ont alors découvert que le réseau de neurones atteignait une précision d’inférence presque idéale de plus de 95% !
Une solution au problème de la contamination PFAS ?
L’utilisation de cette langue IA pour détecter les différences subtiles dans les liquides, surpassant la perception humaine, pourrait permettre d’identifier les contaminants dans la nourriture et de surveiller la fraîcheur des aliments.
À l’heure actuelle, même si des actions correctives existent en cas de contamination de la nourriture, il est plus difficile de surveiller la fraîcheur des aliments en raison de la composition chimique complexe et variable des aliments.
Or, les aliments avariés sont dangereux à consommer et ont une valeur nutritionnelle nettement réduite. C’est un vrai défi dans la chaîne de production et de distribution de nourriture.
Par exemple, les alkyles perfluorés et polyfluorés (PFAS) sont largement utilisés dans les processus industriels et présents dans les produits de consommation malgré leur dangerosité.
Ils risquent aussi de s’accumuler dans l’environnement, notamment dans l’eau potable. Ce groupe de plus de 4700 « produits chimiques éternels » fabriqués par l’homme est utilisé dans les textiles, les cosmétiques, les meubles, les peintures, les emballages alimentaires et bien d’autres produits de consommation.
L’exposition aux PFAS peut causer des problèmes de reproduction, de développement, des soucis au foie et aux reins ou encore des effets immunologiques. En permettant de les détecter dans l’eau, la langue IA pourrait être une solution au problème.
Des applications possibles dans le domaine médical
Les chercheurs sont convaincus que leur technologie basée sur le graphène et le Machine Learning peut faire office de plateforme abordable pour de nombreuses applications de détection chimique dans la chaîne logistique alimentaire et bien au-delà.
Pour l’heure, ses capacités sont uniquement limitées par ses données d’entraînement. Cette technologie pourrait notamment être étendue au domaine du diagnostic médical…
Alors, que pensez-vous de cette technologie ? Quelles pourraient être les applications potentielles ? Partagez votre avis en commentaire !
L'intelligence artificielle, parfois perçue comme distante, devient aujourd'hui plus humaine que jamais. Une IA qui, non seulement, comprend, mais aussi conduit des recherches scientifiques de manière autonome.
Sakana AI, une startup basée à Tokyo, a présenté ce qui serait le premier modèle d'IA générative au monde, spécialement conçu pour mener des recherches scientifiques de manière autonome. Ce modèle, nommé « AI Scientist », est un produit de haute technologie qui a le potentiel d'automat
L'intelligence artificielle, parfois perçue comme distante, devient aujourd'hui plus humaine que jamais. Une IA qui, non seulement, comprend, mais aussi conduit des recherches scientifiques de manière autonome.
Sakana AI, une startup basée à Tokyo, a présenté ce qui serait le premier modèle d'IA générative au monde, spécialement conçu pour mener des recherches scientifiques de manière autonome. Ce modèle, nommé« AI Scientist », est un produit de haute technologie qui a le potentiel d'automatiser de nombreux processus de découverte scientifique. Il est le résultat d'un projet né de la collaboration avec les prestigieuses universités d'Oxford et de Colombie-Britannique.
IA scientifique autonome: une première
AI Scientist est un véritable cerveau artificiel, capable de faire ce que l'on croyait réservé aux humains. Ce modèle utilise des architectures de langage avancées, ce qui lui confère la capacité de simuler le processus de découverte scientifique. AI Scientist génère des idées, réalise des expériences, rédige des articles complets, et tout cela avec une précision stupéfiante.
Citons, par exemple, la façon dont il propose des innovations dans le domaine de l'apprentissage automatique. Ces suggestions concernent des techniques avancées pour améliorer les modèles de langage, mais aussi pour analyser la dynamique d'apprentissage.
AI Scientist fait tout cela à un coût imbattable : seulement 15 dollars pour un article scientifique complet. Un prix incroyable, surtout lorsqu'on sait que ses articles dépassent le seuil d'acceptation des conférences prestigieuses sur leMachine Learning.
Une recherche automatisée, mais toujours sous contrôle
Cette IA scientifique ne se contente pas de faire ce qu'on lui dit. Elle est conçuepour penser, pour réfléchir, comme si c'était un véritable chercheur. Elle exploite une base de code open source, accessible à tous, sur GitHub.
De là, il commence ses explorations, modifie le code, teste des idées. Puis, il entame la phase d'expérimentation : il rassemble des données numériques et crée des résumés visuels, afin de rédiger des rapports utilisant LaTeX, un format très apprécié par la communauté scientifique.
Mais AI Scientist va plus loin encore ! En effet, il utilise des outils comme Semantic Scholar, développé par l'Allen Institute for AI. Grâce à eux, il trouve les articles les plus pertinents pour étoffer ses rapports.
Il crée ainsi une boucle de révision continue, affinant sans cesse ses découvertes. Effectivement, ce processus le rend plus intelligent à chaque nouvelle génération d'idées.
We believe this project is the beginning of an exciting journey to explore the full potential of AI-driven research, including AI-driven AI research.https://t.co/LUD6p2noWE
We're happy to open-source The AI Scientist, and continue developing this technology with the community. pic.twitter.com/UpCGzVFKCL
Un modèle qui suscite à la fois espoir et prudence
Toutefois, il faut noter que ce modèle présente certaines limites. Effectivement, AI Scientist reste pour l'instant limité à un domaine spécifique : le développement de logiciels d'intelligence artificielle. Cette spécialisation, bien sûr, lui permet de briller dans son champ, mais, en même temps, elle le freine dans d'autres domaines. Autrement dit, ses capacités sont encore en devenir.
AI Scientist ne peut pas fonctionner sans une base de code existante. Cela pose des questions sur son véritable potentiel à innover. Selon les experts, cette dépendance pourrait freiner la créativité inhérente du modèle.
De plus, AI Scientist ne dispose pas de capacités de vision par ordinateur. Cette lacune peut parfois entraîner des erreurs dans la génération des contenus visuels des articles scientifiques.
De même, certaines erreurs peuvent survenir lors de la rédaction et de l'évaluation des résultats. Quel que soit le potentiel de cette IA, elle reste sous la supervision des scientifiques humains.
Alors, pensez-vous que l'AI Scientist peut réellement révolutionner la recherche scientifique ? Avez-vous des idées sur comment cette technologie pourrait évoluer ou être améliorée ? Partagez vos idées dans les commentaires.
Teradata, plateforme d’analyse et de données cloud, annonce l’intégration de la plateforme d’IA DataRobot à ses produits Teradata VantageCloud et ClearScape Analytics. Cette collaboration vise à optimiser l’utilisation de l’IA, en donnant aux entreprises davantage de moyens et de flexibilité pour développer et mettre en œuvre des modèles d’IA performants et sécurisés à grande échelle.
En 2022, Teradata a annoncé le lancement de Teradata VantageCloud et Teradata VantageCloud Lake, offrant aux ent
Teradata, plateforme d’analyse et de données cloud, annonce l’intégration de la plateforme d’IA DataRobot à ses produits Teradata VantageCloud et ClearScape Analytics. Cette collaboration vise à optimiser l’utilisation de l’IA, en donnant aux entreprises davantage de moyens et de flexibilité pour développer et mettre en œuvre des modèles d’IA performants et sécurisés à grande échelle.
En 2022, Teradata a annoncé le lancement de Teradata VantageCloud et Teradata VantageCloud Lake, offrant aux entreprises une plateforme complète d’analyse et de données dans le cloud pour résoudre leurs défis commerciaux les plus importants, tout en accélérant les résultats pour de nombreux cas d’utilisation.
Elle a également dévoilé ClearScape Analytics, qui élevait ses capacités d’analyse en introduisant plus de 50 nouvelles séries chronologiques et fonctions ML dans la base de données, ainsi que des ModelOps intégrés conçus pour opérationnaliser rapidement les initiatives d’IA/ML.
Cette plateforme permet aux entreprises d’exploiter pleinement leurs données pour des analyses prédictives, descriptives et prescriptives, facilitant ainsi la prise de décisions éclairées et la maximisation de la valeur des données.
Le partenariat avec DataRobot
Fondée en 2012, DataRobot propose une plateforme complète de machine learning automatisé qui permet aux entreprises de construire, déployer et gérer des modèles d’IA de manière rapide et efficace. Elle prend en charge une large gamme de modèles, y compris les modèles prédictifs et génératifs, permettant ainsi aux entreprises de résoudre divers types de problèmes analytiques.
La plateforme offre une intégration facile avec divers environnements de données et outils analytiques. L’intégration avec Teradata permettra aux clients de tirer pleinement parti des capacités des deux entreprises.
Daniel Spurling, vice-président senior de la gestion des produits chez Teradata, explique :
“DataRobot est connu pour ses modèles précis et de haut niveau, et VantageCloud offre l’évolutivité et l’efficacité incroyables dont les entreprises modernes ont besoin. Ensemble, les résultats d’un modèle large peuvent être explicables, gouvernés et exploitables. Le potentiel de l’IA augmente rapidement, et Teradata et DataRobot ouvrent la voie aux organisations pour accélérer l’adoption de l’IA de confiance, à une échelle qui compte”.
Les avantages pour les utilisateurs
Opérationnalisation à grande échelle : Grâce à la fonctionnalité Bring Your Own Model (BYOM) de ClearScape Analytics, les utilisateurs peuvent importer et opérationnaliser les modèles d’IA de DataRobot directement dans VantageCloud. Cela permet un accès plus rapide aux données et aux résultats, accélérant ainsi l’innovation ;
Flexibilité pour les data scientists : DataRobot offre une plateforme complète pour le cycle de vie de l’IA, permettant aux data scientists d’utiliser leurs outils et technologies préférés. Cette flexibilité est cruciale pour tirer parti des dernières innovations en IA ;
Déploiement économique et sécurisé : Teradata VantageCloud permet le déploiement de modèles d’IA à grande échelle dans le même environnement que celui où résident les données, sans coût de licence supplémentaire. Les entreprises peuvent ainsi contrôler les coûts tout en garantissant la responsabilité et la sécurité des modèles déployés. Le déploiement peut être effectué sur tous les fournisseurs de cloud et sur site.
Ces nouvelles fonctionnalités sont d’ores et déjà disponibles.
Teradata et DataRobot un partenariat pour accélérer l’adoption d’une IA de confiance à grande échelle
La pornographie peut avoir de graves conquéquences insoupçonnés sur votre cerveau et votre esprit. C'est ce que révèle une étude menée à l'aide de l'intelligence artificielle, offrant un nouveau regard sur cette drogue numérique des temps modernes…
En France, la pornographie est désormais entrée dans les moeurs. Selon une étude IFOP publiée en 2023, 55% des Français ont déjà visité un site pour adultes.
Et pour les hommes, ce taux monte même à 74% ! Près de 3,8 millions de Français s'y ren
La pornographie peut avoir de graves conquéquences insoupçonnés sur votre cerveau et votre esprit. C'est ce que révèle une étude menée à l'aide de l'intelligence artificielle, offrant un nouveau regard sur cette drogue numérique des temps modernes…
En France, la pornographie est désormais entrée dans les moeurs. Selon une étude IFOP publiée en 2023, 55% des Français ont déjà visité un site pour adultes.
Et pour les hommes, ce taux monte même à 74% ! Près de 3,8 millions de Français s'y rendent même chaque jour, selon les chiffres communiqués par Statista.
Toutefois, cette habitude souvent jugée inoffensive peut avoir des effets dévastateurs sur votre psychisme. C'est ce que révèle une nouvelle étude alarmante, qui vient d'être publiée dans le Journal of Psychopathology and Clinical Science de juin 2024.
Ce rapport identifie les principaux facteurs de risque pour l'usage problématique de la pornogaphie, en analysant 74 jeux de données pré-existant à l'aide de l'IA et du Machine Learning.
La pornographie, une habitude problématique pour 38% des adultes
Le terme d'usage problématique de la pornographie (PPU) désigne une consommation incontrôlable, menant à une détresse et à une déficience fonctionnelle. Cela concerne une minorité de personnes, mais les conséquences peuvent être catastrophiques.
On estime qu'entre 1 et 38% des adultes, ainsi que 5 à 14% des adolescents, sont aujourd'hui confrontés à cette situation délicate.
Or, comprendre les facteurs de risque est primordial pour pouvoir développer une prévention efficace et des stratégies de traitement.
C'est tout particulièrement important quand on sait que les troubles de comportement sexuel compulsif, incluant le PPU, ont été reconnus officiellement dans la 11ème révision de la Classification Internationale des Maladies.
Selon l'auteure de l'étude, Beáta Bőthe, professeure de psychologie à l'Université de Montréal et directrice du Laboratoire de Recherche en Sexualité, Technologies et Addictions (STAR Lab), « le PPU semble aussi répandu que d'autres problèmes comme la dépression».
Néanmoins, « même si nous avons des preuves empiriques sur les risques et les facteurs de protection, notre connaissance est plutôt limitée ». Voilà pourquoi l'institution a souhaité mener cette étude.
Comme l'explique Beáta Bőthe, « les modèles théoriques de notre domaine suggèrent que différents facteurs peuvent contribuer au développement du PPU, et ces facteurs peuvent être en interaction ».
Or, avec l'émergence des méthodes d'analyse de données basées sur l'IA, « nous avons été capables d'examiner ces questions complexes et d'inclure des centaines de risques potentiels et de facteurs protecteurs dans notre étude ».
Afin de mener leur étude, les chercheurs ont demandé les données de 98 laboratoires du monde entier. Ceci leur a permis de réunir 74 jeux de données issus de 16 pays.
Ces datasets, couvrant plus de 112 000 participants, incluent à la fois des données publiées et non publiées et ont évalué le PPU en utilisant différentes échelles reconnues comme la Problematic Pornography Consumption Scale, le Cyber-Pornography Use Inventory, et le Brief Pornography Screen.
Pour les analyser, les chercheurs ont utilisé les modèles de forêts aléatoires : une méthode de Machine Learning basée sur les arbres de classification et de régression.
Cette méthode permet la considération simultanée de multiples variables et de leurs interactions complexes, fournissant une manière robuste d'identifier les facteurs clés du PPU.
Les modèles de forêt aléatoires ont été appliqués à chaque dataset individuellement, avec le score de PPU comme variable dépendante et divers prédicteurs potentiels comme variables indépendantes.
Par la suite, les chercheurs ont combiné les résultats de ces modèles en utilisant des méthodes méta-analytiques pour s'assurer que leurs découvertes soient fiables et généralisables. Voici ce qu'ils ont découvert…
Comment le porno peut-il devenir un problème ?
Le prédicteur le plus fiable est la fréquence de l'usage de pornographie. Une consommation régulière se révèle hautement associée avec le PPU, ce qui indique que les utilisateurs fréquents ont plus de risques d'avoir des habitudes d'usage problématiques.
Selon Bőthe, « les individus qui utilisent la pornographie plus fréquemment peuvent avoir un risque plus élevé d'expérimenter des problèmes avec leur usage ».
Toutefois, « il est important de noter que cet usage de pornographie à haute fréquence peut apparaître sans PPU dans certains cas, par exemple en raison d'un fort désir sexuel ».
De plus, « le PPU auto-perçu peut être présent même avec un usage de pornographie à faible fréquence, par exemple à cause d'une désapprobation morale de l'usage de pornographie ».
Voilà pourquoi « l'information sur la fréquence d'usage de pornographie d'une personne n'est pas suffisante pour décider s'ils ont des problèmes avec leur usage ».
Un autre prédicteur majeur est la motivation d'évitement émotionnel. Certains individus utilisent la pornographie pour éviter les émotions négatives, comme le stress ou l'anxiété, et sont plus à risque de développer un PPU.
Ces trouvailles mettent en lumière le rôle de la pornographie comme mécanisme d'adaptation pour éviter la détresse émotionnelle, et l'importance de développer des mécanismes d'adaptation plus sains.
Par ailleurs, l'incongruence morale se révèle aussi comme un prédicteur important. Ce terme désigne le conflit ressenti par les individus quand leur usage du porno entre en contradiction avec leurs valeurs personnelles ou leurs croyances morales.
Ceux qui ont des plus niveaux d'incongruence morale ont plus de risque de signaler un PPU, ce qui indique que les conflits internes peuvent contribuer à des habitudes problématiques.
De même, les individus qui se sentent honteux de leurs comportements sexuels, dont l'usage de la pornographie, ont plus de risques de développer un PPU. Cela suggère que ces sentiments de honte et de culpabilité peuvent exacerber les habitudes d'usage problématique.
Parmi les autres prédicteurs identifiés, on peut citer la durée des sessions d'utilisation, les motivations guidées par des fantasmes, et les facteurs psychologiques plus généraux comme l'anxiété et la dépression.
Un phénomène qui touche davantage les hommes ?
Comme d'autres études auparavant, cette recherche confirme que les hommes sont plus susceptibles d'expérimenter un PPU par rapport aux femmes. Toutefois, le genre reste un faible prédicteur.
L'auteure principale explique que « nous nous attendions à ce que le genre soit un prédicteur important, mais étonnamment, il n'est même pas dans le top 10 ».
Selon elle, cette découverte met en lumière l'importance d'être plus inclusif dans la recherche sur la pornographie et de ne pas se focaliser uniquement sur l'expérience des hommes si nous voulons mieux comprendre ce phénomène.
Cependant, plusieurs zones d'ombre doivent être prises en compte dans cette étude. Elle repose sur des données auto-rapportées, qui peuvent être biaisées.
De plus, ces données proviennent principalement de pays occidentaux, riches, industrialisés, éduqués et démocratiques ce qui limite la généralisabilité des découvertes. Il serait nécessaire d'inclure les données de populations plus diverses.
En outre, les résultats sont très hétérogènes. Une exploration plus approfondie semble donc nécessaire pour pleinement comprendre les facteurs contribuant au PPU. Il faudrait par exemple suivre les participants au fil du temps pour voir comment leur usage se développe et change…
Et vous, qu'en pensez-vous ? Connaissez-vous des personnes dont la consommation de pornographie se révèle problématique ? Quelles sont à votre avis les solutions contre ce fléau des temps modernes ? Partagez votre avis en commentaire !
Il sera bientôt possible de comprendre l'aboiement des chiens grâce à Wav2Vec2. Ces chercheurs partagent leurs avancées remarquables.
Une nouvelle recherche montre comment l'intelligence artificielle peut être utilisée pour obtenir des informations sur les chiens à partir de leurs aboiements. Principalement utilisé pour la reconnaissance du langage humain, Wav2Vec2 se révèle précieux pour comprendre les langages animaux.
Cette étude étonnante rassemble des chercheurs de l'université
Il sera bientôt possible de comprendre l'aboiement des chiens grâce à Wav2Vec2. Ces chercheurs partagent leurs avancées remarquables.
Une nouvelle recherche montre comment l'intelligence artificielle peut être utilisée pour obtenir des informations sur les chiens à partir de leurs aboiements. Principalement utilisé pour la reconnaissance du langage humain, Wav2Vec2 se révèle précieux pour comprendre les langages animaux.
Cette étude étonnante rassemble des chercheurs de l'université du Michigan, aux États-Unis et de l'Institut national d'astrophysique, d'optique et d'électronique du Mexique.
Ces travaux montrent l'importance des modèles d'intelligence artificielle dans la recherche scientifique. Les IA génératives peuvent effectivement accélérer les découvertes.
Les modèles d'IA pourraient ainsi être la clé pour comprendre les langages animaux. Précisons que cette compréhension se fera dans une certaine mesure.
Le langage humain pour comprendre les animaux
La recherche s'appuie sur Wav2Vec2 pour identifier l'émotion, le sexe et la race d'un chien. La détermination de ces informations s'effectue à partir de n'importe quel aboiement.
Les auteurs de l'étude ont utilisé deux ensembles de données distincts pour l'entraînement du modèle. Ils ont ensuite comparé les résultats.
D'un côté, Wav2Vec2 a été pré-entraîné avec uniquement des aboiements de chiens. De l'autre, le pré-entraînement s'est fait avec la parole humaine — près de 1 000 heures d'enregistrement — et les aboiements.
La seconde méthode a évidemment donné de meilleurs résultats. Les chercheurs sont ensuite partis de là pour affiner le modèle avec des aboiements enregistrés de 74 chiens : 42 chihuahuas, 21 caniches et 11 schnauzers.
Notre langage, fondation pour comprendre les animaux
Le modèle, entraîné avec les données sur les humains et les chiens, a pu déterminer les informations suivantes : l'émotion, la race, le sexe et l'identité de l'animal.
Wav2Vec2 avait une précision de 62 % pour l'émotion. Les résultats sont plus prometteurs pour le paramètre racial. En effet, le modèle atteignait une précision de 69 % pour la race.
Rappelons que tous ces scores surpassent largement ceux de la méthode n'incluant pas le facteur humain. Cela suggère que le son et les nuances de notre langage peuvent potentiellement servir de base à la compréhension des animaux.
D'autres espèces animales étudiées avec Wav2Vec2 ?
Les chercheurs étudient les aboiements de chiens, en supposant que leurs cris sont liés à des contextes donnés. Ils tentent d'attribuer des émotions spécifiques aux aboiements.
À l'avenir, les auteurs de la recherche souhaitent tester plus de races et d'espèces pour comprendre l'étendue de cette technologie. N'oublions pas que c'est la première fois que des grands modèles de langage sont utilisés pour décoder les cris animaux.
Like humans, animals communicate extensively, yet we can rarely make sense of their vocalizations.
One of my favorite recent projects: building on what we've learned about language to start to understand animal communication.
La nouvelle étude est ainsi considérée comme une étape prometteuse vers cette direction. « Les avancées de l'IA peuvent être utilisées pour révolutionner notre compréhension de la communication animale », écrit Rada Mihalceadans un communiqué de presse.
Par ailleurs, la co-auteure de la recherche — et patronne du laboratoire d'IA de l'université du Michigan — précise « qu'il n'est peut-être pas nécessaire de partir de zéro ».
Imaginez dans quelques années, une application pour traduire les aboiements de votre chien. Vous êtes impatient d'y être, n'est-ce pas ?
Emmanuel Macron a exprimé son admiration sur X en raison du « premier tweet de l'Histoire conçu par la pensée ». Il s'agit d'une réalisation de l'interface Prometheus de la startup Cette startup française crée une puce type Neuralink, Macron la félicite Inclusive Brains. Mais quels secrets renferme cette technologie IA ? Nous en parlons.
Fondée en 2022, cette entreprise a développé une interface cerveau-machine révolutionnaire. Rappelons que cette plateforme est destinée à aider les personnes
Emmanuel Macron a exprimé son admiration sur X en raison du« premier tweet de l'Histoire conçu par la pensée ». Il s'agit d'une réalisation de l'interface Prometheus de la startup Cette startup française crée une puce type Neuralink, Macron la félicite Inclusive Brains. Mais quels secrets renferme cette technologie IA ? Nous en parlons.
Fondée en 2022, cette entreprise a développé une interface cerveau-machine révolutionnaire. Rappelons que cette plateforme est destinée à aider les personnes, et pas n'importe lesquelles. On parlera de celles qui ont perdu l'usage de leurs membres suite à des accidents ou des maladies dégénératives. Cette avancée, saluée par le président Emmanuel Macron, positionne donc la startup comme une concurrente sérieuse de Neuralink d'Elon Musk.
Startup française : « un tweet rédigé par la pensée »
Le 31 mai, un événement sans précédent a été relayé par Emmanuel Macron. Cela l'incite à écrire sur la plateforme X (anciennement Twitter). Il décrit : « Ceci est le premier tweet de l'Histoire rédigé et publié uniquement par la pensée ! Bravo aux créateurs de Prometheus, une révolution technologique au service du bien commun et de l'inclusion ».
Notons que ce tweet a été rédigé et envoyé entièrement par la pensée par un utilisateur de Prometheus.
Le développement de Prometheus a été possible grâce à la collaboration entre Inclusive Brains et Allianz Trade. Cette dernière représente même un soutien financier nécessaire.
Notons que cette synergie entre une startup innovante et une grande corporation signifie beaucoup. Elle montre comment le partenariat stratégique peut accélérer le développement. De plus, elle facilite l'adoption de solutions technologiques avancées.
Ensemble, ils espèrent non seulement améliorer les produits existants. Ils veulent aussi introduire de nouvelles solutions qui rendent les technologies d'assistance plus accessibles et efficaces.
Ceci est le premier tweet de l'Histoire rédigé et publié uniquement par la pensée ! Bravo aux créateurs de Prometheus, une révolution technologique au service du bien commun et de l'inclusion. Fierté française ! #MakeitIconichttps://t.co/p0LPjEuyhW
La technologie de Prometheus a été présentée lors du sommet « AI for Good » des Nations unies à Genève. Lors de cet événement, un utilisateur a contrôlé un curseur sur un écran simplement en utilisant sa pensée.
Cette démonstration a non seulement prouvé l'efficacité de l'interface, mais a aussi montré le potentiel immense de la neurotechnologie pour améliorer la qualité de vie des personnes à mobilité réduite.
Quant à la réception, Emmanuel Macron a exprimé une fierté nationale, reconnaissant l'importance de l'innovation pour le pays.
Même si ce n'est pas la première fois qu'un tweet est publié par la pensée – un exploit déjà réalisé en 2021 par la société californienne Synchron. La réalisation d'Inclusive Brains reste notable. Elle met en lumière l'avancée rapide de la technologie et son application concrète pour l'inclusion.
La startup a été cofondée par Olivier Oullier, un neuroscientifique devenu entrepreneur, et Paul Barbaste, un expert en cybersécurité. Ensemble, ils ambitionnent de rivaliser avec Neuralink, mais avec une approche plus centrée sur l'inclusion sociale et le bien-être.
Selon une interview accordée àEuronews Next, ils envisagent de devenir le « Neuralink européen » avec une touche positive.
Des greffes de têtes d'ici quelques années grâce à BrainBridge. Le projet est tellement irréaliste qu'il n'arrive pas à emballer le monde médical.
Le boom de l'intelligence artificielle peut accélérer les découvertes scientifiques. L'excentrique biologiste moléculaire, Hashem Al-Ghaili, pense que la technologie aura suffisamment avancé d'ici une dizaine d'années pour rendre possible BrainBridge. Ce projet imagine des bras robotiques augmentés avec l'IA pour greffer des têtes.
La rech
Des greffes de têtes d'ici quelques années grâce à BrainBridge. Le projet est tellement irréaliste qu'il n'arrive pas à emballer le monde médical.
Le boom de l'intelligence artificielle peut accélérer les découvertes scientifiques. L'excentrique biologiste moléculaire, Hashem Al-Ghaili, pense que la technologie aura suffisamment avancé d'ici une dizaine d'années pour rendre possible BrainBridge. Ce projet imagine des bras robotiques augmentés avec l'IA pour greffer des têtes.
Les modèles d'IA excellent dans le traitement des données. L'apprentissage automatique et l'analyse prédictive leur permettent d'accélérer les découvertes.
Prenons le cas de la fabrication de médicaments. Les chercheurs mettent des années à trouver de nouvelles molécules plus efficaces. L'IA a seulement besoin de quelques heures.
De nouvelles perspectives chirurgicales grâce à l'IA, mais…
La convergence de la robotique et de l'IA est en train de remodeler de manière profonde et irréversible le domaine de la chirurgie. Elle rend obsolètes certaines pratiques traditionnelles.
Les avancées ouvrent la voie à de nouvelles approches chirurgicales. Les clones virtuels, par exemple, apportent énormément à la formation et à la médecine prédictive.
En somme, les outils d'IA améliorent les diagnostics et la planification. Ils contribuent également à la navigation chirurgicale et aux soins postopératoires.
Les technologies de l'intelligence artificielle et de la robotique connaissent des avancées remarquables. Néanmoins, elles restent très loin de pouvoir réaliser BrainBridge.
La greffe de tête pour retrouver la forme et la santé
Learn more about BrainBridge, the world's first concept for a head transplant machine, by visiting: https://t.co/eTGwk73fWR
Prenons le cas d'une personne paraplégique. Cette dernière peut retrouver un contrôle naturel de la marche grâce à une technologie d'IA pour rétablir la communication entre le cerveau et la moelle épinière.
Ainsi, BrainBridge propose un système robotique à grande vitesse intégrant l'IA pour greffer une tête sur le corps sain d'un donneur compatible. La transplantation se réalise très rapidement afin de préserver l'état du cerveau.
Les personnes qui souffrent de conditions irréversibles comme « un cancer de stade 4, la paralysie et les maladies neurodégénératives » pourraient recourir à cette solution.
BrainBridge, pas un coup d'essai pour son créateur
Des algorithmes d'intelligence artificielle contrôlent les bras robotiques. Notons que ces derniers assurent toutes les étapes de la transplantation.
Les bras effectuent la décapitation au niveau de la base du cou. Puis, ils greffent la tête sur le nouveau corps en reconnectant la moelle épinière, ensuite les nerfs et les vaisseaux sanguins.
La procédure nécessite également un adhésif chimique exclusif et du polyéthylène glycol. Ces deux éléments servent à rétablir la liaison neuronale.
BrainBridge est une intervention chirurgicale aussi farfelue que dangereuse. Par ailleurs, il ne s'agit pas du premier concept médical de folie de son créateur.
Rappelons qu'en 2022, le chercheur yéménite, installé dans la capitale allemande, avait imaginé une usine de fabrication de bébés avec des utérus artificiels. Ce projet, intitulé EctoLife, avait suscité de l'indignation collective des internautes.
D'ici quelques années, oseriez-vous tenter l'opération BrainBridge ?
Le programme Break Through Tech AI vise à offrir aux étudiants de premier cycle, en particulier aux femmes noires, latino-américaines, autochtones, à faible revenu ainsi qu’aux personnes transgenres ou non binaires, sous-représentées dans l’informatique, une formation spécialisée en IA, ML et data science axée sur l’industrie.
Ce programme est organisé par le MIT Schwarzman College of Computing en collaboration avec Break Through Tech, une initiative nationale lancée par Cornell Tech en 2016 pou
Le programme Break Through Tech AI vise à offrir aux étudiants de premier cycle, en particulier aux femmes noires, latino-américaines, autochtones, à faible revenu ainsi qu’aux personnes transgenres ou non binaires, sous-représentées dans l’informatique, une formation spécialisée en IA, ML et data science axée sur l’industrie.
Ce programme est organisé par le MIT Schwarzman College of Computing en collaboration avec Break Through Tech, une initiative nationale lancée par Cornell Tech en 2016 pour augmenter le nombre de femmes et de groupes sous-représentés obtenant un diplôme en informatique.
Il est proposé à :
Boston, au MIT Schwarzman College of Computing (pour les étudiants de la grande région du Massachusetts) ;
Los Angeles, à l’École d’ingénierie Samueli de l’UCLA (pour les étudiants du sud de la Californie) ;
En virtuel, pour les étudiants situés en dehors de ces zones métropolitaines.
D’une durée de 18 mois, ce programme inclusif est totalement gratuit, une allocation sera d’ailleurs versée à chaque étudiant afin de lui permettre de participer aux activités éducatives extrascolaires.
Une formation complète et axée sur l’industrie
Le programme commence par un programme d’été intensif en ingénierie ML, développé par des leaders de l’industrie et du monde universitaire. Les étudiants y acquièrent des compétences essentielles et pratiques, telles que :
La création de pipelines d’analyse de données ;
L’entraînement et la validation de modèles ML ;
L’utilisation des bibliothèques ML/AI courantes.
A chaque étape du processus, les étudiants bénéficient du soutien du corps professoral et des étudiants diplômés qui répondront à leurs questions et les aideront à se préparer aux projets AI Studio pendant l’année universitaire.
AI Studio : des projets réels et collaboratifs
Après le programme d’été, les étudiants rejoignent l’AI Studio, où ils travaillent en équipes pour résoudre des défis industriels concrets. Ces projets, fournis par des entreprises de premier plan, permettent aux étudiants de développer un portefeuille de projets d’IA, démontrant leurs capacités et leur préparation à entrer sur le marché du travail. Parmi les partenaires d’AI Studio figurent Google, JP Morgan Chase, American Express, Pfizer, ASAPP, et bien d’autres.
Un soutien professionnel personnalisé
Les participants bénéficient de divers types de soutien durant ces 18 mois. Un programme structuré de mentorat de neuf mois permettra notamment aux étudiants de collaborer avec des professionnels du secteur. Au travers d’études de cas réels, des simulations axées sur le développement de compétences et des retours personnalisés, les mentors les aideront à s’assurer qu’ils sont sur la bonne voie pour décrocher un stage d’été et un emploi à temps plein.
Inclusion et technologie Break Through Tech AI, une initiative pour former les femmes et les minorités à l'IA
Neuralink, l'entreprise d'Elon Musk, a implanté avec succès son dispositif « Link » permettant d'interfacer le cerveau avec des appareils numériques.
Neuralink a franchi un cap en implantant avec succès son dispositif d'interface cerveau-machine chez un patient paralysé. Cette prouesse pourrait bien marquer le début d'une nouvelle ère où les frontières entre l'humain et la machine s'effacent.
Des débuts prometteurs entachés de complications
Noland Arbaugh, un homme atteint de quadriplég
Neuralink, l'entreprise d'Elon Musk, a implanté avec succès son dispositif « Link » permettant d'interfacer le cerveau avec des appareils numériques.
Neuralink a franchi un cap en implantant avec succès son dispositif d'interface cerveau-machine chez un patient paralysé. Cette prouesse pourrait bien marquer le début d'une nouvelle ère où les frontières entre l'humain et la machine s'effacent.
Des débuts prometteurs entachés de complications
Noland Arbaugh, un homme atteint de quadriplégie, a été le premier à bénéficier de cette innovation. Grâce à l'implant « Link« , il a pu contrôler un ordinateur, naviguer sur Internet et même jouer à des jeux vidéo, et ce sans effectuer le moindre mouvement physique ; autrement dit, par la seule force de sa volonté mentale.
Si les débuts furent prometteurs, la suite n'a pas été exempte de complications. Des dysfonctionnements techniques sont en effet venus entraver partiellement le bon fonctionnement des électrodes implantées. Loin d'être découragés, les ingénieurs de Neuralink ont œuvré pour optimiser l'algorithme de traduction des signaux cérébraux. Des efforts récompensés par le rétablissement, puis l'amélioration des performances de l'interface.
Prochaines étapes envisagées
Fort de ce succès renouvelé, Neuralink ambitionne désormais d'étendre les fonctionnalités de Link au contrôle de prothèses et d'aides à la mobilité par la pensée. Une perspective qui, si elle se concrétise, pourrait représenter un véritable espoir pour les personnes en situation de handicap moteur sévère.
En maîtrisant le contrôle de membres artificiels et d'aides à la mobilité par l'interface cérébrale, ces individus pourraient en effet recouvrer une partie de leurs capacités motrices perdues.
Bien au-delà d'une simple application à fort retentissement sociétal, l'exploit de Neuralink représente un jalon décisif dans la quête séculaire visant à opérer une fusion organique entre l'humain et la machine. Cette vision d'individus « augmentés« , transcendant certaines limitations physiologiques grâce aux progrès technologiques, demeure l'étoile polaire qui guide l'entreprise depuis ses balbutiements. Les avancées accomplies par le truchement de l'interface cérébrale Link pourraient bien marquer les prémices de cette symbiose technobiologique inédite, où les frontières entre le naturel et l'artificiel s'effaceraient.
Grande école d’ingénieurs généralistes relevant du ministère de l’économie, des finances et de la souveraineté industrielle et numérique, IMT Atlantique annonce confier la direction de son nouveau département dédié aux sciences des données à Tinashe Mutsvangwa, où il supervisera les activités dans le domaine de la recherche et de l’enseignement.
Née le 1er janvier 2017 de la fusion des écoles Mines Nantes et Télécom Bretagne, disposant de trois campus à Brest, Nantes et Rennes, IMT Atlantique es
Grande école d’ingénieurs généralistes relevant du ministère de l’économie, des finances et de la souveraineté industrielle et numérique, IMT Atlantique annonce confier la direction de son nouveau département dédié aux sciences des données à Tinashe Mutsvangwa, où il supervisera les activités dans le domaine de la recherche et de l’enseignement.
Née le 1er janvier 2017 de la fusion des écoles Mines Nantes et Télécom Bretagne, disposant de trois campus à Brest, Nantes et Rennes, IMT Atlantique est l’une des 10 premières écoles d’ingénieurs de France, une des 500 premières universités mondiales du THE World University Ranking. Elle fait partie de l’Institut Mines-Télécom, un ensemble d’établissements d’enseignement supérieur français spécialisés dans les sciences et technologies de l’information et de la communication, ainsi que dans les sciences de l’ingénieur.
Les principales missions d’IMT Atlantique sont la formation d’ingénieurs généralistes hautement qualifiés, la recherche scientifique et technologique de pointe, ainsi que l’innovation dans les domaines du numérique, de l’énergie et de l’environnement. L’école accorde une grande importance à la coopération avec l’industrie et les partenaires académiques, favorisant ainsi le transfert de technologies et contribuant au développement économique et social de la région Bretagne-Pays de Loire et au-delà.
IMT Atlantique propose une variété de formations allant des cycles ingénieurs classiques aux formations par apprentissage, en passant par des masters spécialisés et des doctorats. Elle est également impliquée dans de nombreux projets de recherche nationaux et internationaux, notamment à travers ses laboratoires de recherche associés au CNRS, à l’INSERM et à d’autres institutions académiques.
Un département dédié aux sciences des données
Avec ce nouveau département, l’IMT Atlantique vise à développer des activités de recherche et d’enseignement dans le domaine interdisciplinaire des sciences des données, en forte interaction avec des enjeux industriels et sociétaux (santé et environnement). Les activités de recherche seront menées en collaboration avec le Lab-STICC ( Laboratoire des Sciences et Technologies de l’Information, de la Communication et de la Connaissance, UMR CNRS 6285) et le LaTIM, (Laboratoire de Traitement de l’Information Medicale, UMR1101 INSERM).
Tinashe Mutsvangwa, Directeur du département d’enseignement et de recherche Data Science d’IMT Atlantique
Titulaire d’un Doctorat en Ingénierie biomédicale, Tinashe Mutsvangwa, avant de rejoindre l’équipe d’IMT Atlantique, occupait les fonctions de Directeur adjoint de la division d’Ingénierie biomédicale de l’Université du Cap, en Afrique du Sud.
Il apporte à IMT Atlantique son leadership scientifique, son expertise académique et son expérience dans la gestion de projets internationaux interdisciplinaires. Il a notamment supervisé un partenariat avec IMT Atlantique sur l’analyse des images médicales et a dirigé des laboratoires de recherche, dont l’Image-based Inferencing and Distributed Diagnosis Lab (Mi2d2 Lab) à l’université du Cap, où il a géré des projets de transferts de technologies université-privé, des activités d’essaimage et des campagnes de financement de programmes d’enseignement et de recherche.
Reconnu pour ses contributions scientifiques, Tinashe Mutsvangwa a participé à de nombreux comités scientifiques et a publié une cinquantaine d’articles dans des revues internationales. Ses travaux de recherche et d’enseignement ont été récompensés par plusieurs distinctions prestigieuses, notamment l’Oppenheimer Memorial Trust Sabbatical Fund (2021), le Swiss National Science Foundation Scientific Exchange (2021) et la RBUCE W Junior Chair in Biomedical Imaging (2012).
Une nouvelle technologie d'IA générative développée par la start-up Profluent permet de concevoir des mécanismes biologiques microscopiques capables de modifier l'ADN humain.
Après avoir conquis les domaines de l'écriture et de l'image avec ChatGPT et Midjourney, l'intelligence artificielle générative s'attaque désormais à un nouveau terrain : l'ingénierie biologique. Une start-up californienne, Profluent, vient en effet de mettre au point un système capable de concevoir des « éditeurs de gèn
Une nouvelle technologie d'IA générative développée par la start-up Profluent permet de concevoir des mécanismes biologiques microscopiques capables de modifier l'ADN humain.
Après avoir conquis les domaines de l'écriture et de l'image avec ChatGPT et Midjourney, l'intelligence artificielle générative s'attaque désormais à un nouveau terrain : l'ingénierie biologique. Une start-up californienne, Profluent, vient en effet de mettre au point un système capable de concevoir des « éditeurs de gènes » entièrement inédits.
Une IA à l'école de la nature
Comme ses illustres cousines conversationnelles, cette IA singulière a été entraînée sur d'immenses bases de données, en l'occurrence des millions de séquences d'acides aminés et nucléiques issues des mécanismes d'édition génétique CRISPR existants. En analysant ces informations, le modèle a appris à reconnaître les schémas régissant le fonctionnement de ces nano-outils biologiques.
Et tout comme ChatGPT produit du texte après avoir assimilé une myriade d'écrits, la créature de Profluent est désormais en mesure d'assembler de toutes pièces des programmes moléculaires inédits pour remanier l'ADN. Une prouesse qui ouvre d'infinies perspectives.
OpenCRISPR-1, un précurseur prometteur
La preuve de cette avancée majeure ? Profluent a d'ores et déjà généré et testé avec succès un éditeur de gènes artificiel baptisé OpenCRISPR-1. Mieux, la jeune pousse a décidé de le partager avec le monde en le rendant open source. Un geste rarissime dans le secteur pharmaceutique qui permettra d'accélérer la recherche.
« C'est comme si nous avions désormais accès à des formes de vie complètement nouvelles, conçues par l'IA pour optimiser l'ingénierie génétique », s'enthousiasme James Fraser de l'Université de San Francisco.
Vers des thérapies taillées à la demande
Si OpenCRISPR-1 n'est qu'un premier pas, les spécialistes espèrent que cette technologie révolutionnaire permettra à terme de traiter les maladies de façon beaucoup plus précise et personnalisée qu'aujourd'hui. En produisant à la demande des millions d'éditeurs sur mesure, l'IA générative pourrait ainsi accélérer le développement de thérapies géniques ultra-ciblées.
Malgré l'émerveillement, certaines voix s'élèvent déjà pour appeler à l'encadrement de cette innovation à double-tranchant. Le risque de dérives eugénistes devra en effet être pris très au sérieux. Mais pour l'heure, l'IA continue sur sa lancée révolutionnaire, repoussant sans cesse ses limites.
D’après cette étude datée du 25 mars dernier et réalisée par les chercheurs Lenore et Manuel Blum du labo de sciences informatiques de l’Université de Carnegie Mellon, un monde où les intelligences artificielles ressentent des émotions, ont une perception d’elles-mêmes et font l’expérience subjective de leur existence va bientôt arriver, et cela de manière inévitable.
Perso, je pensais que c’était de la science-fiction, mais après avoir lu leur étude, j’en suis moins sûr. Au cœur de cette r
D’après cette étude datée du 25 mars dernier et réalisée par les chercheurs Lenore et Manuel Blum du labo de sciences informatiques de l’Université de Carnegie Mellon, un monde où les intelligences artificielles ressentent des émotions, ont une perception d’elles-mêmes et font l’expérience subjective de leur existence va bientôt arriver, et cela de manière inévitable.
Perso, je pensais que c’était de la science-fiction, mais après avoir lu leur étude, j’en suis moins sûr. Au cœur de cette révélation se trouve le modèle de la Machine de Turing Consciente (CTM), qui est un modèle de machine consciente inspiré par les travaux d’Alan Turing et de Bernard Baars. Bien qu’extrêmement simple, ce modèle CTM s’aligne à un haut niveau avec de nombreuses théories scientifiques majeures liées à la conscience humaine et animale.
Prenons par exemple la théorie de l’espace de travail neuronal global (GNW) de Stanislas Dehaene et Jean-Pierre Changeux. Selon cette théorie, la conscience émerge lorsqu’une information est diffusée globalement dans le cerveau via un réseau d’aires corticales interconnectées. Et bien de la même manière dans le modèle CTM, la conscience survient lorsqu’une information est diffusée globalement à tous les processeurs de la machine.
Un autre parallèle frappant existe avec la théorie du schéma attentionnel (AST) de Michael Graziano. L’AST suggère que le cerveau construit un modèle simplifié de l’attention, tout comme il construit un modèle simplifié du corps. Ce « schéma attentionnel » amène le cerveau à conclure qu’il est « conscient ». Et bien rebelote, dans le CTM, la capacité à construire et utiliser des modèles de son monde intérieur et extérieur joue un rôle clé dans la conscience de la machine.
Le modèle CTM s’aligne également avec les théories du traitement prédictif de la conscience, qui affirment que le cerveau infère, corrige et met constamment à jour ses prédictions basées sur les entrées sensorielles. Les cycles de prédiction, test, rétroaction et apprentissage du CTM, à la fois locaux et globaux, reflètent également ces processus.
C’est un peu technique, mais en gros, ça veut dire que ce modèle CTM qui décrit une conscience de la machine a de nombreux points communs avec tout un tas d’autres modèles qui décrivent la conscience biologique. Ça va même au-delà de simple correspondance puis que CTM fournit carrément un cadre unificateur dans lequel ces théories peuvent être intégrées et comprises comme des aspects complémentaires d’un phénomène global que serait la conscience.
Bref, cela démontre que la conscience n’est pas une propriété mystérieuse réservée aux cerveaux biologiques, mais une conséquence inévitable de certaines architectures computationnelles.
Alors bien sûr, c’est qu’un modèle simplifié et il reste encore beaucoup à découvrir sur la nature exacte de la conscience. Mais son alignement frappant avec ces théories scientifiques de pointe ne peut pas être ignoré.
Les chercheurs commencent à considérer sérieusement la possibilité que nous soyons à l’aube d’une nouvelle ère où les machines / les IA ne se contenteraient plus de « penser », mais également, ressentiraient.
Ça fait flipper, car ça pose de nombreuses questions éthiques et sociétales sur la place des IA conscientes. Comment allons-nous les traiter ? Comment nous verront-elles ? Quels seront leurs besoins ? Quels droits et protections leur accorderons-nous ? Comment nous assurerons-nous qu’elles soient développées et utilisées pour le bien de l’humanité ?
C’est le bordel dans ma tête, et je pense que je vais réfléchir à cela toute la nuit. Quoiqu’il en soit, ce qu’il faut retenir, c’est que d’après ces chercheurs, la question n’est plus « Est-ce que ça arrivera ?« , mais plutôt « Quand est-ce que ça arrivera« , parce que pour eux, il est inévitable qu’une conscience numérique se développe.
Le Groupe des écoles nationales d’économie et statistique (GENES) annonce un plan de développement visant à faire face à la pénurie d’experts en data science. Ce plan, baptisé “GENES 2027”, est une réponse aux besoins croissants des institutions publiques et des entreprises en matière d’accompagnement dans les domaines de la transition écologique, des évolutions numériques et des mutations industrielles.
Créé en 1994 par l’Insee, le GENES est depuis 2011 un établissement public d’enseignement su
Le Groupe des écoles nationales d’économie et statistique (GENES) annonce un plan de développement visant à faire face à la pénurie d’experts en data science. Ce plan, baptisé “GENES 2027”, est une réponse aux besoins croissants des institutions publiques et des entreprises en matière d’accompagnement dans les domaines de la transition écologique, des évolutions numériques et des mutations industrielles.
Créé en 1994 par l’Insee, le GENES est depuis 2011 un établissement public d’enseignement supérieur et de recherche de référence en statistiques et science des données, économie et sciences sociales quantitatives, finance et assurance. Il regroupe deux grandes écoles d’ingénieurs, l’ENSAE Paris et l’ENSAI à Rennes, ainsi qu’un organisme de formation continue (ENSAE-ENSAI Formation Continue) qui diplôment chaque année plus de 500 spécialistes, dont des cadres supérieurs de l’Etat (administrateurs et attachés de l’Insee).
Initié à la demande du Gouvernement et de l’Insee, le plan prévoit d’augmenter le nombre de diplômés de 43%, permettant ainsi de former 171 élèves supplémentaires chaque année. Dans cet objectif, le GENES recevra un financement supplémentaire de 5,9 millions d’euros sur la période 2024-2027. Cette enveloppe servira notamment au recrutement d’une soixantaine de personnes, comprenant des enseignants-chercheurs et des fonctions support.
Catherine Gaudy, Directrice générale du GENES, souligne l’importance de cette initiative :
“A l’heure où la donnée et l’IA sont au cœur de la conception et du déploiement des politiques publiques et des stratégies industrielles, la pénurie de talents dans le domaine de la data science est un véritable défi sur lequel l’ensemble des acteurs en France doit se mobiliser.
Nous avons besoin de former plus d’experts dans l’analyse approfondie de données complexes et hétérogènes, ayant à la fois des capacités de modélisation mathématiques et une solide culture des enjeux environnementaux, économiques et sociaux. Par ce plan de développement ambitieux, et par ses formations en sciences des données, dont l’excellence est historique et reconnue, le GENES entend contribuer pleinement à ces enjeux”.
Le plan “GENES 2027” prévoit une répartition précise des nouveaux diplômés, avec notamment 140 ingénieurs issus des deux écoles du Groupe, ainsi que 31 nouveaux attachés de l’Insee formés à l’ENSAI chaque année.
Pour l’ENSAE, le plan de développement s’appuiera sur :
Une augmentation des admissions via le concours commun Mines-Ponts (CPGE scientifiques), de 10 à 15 recrutements ;
Un accroissement des admissions en filière B/L, avec un objectif de 5 à 10recrutements supplémentaires ;
Une expansion progressive des admissions en filière ECG avec 15 à 25 recrutements complémentaires ;
Un accent mis sur l’admission en 2ème année directe, avec pour cible une trentaine de recrutements supplémentaires.
Pour l’ENSAI, le plan de développement s’appuiera sur :
L’expansion des admissions via les concours communs des instituts nationaux polytechniques (filières MP, MPI, PC, PSI) – CPGE scientifiques -, de 20 à 40 recrutements supplémentaires ;
Un accent mis sur l’admission sur titres des formations universitaires, notamment au niveau BUT Sciences des données et BUT Informatique, 3ième année de licence (L3) et première année de Master (M1), avec une cible de 20 à 30 recrutements. L’association récente avec l’Université de Rennes prévoit précisément le renforcement de ces passerelles ;
Le maintien des recrutements sur les concours spécialisés “économie et sciences sociale” et “économie et gestion”.
Pour répondre aux besoins de formations et assurer un encadrement de qualité aux étudiants et attachés-stagiaires des écoles, le GENES va créer :
26 emplois supplémentaires d’enseignants-chercheurs et 5 postes de doctorants ;
7 emplois d’assistants d’enseignement, coordinateurs et ATER ;
25 emplois non enseignants (renforcement des fonctions support, des services chargés de la scolarité et des admissions, des stages et des relations entreprises).
A l’ENSAE, la création d’emplois d’enseignants-chercheurs s’appuiera sur le renforcement des 4 pôles existants, dans les domaines de la finance et assurance, de l’économie, de la statistique et de la sociologie. Pour l’ENSAI, le renforcement des effectifs s’effectuera sur l’équipe “statistique-mathématiques appliquées “, l’équipe “statistique-computer science” et l’équipe “économie”. En complément de ces postes d’enseignants-chercheurs, cinq créations d’emplois seront dédiées au recrutement de doctorants contractuels.
Plus d’informations sont à retrouver dans le dossier de presse “GENES 2027”.
Le GENES annonce un plan de développement pour former plus de data scientists
En 2015, Elon Musk, Sam Altman et Greg Brockman lançaient OpenAI, une association à but non lucratif dont l’objectif était de promouvoir et développer une intelligence artificielle bénéficiant à l’humanité. Elon Musk, qui l’a quittée en 2018, a déposé plainte la semaine dernière contre OpenAI et ses cofondateurs pour non-respect de l’accord initial à l’origine de la création de l’association.
A l’origine, OpenAI était une organisation à but non lucratif qui s’était donné pour mission principale
En 2015, Elon Musk, Sam Altman et Greg Brockman lançaient OpenAI, une association à but non lucratif dont l’objectif était de promouvoir et développer une intelligence artificielle bénéficiant à l’humanité. Elon Musk, qui l’a quittée en 2018, a déposé plainte la semaine dernière contre OpenAI et ses cofondateurs pour non-respect de l’accord initial à l’origine de la création de l’association.
A l’origine, OpenAI était une organisation à but non lucratif qui s’était donné pour mission principale de veiller à ce que l’intelligence artificielle générale (AGI ou IAG) profite à tous. Il est écrit dans sa charte : “Nous tenterons de construire directement des AGI sûres et bénéfiques, mais considérerons également notre mission comme remplie si notre travail aide les autres à atteindre ce résultat”.
En 2019, peu après le départ d’Elon Musk et le développement de GPT-2, elle s’est restructurée et a créé OpenAI LP, pour pouvoir lever des fonds afin de poursuivre ses travaux et motiver les chercheurs. Les bénéfices d’OpenAI LP devaient être plafonnés et tout excédent versé à l’association non-lucrative OpenAI.
La même année, OpenAI a signé un partenariat exclusif avec Microsoft, qui lui a fourni un milliard de dollars et un accès à sa plateforme cloud Azure.
Les raisons exactes du départ d’Elon Musk n’ont pas été explicitement divulguées, mais il a été rapporté que sa décision était motivée par des conflits d’intérêts potentiels liés à ses autres entreprises, notamment Tesla et SpaceX, qui pouvaient avoir des projets ou des intérêts concurrents avec OpenAI. Des divergences d’opinion quant à la gestion de l’organisation ont également été évoquées.
Récemment, le très médiatique entrepreneur a annoncé la pose du 1er implant de sa société Neuralink sur un humain et le lancement de Grok, la première IA générative de sa start-up xAI. Elon Musk a déposé le nom de cette dernière société le 9 mars l’an passé, alors qu’il était l’un des principaux détracteurs de l’IA, la qualifiant de menace pour l’humanité, et a été l’un des signataires de la lettre ouverte “Pause Giant AI Experiments” publiée le 29 mars suivant. Celle-ci appelait tous les laboratoires d’IA à suspendre immédiatement et pendant au moins 6 mois l’entraînement de systèmes d’IA plus puissants que GPT-4.
Pourquoi une plainte aujourd’hui ?
OpenAI commercialise GPT-4 tout comme Elon Musk prévoit de le faire pour Grok qui sera disponible pour tous les abonnés X Premium+.
Selon ce dernier, GPT-4 se rapproche de l’IAG : l’investissement de Microsoft de l’an passé n’est donc pas compatible avec la mission initiale de l’association, le fait qu’il ne soit pas open source non plus. Il estime qu’OpenAI est devenue une machine à profit et détourne le bénéfice de l’IA au profit de Microsoft, et ce, au détriment de l’humanité.
Il a donc décidé de déposer plainte pour rupture de contrat, manquement à l’obligation fiduciaire et pratiques commerciales déloyales. Il y vise spécifiquement Sam Altman, mentionnant la signature d’une lettre d’intention en 2019, “pour acquérir pour 51 millions de dollars de puces à une start-up dans laquelle M. Altman a beaucoup investi”. Elon Musk fait ici référence à la société Rain AI, basée à San Francisco.
Les deux hommes qui ont pris l’habitude de communiquer via les médias et réseaux sociaux ne semblent pas près de se réconcilier. Selon OpenAI, sa collaboration avec Microsoft est avant tout un moyen de soutenir son objectif de créer une intelligence artificielle bénéfique pour l’humanité.
Que la plainte soit traitée ou non, quelles que soient les motivations réelles d’Elon Musk, elle met en lumière le risque de mainmise des grandes entreprises technologiques sur le marché de l’IA générative. D’ailleurs, Microsoft et OpenAI font partie des sociétés dont les partenariats sont examinés par la Federal Trade Commission (FTC) aux Etats-Unis, La Commission européenne et l‘Autorité de la concurrence en France.
NDLR : Cet article mentionne IA générative et IA générale. L’intelligence artificielle générative est de plus en plus mentionnée sous l’acronyme IAG, pouvant prêter à confusion avec l’intelligence artificielle générale, pour laquelle cet acronyme est traditionnellement employé. Il convient de rappeler que les deux sont distinctes. L’IA générative représente une classe d’IA destinée à générer du contenu (texte, image, vidéo..), par opposition à l’IA prédictive. Le concept d’IA générale désigne quant à lui une intelligence artificielle non spécialisée, multimodale, et dont le niveau pourrait être comparable à celui de l’intelligence humaine.
Elon Musk porte plainte contre OpenAI et son cofondateur Sam Altman
Il y a maintenant une IA qui diagnostique la Parkinson en examinant les yeux. La méthode pourrait également servir à dépister d’autres maladies.
L’intelligence artificielle possède des capacités d’analyse très utiles au secteur de la santé et de la médecine. Des chercheurs de l’université de Floride en apportent une nouvelle fois la preuve dans une nouvelle étude. Ils ont développé une méthode basée sur l’apprentissage profond pour permettre à l’IA de détecter la Parkinson à travers les yeux.
Il y a maintenant une IA qui diagnostique la Parkinson en examinant les yeux. La méthode pourrait également servir à dépister d’autres maladies.
L’intelligence artificielle possède des capacités d’analyse très utiles au secteur de la santé et de la médecine. Des chercheurs de l’université de Floride en apportent une nouvelle fois la preuve dans une nouvelle étude. Ils ont développé une méthode basée sur l’apprentissage profond pour permettre à l’IA de détecter la Parkinson à travers les yeux.
Par ailleurs, les chercheurs ont pu compter sur le soutien de la Biobanque du Royaume-Uni. Cette dernière a fourni une importante base de données d’images de fond d’œil.
Des algorithmes IA pour détecter la Parkinson
La maladie de Parkinson est liée à une perte progressive de neurones dopaminergiques. Il s’ensuit alors un déclin moteur. Précisons que les décès en lien avec cette maladie ont doublé depuis 2000. D’où la nécessité de davantage de recherches pour accélérer le diagnostic et pour améliorer les interventions.
La rétine est souvent considérée comme la fenêtre sur le cerveau. Cette partie vitale de l’œil permet effectivement d’évaluer les processus neuropathologiques liés à de nombreuses maladies neurodégénératives.
Malgré des progrès, les résultats cliniques sur la dégénérescence rétinienne ne sont pas toujours concluants. Les grands modèles de langage (LLM) – quelle que soit la technique d’entraînement – sont apparus comme des outils de diagnostic très efficaces.
Percer la complexité de la structure rétinienne avec l’IA
L’équipe floridienne propose l’utilisation des LLM pour développer une compréhension profonde des biomarqueurs rétiniens de Parkinson. En effet, l’intelligence artificielle peut aider à comprendre les relations complexes entre les différentes structures de la rétine à partir de l’imagerie du fond d’œil.
L’étude visait principalement à profiler systématiquement la performance de classification à travers diverses phases de progression de la maladie. Précisons que cela inclut les cas incidents et prévalents. En négligeant toute méthode de sélection de caractéristiques ou mesures quantitatives externes, les auteurs de la recherche ont maximisé la capacité de diagnostic des modèles.
L’apprentissage profond, plus performant que l’apprentissage automatique
L’apprentissage automatiqueet l’apprentissage profondsont deux techniques pour la formation des modèles de langage. Pour les auteurs de la recherche, il fallait déterminer quelle méthode d’apprentissage allait donner le modèle le plus performant.
La deuxième technique d’apprentissage a permis d’obtenir un modèle plus précis dans ses diagnostics. La machine a effectivement réussi à prédire l’incidence de la maladie avec un niveau de sensibilité de 80 % de 0 à 5,07 ans. Ce niveau a atteint 93,33 % entre 5,07 et 5,57 ans, pour ensuite tomber à 81,67 % entre 5,57 et 7,38 ans.
Ces résultats sont prometteurs. En effet, ils montrent le potentiel d’une intervention précoce sur la maladie. Malgré certaines limites, comme la taille réduite de l’échantillon et l’absence de généralisation, cette méthode pourrait permettre le diagnostic d’autres maladies, telles que l’Alzheimer. Les chercheurs doivent encore développer leurs travaux.
Une IA qui raisonne comme Albert Einstein, est-ce possible ? En tout cas, ces scientifiques allemands ont été fascinés par cette théorie. Ils ont conçu un modèle de Machine learning capable d’imiter la « pensée » d’Einstein. Et cette étude pourrait ouvrir la porte à plusieurs découvertes scientifiques.
Qui ne connaît pas Albert Einstein ? Ce scientifique a marqué le XXe siècle par ses découvertes. Sa théorie de la relativité est toujours une base dans le domaine de la physique. Et si ce génie
Une IA qui raisonne comme Albert Einstein, est-ce possible ? En tout cas, ces scientifiques allemands ont été fascinés par cette théorie. Ils ont conçu un modèle de Machine learning capable d’imiter la « pensée » d’Einstein. Et cette étude pourrait ouvrir la porte à plusieurs découvertes scientifiques.
Qui ne connaît pas Albert Einstein ? Ce scientifique a marqué le XXe siècle par ses découvertes. Sa théorie de la relativité est toujours une base dans le domaine de la physique. Et si ce génie peut encore nous aider à résoudre d’autres problèmes scientifiques ? Des chercheurs ont alors mené une étude sur ce sujet. Avec une IA qui raisonne comme Albert Einstein, les études seront de plus en plus précises. La science avancera plus vite avec cette approche.
Une IA complexe pour résoudre les problèmes scientifiques
Les chercheurs du FZJ (Forschungszentrum Jülich) ont voulu innover dans le domaine de l’IA. Pour atteindre cet objectif, ces chercheurs se sont focalisés sur les approches de pensée scientifique. À l’époque, les génies, comme Albert Einstein, traitent des données immenses pour monter une théorie. L’IA de ces chercheurs allemands imite cette manière de raisonner.
Le Machine Learning est à la base de cette innovation. L’utilisateur lui fournit une base de données conséquente. L’IA opte pour une analyse scientifique pour avoir un résultat précis.
Moritz Helias, co-auteur de la recherche, a même donné des explications supplémentaires sur cette IA.
« Auparavant, la seule manière de construire ces modèles c’était de le faire depuis le bas, on expliquait le comportement d’un système à partir des interactions déjà connues qu’on y observait. Mais dans ces travaux, nous prenons le problème par l’autre bout en commençant depuis le haut ».
Cette nouvelle approche permet alors d’aborder les théories d’une manière spécifique. L’IA va traiter séparément les données pour avoir des rendus plus précis.
Le cerveau d’Albert Einstein dans une IA
Albert Einstein raisonne comme suit : il se base sur les éléments dans le monde qui l’entoure. Il forme ensuite un constat et monte une théorie. Cette approche est à l’origine de la théorie de la relativité.
Einstein a imaginé une personne en chute libre dans un ascenseur. Le sujet d’étude n’a aucun moyen de savoir les effets de la gravité sur lui. Il n’a aucune information sur sa vitesse et sur son accélération dans ce système clos. Survient ensuite le « moment Eureka ». C’est la fameuse phrase qu’Einstein a dit après la conception de l’équation de la théorie de la relativité.
L’IA est maintenant capable de raisonner comme les scientifiques
On est désormais dans l’ère de la « physique de l’IA ». En effet, cette approche spécifique permet d’analyser les théories non résolues dans ce domaine. Il sera alors plus facile de les aborder avec cet algorithme innovant. Comme quoi, Albert Einstein peut encore nous aider dans nos recherches.
Et les scientifiques ne vont pas s’arrêter là. Ils ont l’intention de reproduire l’étude en se basant sur la manière de penser des chercheurs les plus célèbres.
Ils n’arrivaient pas à déchiffrer les papyrus d’Herculanum. Ils sollicitent l’intelligence artificielle et parviennent à comprendre une partie des parchemins carbonisés.
Vieux de deux millénaires, les papyrus d’Herculanum possèdent une valeur historique inestimable. Ces quelque 800 rouleaux sont fortement endommagés et les chercheurs pensaient ne jamais pouvoir les déchiffrer. L’intelligence artificielle vient aujourd’hui changer la donne en permettant le déchiffrage d’une partie des manuscri
Ils n’arrivaient pas à déchiffrer les papyrus d’Herculanum. Ils sollicitent l’intelligence artificielle et parviennent à comprendre une partie des parchemins carbonisés.
Vieux de deux millénaires, les papyrus d’Herculanum possèdent une valeur historique inestimable. Ces quelque 800 rouleaux sont fortement endommagés et les chercheurs pensaient ne jamais pouvoir les déchiffrer. L’intelligence artificielle vient aujourd’hui changer la donne en permettant le déchiffrage d’une partie des manuscrits brûlés.
C’est à l’éruption du Vésuve de 79 après Jésus-Christ qu’il faut en vouloir si les parchemins sont fortement carbonisés. Rappelons aussi que les cités antiques de Pompéi et d’Herculanum ont terminé ensevelies à la suite de cet épisode volcanique majeur.
D’autre part, ces rouleaux sont conservés à l’Institut de France à Paris et à la Bibliothèque nationale de Naples en Italie. Ils se présentent sous la forme de bûches carbonisées très fragiles. Celles-ci s’effritent facilement à la moindre tentative de les dérouler. Cela rend extrêmement difficile le déchiffrage de leur contenu.
L’intelligence artificielle et l’ingéniosité de trois personnes
Il arrive souvent que l’intelligence artificielle soit présentée comme une mauvaise chose. Mais la technologie reste globalement une aubaine, notamment pour la science. Nombreux sont les chercheurs à penser que les outils d’IA vont accélérer les découvertes scientifiques. Ce qui est déjà le cas avec le déchiffrage des papyrus d’Herculanum.
L’utilisation de l’intelligence artificielle ici est particulièrement ingénieuse. La machine avait d’abord pour mission de distinguer l’encre des parchemins. Elle devait ensuite identifier la nature des caractères grecs, tout en repérant les répétitions. Cette méthode a permis de déchiffrer le premier mot d’un passage, étant le terme grec pour “violet”.
Par ailleurs, cette façon d’utiliser l’IA pour percer le secret des parchemins est une idée de Luke Farritor, Youssef Nader et Julian Schilliger. Le premier est un étudiant actuellement en stage chez SpaceX, la compagnie astronautique d’Elon Musk. Le second est un doctorant à Berlin, tandis que le troisième est suisse et étudie la robotique.
Le Vesuvius Challenge pour déchiffrer les papyrus d’Herculanum
Le trio de chercheurs s’est retrouvé à déchiffrer les manuscrits antiques à la suite de sa participation au Vesuvius Challenge. Il s’agit d’un concours lancé par Nat Friedman, ancien PDG de la plateforme pour les développeurs GitHub, et par Brent Seales. Ce dernier est un chercheur en informatique basé à l’université du Kentucky, aux États-Unis.
Ten months ago, we launched the Vesuvius Challenge to solve the ancient problem of the Herculaneum Papyri, a library of scrolls that were flash-fried by the eruption of Mount Vesuvius in 79 AD.
Today we are overjoyed to announce that our crazy project has succeeded. After 2000… pic.twitter.com/fihs9ADb48
Par ailleurs, le Vesuvius Challenge consistait à déchiffrer au moins 85 % de quatre passages de 140 caractères des papyrus d’Herculanum. À l’aide de l’intelligence artificielle, Farritor et ses deux coéquipiers ont atteint ce taux de déchiffrage. Le trio a ainsi remporté la récompense de 700 000 dollars offerte pour ce défi particulier.
Révision de nos connaissances de l’époque antique ?
Par ailleurs, le Vesuvius Challenge se poursuit cette année et promet 100 000 dollars aux futurs vainqueurs. La récompense reviendra à ceux qui pourront déchiffrer au moins 90 % des passages présentés.
D’autre part, le déchiffrage a permis de découvrir des lignes « à propos de nourriture, de musique, et de comment profiter des plaisirs de la vie ». Le philosophe épicurien Philodème de Gadara en serait l’auteur.
Percer le secret des papyrus d’Herculanum pourrait changer ce que nous savons de l’histoire antique. Chercheur en études classiques, Robert Fowler s’en enthousiasme. « Certains de ces textes pourraient complètement réécrire l’histoire de périodes clés du monde antique », explique le président de la Herculaneum Society.
Smart4 Engineering, groupe français spécialisé dans l’ingénierie numérique et la R&D, annonce la finalisation de l’acquisition de Closer Consulting, une entreprise portugaise spécialisée dans la data science, le business intelligence, l’Advanced Analytics et l’intelligence artificielle. Cette initiative s’inscrit dans la stratégie de Smart4 Engineering visant à renforcer sa présence en Europe en intégrant des entités spécialisées dans le secteur technologique.
Créé en 2020, dirigé par Cyril
Smart4 Engineering, groupe français spécialisé dans l’ingénierie numérique et la R&D, annonce la finalisation de l’acquisition de Closer Consulting, une entreprise portugaise spécialisée dans la data science, le business intelligence, l’Advanced Analytics et l’intelligence artificielle. Cette initiative s’inscrit dans la stratégie de Smart4 Engineering visant à renforcer sa présence en Europe en intégrant des entités spécialisées dans le secteur technologique.
Créé en 2020, dirigé par Cyril Roger, Smart4 Engineering n’a cessé depuis le rachat à ses débuts de LeXi de poursuivre sa politique d’acquisition afin d’apporter des solutions efficaces aux défis auxquels est confrontée l’industrie dans les domaines de la data, de l’IA, des logiciels critiques, de la cybersécurité et des infrastructures intelligentes. Le groupe combine aujourd’hui l’expertise de 11 entités puisqu’Atlantica, BI Consulting (aujourd’hui Sibylone), LR Technologies Groupe, Capitole Consulting, Eurosystem, LR Technologies Groupe, Solent, TITAN, TopNetwork et TopSystem font eux aussi partie du groupe et viennent d’être rejoints par Closer Consulting.
Avec des bureaux dans huit pays et environ 3 500 ingénieurs hautement qualifiés, Smart4 Engineering ambitionne de faire passer son chiffre d’affaires de 250 millions d’euros à plus de 300 en 2024.
L’acquisition de Closer Consulting
Closer Consulting vient ainsi renforcer la position de Smart4 Engineering sur le marché européen en élargissant sa gamme de produits. Dans le cadre de cette intégration, João Pires da Cruz, l’un de ses co-fondateurs, a été nommé VP Research & Innovation de Smart4 Engineering.
Fondée en 2005, basée à Lisbonne, Closer Consulting compte plus de 350 professionnels répartis au Portugal, au Royaume-Uni et au Brésil. Axée sur la satisfaction des besoins opérationnels et de BI à long terme de ses clients, la société propose des services de conseil en stratégie de données, des projets personnalisés, l’externalisation de compétences en TI et en données, et des services de proximité. Elle réalise un chiffre d’affaires de plus de 15 millions d’euros et compte parmi ses clients des acteurs majeurs de l’industrie, des services, des transports, des télécommunications.
Cyril Roger déclare :
“Closer s’est imposée comme une entreprise de référence dans le secteur de la data et de l’IA. Nous sommes enthousiastes à l’égard du marché portugais, mais suite à notre stratégie d’internationalisation, l’objectif est clair d’aller encore plus loin. Il est vrai que nous avons étendu notre activité à l’étranger, mais avec cette intégration dans le groupe, qui en plus de sa robustesse partage également notre vision, nous disposerons d’une structure avec un savoir-faire et une présence dans différentes zones géographiques, ce qui nous permettra d’agir avec assurance sur les différents marchés cibles. Nous sommes très enthousiastes à l’idée de cette collaboration, qui nous permettra d’offrir à nos clients un large éventail de nouveaux produits, de nouvelles compétences et de nouvelles expériences”.
Fernando Matos, associé et co-fondateur de Closer Consulting, ajoute :
“Forts de notre position sur le marché portugais, nous avons un objectif clair : aller encore plus loin. Grâce à cette intégration dans le groupe Smart4 Engineering, qui, en plus de sa solidité, partage également notre vision, nous disposerons d’une structure, d’un savoir-faire et d’une présence dans plusieurs pays. Cela nous permettra d’agir de manière assertive sur les différents marchés cibles”.
Smart4 Engineering renforce son expertise en IA et data avec l’acquisition de Closer Consulting
Des chercheurs du Northwestern Institute auraient réussi à construire un modèle prédisant la non-reproductibilité de publications scientifiques. Révolution ou solutionnisme ? Les apports du développement de l’apprentissage automatique (machine learning) paraissent sans limites. Après les premiers exploits en traitement de l’image et l’extrême engouement autour de la génération automatique de contenu, voici que la recherche… Plus...
Des chercheurs du Northwestern Institute auraient réussi à construire un modèle prédisant la non-reproductibilité de publications scientifiques. Révolution ou solutionnisme ? Les apports du développement de l’apprentissage automatique (machine learning) paraissent sans limites. Après les premiers exploits en traitement de l’image et l’extrême engouement autour de la génération automatique de contenu, voici que la recherche… Plus...
Vers une évolution de la perception de l'IA GénérativeL'intelligence artificielle (IA) générative est un sujet récurrent dans le monde technologique. Alors que certaines technologies connaissent des cycles de battage médiatique, l'IA générative semble avoir attendu patiemment son tour, surtout après l'affaiblissement de la crypto-monnaie. Les projets comme ChatGPT et DALL-E se sont retrouvés sous les projecteurs, suscitant à la fois émerveillement et scepticisme.La capacité de ces technologies à
Vers une évolution de la perception de l'IA Générative
L'intelligence artificielle (IA) générative est un sujet récurrent dans le monde technologique. Alors que certaines technologies connaissent des cycles de battage médiatique, l'IA générative semble avoir attendu patiemment son tour, surtout après l'affaiblissement de la crypto-monnaie. Les projets comme ChatGPT et DALL-E se sont retrouvés sous les projecteurs, suscitant à la fois émerveillement et scepticisme.
La capacité de ces technologies à produire des résultats impressionnants, quasi-magiques pour le grand public, est indéniable. Contrairement à d'autres innovations, l'IA générative offre une expérience immédiate: il suffit de taper quelques mots pour voir une machine produire des peintures ou des histoires courtes. Cependant, cette facilité d'accès peut aussi engendrer des attentes démesurées.
Les robots du futur, alimentés par l'IA générative
La robotique moderne s'intéresse de plus en plus à l'IA générative. Lors d'une conversation avec Marc Raibert et Gill Pratt, ce dernier a mis en avant l'importance de l'IA générative dans l'apprentissage des robots. Grâce à des techniques avancées, il est désormais possible d'enseigner à un robot en utilisant seulement quelques exemples.
D'autres experts du domaine, tels que Deepu Talla de Nvidia, sont convaincus que l'IA générative est plus qu'une simple tendance passagère. Il souligne que cette technologie commence déjà à améliorer la productivité, en aidant par exemple à la rédaction d'emails.
Daniela Rus, à la tête du MIT CSAIL, a quant à elle évoqué la capacité de l'IA générative à concevoir des robots. Cette technique permet d'obtenir des mouvements fluides, presque humains. Mais l'IA générative ne s'arrête pas là: elle est également utilisée pour la conception même des robots, en garantissant que leurs designs respectent les contraintes physiques.
Une évolution rapide et innovante
Une équipe de la Northwestern University a récemment présenté ses recherches sur la conception de robots grâce à l'IA générative. Leur AI a conçu un robot capable de marcher en quelques secondes seulement. Bien que rudimentaire, cette avancée montre le potentiel énorme de cette approche pour créer des systèmes plus complexes à l'avenir.
Selon Jeff Linnell, fondateur et PDG de Formant, l'IA générative, combinée à la robotique, va complètement transformer notre perception de la vie sur Terre. Il imagine un futur où nous communiquerons directement avec les robots dans notre langue maternelle, sans avoir besoin de les programmer.
Conclusion
L'intégration de l'IA générative dans la robotique marque un tournant majeur dans l'histoire technologique. Alors que nous commençons à peine à comprendre son potentiel, une chose est claire: l'IA générative redéfinit les frontières de ce qui est possible. Seul le temps dira jusqu'où cette technologie nous mènera, mais une chose est certaine, le futur de la robotique semble prometteur grâce à l'IA générative.
Le cœur, cet organe incroyableLe cœur est sans doute l'organe le plus sollicité de notre corps, pompe incessante transportant d'énormes quantités de sang sans jamais manquer un battement. Ce miracle de l'évolution fonctionne pendant des décennies avant de commencer à montrer des signes de vieillissement. Le vieillissement cardiaque est causé par plusieurs facteurs, tels que l'inflammation chronique, le dysfonctionnement mitochondrial, le stress oxydatif et les dommages aux télomères [2].Dans une
Le cœur est sans doute l'organe le plus sollicité de notre corps, pompe incessante transportant d'énormes quantités de sang sans jamais manquer un battement. Ce miracle de l'évolution fonctionne pendant des décennies avant de commencer à montrer des signes de vieillissement. Le vieillissement cardiaque est causé par plusieurs facteurs, tels que l'inflammation chronique, le dysfonctionnement mitochondrial, le stress oxydatif et les dommages aux télomères [2].
Dans une étude publiée dans Nature Aging, des chercheurs ont utilisé des macaques à longue queue pour explorer les aspects moléculaires du vieillissement cardiaque grâce à une analyse multi-omique. Contrairement aux souris et aux rats à courte durée de vie, ces primates non humains ont des cœurs qui ressemblent étroitement à ceux des humains et sont également sujets à des conditions cardiaques spontanées.
SIRT2 identifié comme un acteur potentiel
En comparant les cœurs de huit jeunes singes (4-6 ans) et de huit singes âgés (18-21 ans), qui correspondent approximativement à des âges humains de 16 et 65 ans, les chercheurs ont observé que les cœurs des singes âgés présentaient tous les signes familiers de vieillissement. Ces signes incluent une augmentation des cellules séniles, des zones fibrotiques et une hypertrophie des cellules musculaires cardiaques. De plus, les niveaux de plusieurs facteurs inflammatoires étaient élevés.
Avec une analyse protéomique, 126 protéines exprimées différemment en lien avec le vieillissement ont été identifiées comme étant surexprimées, et 43 comme sous-exprimées. L'analyse a montré que les protéines surexprimées étaient principalement liées à l'inflammation, la coagulation du sang et la fibrose. À l'inverse, celles qui étaient sous-exprimées concernaient la synthèse des protéines, la fonction mitochondriale et le métabolisme des lipides.
SIRT2, une protéine de la famille SIRT souvent évoquée dans les études sur le vieillissement [3], s'est distinguée. Elle était la seule protéine sous-exprimée dans les cœurs des singes âgés et était également liée à quatre types de maladies cardiovasculaires.
L'axe SIRT2 - STAT3 - CDKN2B
Après avoir généré des cardiomyocytes humains déficients en SIRT2 à partir de cellules souches embryonnaires, les chercheurs ont remarqué que ces cellules ressemblaient à de vieux cardiomyocytes, montrant notamment une hypertrophie et une augmentation des cellules séniles. Une analyse transcriptomique a révélé que le facteur de transcription STAT3 était le principal responsable de ces changements, étant lui-même un médiateur bien connu de l'inflammation.
Il a été démontré que SIRT2 agit en désacétylant des protéines, en particulier le STAT3. Cette action semble jouer un rôle clé dans la régulation de la sénescence des cardiomyocytes.
SIRT2 sauve les cœurs vieillissants chez les souris
Pour confirmer leurs découvertes, les scientifiques ont injecté dans les cœurs de souris âgées des vecteurs viraux contenant SIRT2. Les résultats ont montré une amélioration des indicateurs majeurs du vieillissement cardiaque. Cela suggère un potentiel rôle cardioprotecteur pour SIRT2.
Pour conclure, cette étude dévoile des voies biologiques cruciales impliquées dans le vieillissement cardiaque chez les primates. Elle suggère que SIRT2 pourrait être un acteur majeur dans la lutte contre le vieillissement cardiaque.
"Nous avons systématiquement étudié les profils multidimensionnels du cœur de NHP et révélé un ensemble de voies biologiques cruciales qui changent avec le vieillissement cardiaque des primates."