Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

L’IA ne raisonne pas comme un humain : la preuve par la couleur des bananes

Les chatbots d'intelligence artificielle peuvent fournir des réponses convaincantes, tout en demeurant largement incompris de l’intérieur. Pour déconstruire cette « boîte noire », des chercheurs d’Anthropic développent des méthodes d’interprétabilité mécaniste, qui cartographient certains mécanismes internes des modèles de langage.

Actualités quantiques d’avril 2025

Nous voici dans le 69e épisode de Quantum, le podcast de l’actualité quantique, toujours avec le duo Fanny Bouton et Olivier Ezratty. Au menu, une visite d’Olivier à Boston au MIT, puis à Montpellier, Fanny à Devoxx, une conférence sur les communications quantiques à Athènes, un agenda à craquer d’événements business et scientifiques dans les […]

GeoAI Hack : un hackathon pour relever les défis climatiques en Afrique grâce à l’IA

Le GeoAI Hack, un hackathon de deux jours coorganisé par InstaDeep et datacraft, est l’un des 35 défis “ Convergence IA” sélectionnés et soutenus par le gouvernement dans la perspective du prochain Sommet pour l’action sur l’IA. Il s’inscrit pleinement dans la thématique de l’IA au service de l’adaptation climatique et l’agriculture : les participants auront pour mission de concevoir des solutions géospatiales opérationnelles, exploitant l’IA et les données satellitaires, afin de répondre aux défis environnementaux actuels.

Un défi climatique concret

Le GeoAI Hack s’adresse aux étudiants, professionnels et innovateurs. Ils peuvent candidater individuellement ou former une équipe de quatre personnes maximum. L’événement mettra en avant la créativité, l’innovation technique et les applications à fort impact pour un développement durable et l’autonomisation des communautés locales.

Les participants, dotés de compétences en Python et en Machine Learning, auront accès aux données open source d’observation de la Terre des satellites Sentinel-2 et Landsat-8 pour relever un défi environnemental majeur : développer un système d’alerte avancée concernant les déplacements des sauterelles en Afrique afin de contribuer à la sécurité alimentaire des populations.

Pour exploiter ces données, ils utiliseront InstaGeo, un cadre open source d’apprentissage automatique géospatial développé par InstaDeep, qui simplifie la création d’applications de télédétection en trois étapes clés :

  • Traitement des données : gestion fluide des données multispectrales ;
  • Développement de modèles : création de modèles IA adaptés aux enjeux géospatiaux ;
  • Déploiement d’application : mise en production facilitée.

Cet événement offrira une plateforme unique pour l’apprentissage et des discussions enrichissantes sur les dernières avancées en matière d’IA géospatiale (GeoAI). Les participants bénéficieront du mentorat d’experts de datacraft et d’InstaDeep tout au long de sa durée.

Programme

Jour 1 – Mardi 4 février

08:00 – 09:00 : Enregistrement et accueil

09:00 – 10:00 : Cérémonie d’ouverture et présentation du défi

10:00 – 18:00 : Espace de piratage

18:00 : Clôture de la journée

Jour 2 – Mercredi 5 février

Activités de réseautage et présentations finales. Les meilleures solutions seront récompensées : 2500 euros pour la première place, 1500 euros pour la seconde et 1000 euros pour la troisième.

Pour postuler à ce hackathon qui se déroulera dans les locaux du Groupe AFD, dans le 12ème à Paris, cliquer ici.

relever les défis climatiques en Afrique grâce à l’IA

Decode Quantum with young scientists at Lindau

Welcome to the 76th episode of Decode Quantum. In our series of three episodes recorded in Lindau where dozens of physics Nobel laureates met with young scientists, we picked a few of them who are specialized in the broad field of quantum computing to head their thoughts about it: Caroline Tornow (ETH Zurich), Francesca Pietracaprina […]

Arabie Saoudite : premières annonces majeures pour l’avenir de l’IA à la 3ème édition du Global AI Summit (GAIN)

La troisième édition du Global AI Summit (GAIN), organisée par la Saudi Data & Artificial Intelligence Authority (SDAIA), se déroule depuis le 10 septembre au King Abdulaziz International Conference Center à Riyad. Cet événement, qui se clôturera ce soir, a réuni plus de 300 intervenants internationaux, parmi lesquels des leaders technologiques, des universitaires, des chefs d’entreprise, ainsi que des décideurs et régulateurs de près de 100 pays.

Lancé en 2020 par la SDAIA, le sommet a pour vocation d’être une plateforme mondiale dédiée aux discussions sur les avancées, défis et opportunités de l’IA et de promouvoir la collaboration dans ce secteur.

Une première journée marquée par des annonces importantes

NVIDIA, IBM et l’OCDE ont annoncé le jour d’ouverture du sommet des collaborations avec la SDAIA :

  • NVIDIA et la SDAIA ont annoncé un renforcement de leur collaboration visant à tirer parti des dernières avancées technologiques de NVIDIA, notamment NVIDIA NeMo et NeMo Guardrails, pour faciliter la création et le déploiement d’applications d’IA par les développeurs en Arabie Saoudite, en utilisant le LLM arabe ALLaM. Cette initiative établira une nouvelle norme pour les modèles linguistiques pilotés par l’IA au Moyen-Orient. De plus, les deux organisations prévoient d’étendre l’infrastructure existante de supercalculateurs de la SDAIA, en créant l’un des plus grands centres de données haute performance de la région MENA, basé sur l’architecture Blackwell de NVIDIA ;
  • IBM a signé un protocole d’accord avec la SDAIA pour la création d’un Centre de recherche et d’innovation en IA en Arabie Saoudite. Ce centre sera axé sur le développement d’applications destinées aux secteurs gouvernementaux, tout en respectant les normes mondiales de gouvernance et d’éthique en matière d’IA ;
  • L’OCDE a signé un protocole d’accord avec la SDAIA pour renforcer la surveillance des incidents liés à l’IA dans la région du Moyen-Orient et assurer un suivi rigoureux des données en langue arabe. Il s’appuiera sur les ressources de l’OCDE et sur sa base de données de plus de 1 000 politiques d’IA provenant de 70 pays.

D’autre part, l’UNESCO et la SDAIA ont annoncé que le Centre international de recherche et d’éthique en intelligence artificielle de Riyad (ICAIRE) a été classé comme centre de catégorie 2 (C2) placé sous l’égide de l’UNESCO. Cette classification souligne non seulement le rôle central de l’Arabie saoudite dans l’avancement de la coopération internationale et régionale en matière de politiques, d’éthique et de recherche dans le domaine de l’IA mais également l’engagement du Royaume à soutenir les Objectifs de développement durable (ODD) 2030 des Nations unies.

Arabie Saoudite : premières annonces majeures pour l'avenir de l'IA à la 3ème édition du Global AI Summit (GAIN)

Arabie Saoudite : Riyad accueille les premières Olympiades Internationales d’Intelligence Artificielle

En marge du Global AI Summit 2024 qui se déroule du 10 au 12 septembre à Riyad, 25 pays participent à la première Olympiade Internationale d’Intelligence Artificielle, une nouvelle compétition organisée par l’Autorité saoudienne des données et de l’intelligence artificielle (SDAIA) afin de valoriser l’expertise en IA.

Le Sommet mondial de l’intelligence artificielle ou GAIN est organisé par l’Arabie saoudite depuis 2020. Il a été lancé par la SDAIA pour servir de plateforme mondiale de discussion sur les avancées, les enjeux et les opportunités dans le domaine de l’IA et promouvoir la collaboration dans le secteur.

Cette année, plus de 300 intervenants, parmi lesquels des leaders de l’innovation, des universitaires, des chefs d’entreprise, des régulateurs et des décideurs de près de 100 pays, se réunissent pour discuter du thème “L’IA : Aujourd’hui, demain, jamais”. Ces échanges visent à explorer l’impact transformateur de l’IA sur les individus et les communautés, les bénéfices concrets de cette technologie, son avenir, ainsi que les considérations éthiques nécessaires pour garantir un développement responsable de l’IA dans tous les secteurs.

Un concours mondial d’excellence en IA

La SDAIA a organisé cette Olympiade en partenariat avec le Centre international de recherche et d’éthique sur l’IA de Riyad (ICAIRE) et le Centre international de recherche sur l’intelligence artificielle en Slovénie, placé sous l’égide de l’UNESCO.

La compétition a été précédée par une série de conférences intensives de cinq semaines, où les participants ont pu se qualifier et approfondir leurs connaissances. Chacun des 25 pays est représenté par une équipe de quatre experts, tous prêts à s’affronter durant les deux jours du sommet sur des questions techniques et des problématiques à l’aide de l’IA.

Une réponse aux défis contemporains

L’objectif des Olympiades est de fournir un espace aux esprits les plus brillants afin de suivre les évolutions récentes de l’IA, notamment la GenAI, et d’aborder les problématiques actuelles, telles que l’éthique.

Alors que l’IA devient un élément incontournable de la vie quotidienne et du paysage commercial, cette compétition vise à former une nouvelle génération d’experts capables de relever les défis mondiaux. Après cette première édition internationale, les organisateurs ont d’ailleurs l’intention de lancer des versions des Olympiades dans des écoles du monde entier pour encourager les jeunes talents à développer des solutions intelligentes tout en les sensibilisant aux enjeux liés à l’IA.

Les Olympiades s’inscrivent également dans le cadre de la Vision 2030 de l’Arabie saoudite, qui vise à diversifier son économie en misant sur les données et l’IA. Elles contribueront en outre à la réalisation des Objectifs de développement durable (ODD) des Nations unies, notamment en sensibilisant aux technologies de l’IA et en fournissant aux sociétés les connaissances et les compétences nécessaires pour les maîtriser.

Arabie Saoudite Riyad accueille les premières Olympiades Internationales d'Intelligence Artificielle

Le Forum de Paris sur la Paix lance un appel à projets axé sur l’IA pour le bien commun

L’IA peut-elle offrir des solutions aux défis mondiaux contemporains ? Dans le cadre de l’AI Action Summit, qui se tiendra les 10 et 11 février 2025 à Paris, le Forum de Paris sur la Paix a lancé le 3 septembre dernier un appel à projets axé sur l’intelligence artificielle, s’adressant aux organisations. Celles-ci ont jusqu’au 7 octobre prochain pour soumettre leur candidature.

Qu’est-ce que le Forum de Paris sur la Paix ?

Le Forum de Paris sur la Paix est une initiative française lancée en 2018, dédiée à la promotion de la gouvernance mondiale et à la recherche de solutions innovantes pour relever les défis globaux contemporains. L’idée derrière ce forum est de rassembler des acteurs du monde entier pour discuter et proposer des solutions concrètes sur des sujets essentiels comme la paix, la sécurité, le développement durable, la gouvernance numérique, et la régulation des technologies émergentes.

Chaque année, le Forum se déroule en novembre à Paris, autour de la commémoration de l’Armistice de la Première Guerre mondiale, et se distingue par son approche collaborative et inclusive. Contrairement à d’autres sommets internationaux qui se concentrent principalement sur les décideurs politiques et les chefs d’État, le Forum cherche à inclure des représentants de la société civile : ONG, associations, entreprises, chercheurs, médias, représentants religieux, syndicats… Lieu d’échanges, il se présente également comme une plateforme pour les projets contribuant à des solutions mondiales : plus de 500 projets ont été sélectionnés et présentés depuis 2018.

A l’issue de l’édition 2023, Justin Vaïsse, Fondateur et Directeur Général du Forum de Paris sur la Paix déclarait :

 “Cette année, le Forum de Paris sur la Paix a apporté une modeste contribution à la résolution des crises brûlantes d’aujourd’hui, même si c’est avant tout le rôle des États, des diplomates et de l’ONU. Notre mission fondamentale est la prévention des conflits de demain. Depuis sa création en 2018, le Forum s’est fixé pour objectif de construire les bases de la paix sur le long terme, en préparant un monde moins chaotique et mieux régulé à faire face aux défis mondiaux qui nous menacent. Ce sont les questions sur lesquelles le Forum peut faire la différence”.

La 7e édition du Forum aura lieu les 11 et 12 novembre 2024, au Palais de Chaillot à Paris.

L’ IA au cœur de l’AAP 2024

L’essor rapide de l’IA entraîne des bouleversements significatifs dans nos sociétés, affectant la manière dont nous travaillons, vivons et interagissons. Alors que ces innovations apportent de nouvelles opportunités, elles créent également des divisions et des défis. C’est dans ce contexte que le Forum de Paris sur la Paix cherche à encourager des initiatives qui tirent parti de l’IA pour améliorer la vie des citoyens et répondre aux enjeux globaux, tout en promouvant une gouvernance responsable et éthique.

Thématiques et critères de sélection

Les projets soumis devront s’aligner sur cinq thématiques clés :

Confiance dans la démocratie, l’information, la sécurité et la sûreté

  • Lutter contre la désinformation
  • Améliorer l’accès du public à l’information
  • Inclusion et accessibilité numériques
  • Sécurité, transparence et responsabilité

L’IA et les objectifs de développement durable (ODD)

  • Durabilité environnementale
  • L’IA au service de l’action climatique
  • Agriculture et systèmes alimentaires
  • Nutrition
  • Santé mondiale, coopération scientifique
  • Éducation
  • Genre

Travail et bien-être

  • Une IA inclusive et équitable
  • Répartir les gains de productivité
  • Défendre les travailleurs de l’IA

Gouvernance, éthique, responsabilité et réponse aux crises

  • Gouvernance mondiale de l’IA
  • IA éthique, supervision et transparence des algorithmes
  • L’IA pour l’alerte précoce et la gestion des catastrophes
  • Action humanitaire
  • Gestion de crise et prévention des conflits

Culture

  • Diffusion d’outils créatifs
  • Protection du droit d’auteur

Modalités de participation

Seules les organisations peuvent participer, et non les particuliers. Les projets doivent avoir un certain niveau d’avancement, être au moins en phase pilote, et proposer une solution concrète et distincte. Les recherches purement académiques ou les concepts en phase de démarrage ne sont pas éligibles.

Les organisations intéressées ont jusqu’au 7 octobre 2024 à 23h59 CET pour soumettre leurs projets. Les projets sélectionnés, jusqu’à 50, seront annoncés mi-décembre 2024 et présentés au Sommet les 10 et 11 février 2025. Ils bénéficieront d’une visibilité internationale, d’opportunités de réseautage avec des experts et des décideurs, ainsi que d’une intégration dans une communauté mondiale d’innovateurs œuvrant pour le bien commun.

Dépôt des candidatures

Les demandes doivent être soumises via ce formulaire en ligne.

Le Forum de Paris sur la Paix lance un appel à projets axé sur l'IA pour le bien commun

AI Safety Summit de Séoul : un pas historique vers la responsabilité et la transparence?

L’AI Safety Summit, co-organisé par le Royaume-Uni et la Corée du Sud, se tient actuellement à Séoul. À cette occasion, 16 entreprises majeures—parmi lesquelles Amazon, Google, Microsoft, Meta, Mistral AI et OpenAI— se sont engagées à adopter des mesures de sécurité pour l’IA, connues sous le nom de “Frontier AI Safety Commitments”.

Des engagements se voulant concrets pour la sécurité de l’IA

Chaque entreprise signataire s’est engagée à développer et déployer ses modèles d’IA de pointe de manière sécurisée. Les sociétés ont également convenu de publier des cadres de sécurité détaillant les méthodes pour mesurer les risques associés à leurs technologies. Ces cadres comprendront des seuils clairs définissant les niveaux de risques jugés “intolérables” et les mesures que les entreprises devront prendre pour s’assurer de ne pas dépasser ces seuils.

Chaque signataire s’est également engagé à assumer la responsabilité de ne pas développer ou déployer un modèle ou un système d’IA si les risques associés ne peuvent être maintenus en dessous des seuils prédéfinis.

Les 16 entreprises signataires

Les entreprises ayant signé les “Frontier AI Safety Commitments” sont :

  • Amazon
  • Anthropic
  • Cohere
  • Google / Google DeepMind
  • G42
  • IBM
  • Inflection AI
  • Meta
  • Microsoft
  • Mistral AI
  • Naver
  • OpenAI
  • Samsung Electronics
  • Technology Innovation Institute
  • xAI
  • Zhipu.ai

Beaucoup voient le fait que tant d’entreprises de premier plan dans le domaine de l’IA acceptent les mêmes engagements de sécurité comme une première mondiale. Cette initiative pourrait garantir une responsabilité et une transparence cohérentes dans le développement futur des modèles et systèmes d’IA. Elle constitue dans tous les cas un précédent important pour l’industrie, signalant une volonté collective de prévenir les risques potentiels liés à l’IA.

Ces engagements sont cruciaux non seulement pour les entreprises elles-mêmes, mais aussi pour les utilisateurs, les régulateurs et la société dans son ensemble. Ils pourraient offrir une assurance que les innovations en matière d’IA seront poursuivies avec une vigilance accrue pour minimiser les risques et maximiser les bénéfices pour tous.

Global AI companies Safety Commitments AI Safety Summit

Séoul accueille la seconde édition du AI Safety Summit

C’est finalement à Séoul, en Corée du Sud, que va se dérouler, ces 21 et 22 mai, la seconde édition du “AI Safety Summit“, co-organisée par Séoul et le Royaume-Uni. Ce sommet mondial sur l’IA, organisé pour la 1re fois en novembre dernier à Londres pour trouver des réponses aux risques induits par les modèles de fondation comme ChatGPT, se déroulera en virtuel ce mardi et en présentiel le lendemain.

L'”AI Safety Summit” est un événement crucial pour aborder les enjeux liés à l’IA, et garantir son développement sûr et éthique. À l’occasion de sa 1re édition, 28 pays et l’Europe ont co-signé La déclaration de Bletchley, un engagement de principe peu contraignant, pour une IA développée, déployée et utilisée de manière sûre, centrée sur l’humain, digne de confiance et responsable.

Ce second sommet s’appuiera sur les avancées de la 1ère édition, mais également sur le rapport que le gouvernement britannique avait demandé alors à Yoshua Bengio de superviser. Cet éminent expert en IA a été l’un des signataires de la lettre demandant une pause dans le développement des grands modèles de fondation et a fait partie des militants pour un encadrement strict de l’IA en Europe, en amont de l’AI Act.

Si la première version, provisoire, de ce rapport présentée pour le sommet, souligne les dangers des modèles d’IA de pointe en matière de désinformation, notamment via les deepfakes, de fraudes, de cyberattaques, les dangers de leurs biais, elle met également en lumière de profondes divergences entre les experts et entre les pays.

Le Sommet de Séoul

Outre la poursuite de l’élaboration d’une feuille de route pour assurer la sécurité de l’IA,  la promotion de l’innovation et le partage équitable des opportunités et des avantages de l’IA seront également à l’ordre du jour.

Ce 21 mai, la session virtuelle coprésidée par le Premier ministre Rishi Sunak et le président de la République de Corée Yoon Suk Yeol, réunira des dirigeants de pays, dont Emmanuel Macron. Des leaders mondiaux de l’industrie seront également invités à faire le point sur la manière dont ils respectent les engagements pris à Bletchley Park pour assurer la sécurité de leurs modèles. Parmi eux, Anthropic, Google DeepMind, OpenAI, Microsoft et côté français, Mistral AI.

La réunion en présentiel des ministres du numérique, le lendemain, sera co-organisée par la secrétaire britannique à la technologie, Michelle Donelan, et le ministre coréen des Sciences et des TIC, Lee Jong-Ho.

À l’Elysée, plusieurs tables rondes seront organisées à la suite de la session virtuelle avec des acteurs de l’IA comme Eric Schmidt, ancien PDG de Google, ou encore Yann LeCun, vice-président de Meta.

La France a quant à elle repoussé le Sommet de Paris prévu en novembre prochain au mois de février 2025. Plusieurs groupes de travail devraient d’ailleurs être annoncés par Emmanuel Macron pour préparer son ordre du jour. Si, tout comme le Royaume-Uni,  la France a l’ambition de se positionner en tant que l’un des leaders mondiaux de l’IA, elle ne veut pas limiter le débat sur l’IA aux “risques existentiels de cette technologie” selon un communiqué de presse de la présidence, ajoutant “Il y a d’autres enjeux plus urgents et concrets sur le déploiement de l’IA et son utilisation pour le bien commun”.

AI Seoul Safety Summit

L’IA qui raisonne comme un humain

Les scientifiques du MIT boostent les capacités de raisonnement de l’IA avec une architecture hybride révolutionnaire ! Hé oui, les petits génies du MIT ont développé 3 frameworks qui vont donner aux IA le pouvoir de raisonner comme des humains.

Imaginez que vous ayez un pote un peu limité niveau jugeote (on a tous un [insère ici le prénom de ton collègue le plus proche] dans notre entourage 😅). Il comprend ce que vous lui dites, il peut même vous répondre, mais dès qu’il faut réfléchir un peu, ça rame et parfois ça plante. Eh bien, les IA actuelles, c’est un peu pareil !

Elles sont super balèzes pour ingurgiter des tonnes de données et cracher du texte, mais niveau compréhension du contexte et raisonnement complexe, ce n’est pas encore tout à fait ça. Et c’est là que nos amis du MIT entrent en scène avec leur trésor d’abstractions en langage naturel. En gros, ils ont créé des lib qui vont aider les IA à mieux piger leur environnement et résoudre des problèmes de manière plus humaine. On parle donc de 3 frameworks aux petits noms mignons : LILO, Ada et LGA.

LILO, c’est l’atout du développeur. Il va aider les IA à synthétiser, compresser et documenter du code comme un pro. Fini les IA qui créent des pavés de code illisibles, place à des programmes bien structurés et commentés !

Ada, c’est la stratège du groupe. Elle va permettre aux IA de planifier des actions de manière flexible. Au lieu de suivre bêtement une recette, l’IA va pouvoir s’adapter et improviser en fonction de ce qu’elle trouve dans son frigo. Ada a même montré une amélioration de 59% pour des tâches de simulation de cuisine et de 89% pour des tâches de construction de lit.

Enfin, LGA, c’est l’as de la perception. Elle va filer un gros coup de pouce aux robots pour qu’ils comprennent mieux leur environnement, un peu comme si on leur refilait une bonne paire de lunettes. Terminé les robots qui se prennent les pieds dans le tapis, ils vont pouvoir naviguer dans votre appart’ comme un poisson dans l’eau (ou presque 😅).

Avec ces 3 frameworks qui mixent réseaux de neurones et approches logiques classiques, les chercheurs espèrent bien faire passer les IA au niveau supérieur. Ainsi, on aura enfin des chatbots qui comprennent vos blagues pourries, des robots qui vous apportent une bière sans renverser la moitié au passage, et pourquoi pas des IA qui vous aident à coder votre prochain jeu vidéo pendant que vous glandouillez sur le canapé !

Pour ceux qui veulent aller plus loin, voici les publications sur arXiv des avancées réalisées :
Library Induction from Language Observations
Action Domain Acquisition
Language-Guided Abstraction

J’ai hâte de voir tout ça fonctionner pour en vrai !

Source

L’IA du MIT qui prédit les actions humaines

Imaginez un monde où les ordinateurs pourraient prédire ce que vous allez faire avant même que vous ne le fassiez. Ça peut sembler tout droit sorti d’un film de science-fiction du style de Minority Report, mais les chercheurs du célèbre MIT (Massachusetts Institute of Technology) sont en train de rendre ça possible ! En effet, ils ont mis au point un modèle d’IA (intelligence artificielle) qui est capable d’analyser les limitations d’un agent, qu’il soit humain ou artificiel, pour en déduire ses actions futures les plus probables.

Dingue, non ?

Mais comment ce modèle s’y prend-il pour jouer les madame Irma ? En fait, tout est une question de limites. Nan, je ne parle pas des limites de vitesse ou des dates de péremption, hein. Je parle des contraintes qui pèsent sur un agent peu importe sa nature, biologique ou numérique.

Prenons un exemple concret : Vous êtes en train de jouer aux échecs contre un ordinateur. Vous avez vos propres contraintes : votre niveau de jeu, votre connaissance des ouvertures et des fins de partie, votre capacité à anticiper les coups de l’adversaire… Bref, tout un tas de facteurs qui limitent vos possibilités d’action. Eh bien, c’est exactement ce que le modèle d’IA du MIT analyse !

En se basant sur ces fameuses limites, il est capable d’inférer les coups que vous avez le plus de chances de jouer. Pas besoin d’être Garry Kasparov pour comprendre à quel point c’est bluffant. Votre ordinateur sera bientôt meilleur que vous aux échecs… et dans plein d’autres domaines !

Mais attention, le modèle du MIT ne prétend pas prédire l’avenir avec une précision de 100%. Il s’agit plutôt d’identifier des tendances et des schémas de comportement en fonction des limitations d’un agent. Ça reste néanmoins un outil très puissant pour anticiper les actions les plus probables.

D’ailleurs, les applications de cette technologie vont bien au-delà des jeux de société. Je pense par exemple au voitures autonomes qui pourraient anticiper les mouvements des piétons et des autres véhicules, des assistants virtuels qui sauraient exactement ce que vous allez leur demander avant même que vous n’ouvriez la bouche, des robots industriels capables de s’adapter en temps réel aux changements de leur environnement… Les possibilités sont infinies !

Bien sûr, tout cela soulève aussi son lot de questions éthiques. Est-ce qu’on a vraiment envie que les machines lisent dans nos pensées comme dans un livre ouvert ? Est-ce que ça ne risque pas de créer de sacrés problèmes de vie privée et de manipulation ? Imaginez que votre enceinte connectée décide de vous commander une pizza quatre fromages parce qu’elle a deviné que vous aviez un petit creux… Flippant, non ?

Mais bon, on n’en est pas encore là. Pour l’instant, les chercheurs du MIT sont encore en train de plancher sur leur modèle pour le perfectionner et étendre ses capacités. Et croyez-moi, c’est loin d’être un long fleuve tranquille ! L’IA a beau faire des progrès de géant, prédire le comportement humain reste un sacré défi. On est tellement imprévisibles et irrationnels, nous autres mortels…

En attendant de pouvoir déléguer toutes nos décisions à une machine, le modèle du MIT nous offre un aperçu de ce que pourrait être le futur de l’interaction homme-machine. Un futur où les ordinateurs nous comprendraient mieux que nous-mêmes, pour le meilleur et pour le pire. Perso, j’oscille entre fascination et inquiétude.

Et vous ?

Source

❌