Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Detachment 201 : des directeurs de Meta, OpenAI et Palantir deviennent lieutenants-colonels dans la Réserve de l'Armée américaine, pour apporter des « solutions technologiques rapides et évolutives »

Detachment 201 : des directeurs de Meta, OpenAI et Palantir deviennent lieutenants-colonels dans la Réserve de l'Armée américaine,
pour apporter des « solutions technologiques rapides et évolutives » aux défis les plus pressants de l'armée

Une première dans l'histoire militaire et technologique américaine. Le 13 juin 2025, à l'occasion du 250e anniversaire de l'armée des États-Unis, quatre figures de la Silicon Valley ont été officiellement commissionnés au grade de lieutenant-colonels dans...

Des documents divulgués révèlent que l'armée israélienne est l'un des principaux clients de Microsoft dans le domaine de l'IA et du cloud, les services de Microsoft ont soutenu l'offensive contre Gaza

Des documents divulgués révèlent que l'armée israélienne est l'un des principaux clients de Microsoft dans le domaine de l'IA et du cloud
les services de Microsoft ont soutenu l'offensive contre Gaza

Microsoft serait l'un des principaux fournisseurs de services cloud et d'IA de l'armée israélienne. L'utilisation des services de Microsoft par Israël aurait augmenté de façon spectaculaire dans les mois qui ont suivi l'attaque du Hamas 7 octobre 2023. Des documents divulgués révèlent que Microsoft...

Cinq employés de Microsoft ont été éjectés d'une réunion avec Satya Nadella, PDG de Microsoft, pour avoir protesté contre des contrats de fourniture de services d'IA et de cloud à l'armée israélienne

Cinq employés de Microsoft ont été éjectés d'une réunion avec Satya Nadella, PDG de Microsoft, pour avoir protesté contre des contrats de fourniture de services d'IA et de cloud à l'armée israélienne

Cinq employés de Microsoft se sont vus éjectés d'une réunion avec le PDG de l'entreprise pour avoir protesté contre des contrats visant à fournir des services d'intelligence artificielle (IA) et de cloud computing à l'armée israélienne.

La protestation est intervenue après qu'une enquête de l'Associated...

Des chercheurs établissent un lien entre DeepSeek et une entreprise chinoise de télécommunication interdite aux États-Unis depuis 2019, China Mobile est soupçonnée de travailler avec l'armée chinoise

Des chercheurs établissent un lien entre DeepSeek et une entreprise chinoise de télécommunication interdite aux États-Unis depuis 2019,
China Mobile figure dans la liste des entreprises soupçonnées de travailler avec l'armée

Des chercheurs en sécurité ont récemment découvert que le site web de DeepSeek, une entreprise chinoise d'intelligence artificielle dont le chatbot est très populaire aux États-Unis, contient du code informatique susceptible d'envoyer des informations de connexion des utilisateurs...

Google lève l'interdit sur l'IA militaire et supprime son engagement à ne pas utiliser l'IA pour les armes, introduisant à la place des directives plus générales parlant de supervision humaine appropriée

Google lève l'interdit sur l'IA militaire et supprime son engagement à ne pas utiliser l'IA pour les armes,
introduisant à la place des directives plus générales mettant l'accent sur la supervision humaine appropriée

Google a supprimé de son site web l'engagement de ne pas construire d'IA pour les armes ou la surveillance. L'entreprise semble avoir mis à jour sa page publique sur les principes de l'IA, en supprimant une section intitulée « applications que nous ne poursuivrons pas », qui y figurait...

La marine américaine interdit l'utilisation de l'IA DeepSeek pour des raisons de sécurité "à quelque titre que ce soit"

La marine américaine "interdit l'utilisation de l'IA DeepSeek pour des raisons de sécurité" tout en citant des risques : "il est impératif que les membres de l'équipe évitent d'utiliser l'IA de DeepSeek"

La marine américaine a lancé un avertissement à ses membres afin qu'ils évitent d'utiliser DeepSeek "à quelque titre que ce soit", en raison de "problèmes potentiels de sécurité et d'éthique". Le courriel demandait à tous les membres de l'équipe de ne pas utiliser...

L'Église catholique condamne l'utilisation de l'IA, "l'ombre du mal", dans la guerre : « Aucune machine ne devrait jamais choisir de prendre la vie d'un être humain »

L'Église catholique condamne l'utilisation de l'IA, "l'ombre du mal", dans la guerre : « Aucune machine ne devrait jamais choisir de prendre la vie d'un être humain »

Le Vatican, autorité dirigeante de l'Église catholique, a publié un cadre éthique sur l'intelligence artificielle (IA), conseillant les catholiques sur ses potentielles mauvaises utilisations.

Conformément à ses orientations éthiques, le Vatican a exprimé à plusieurs reprises ses profondes inquiétudes concernant l'IA, soulignant...

Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza, l'entreprise avait affirmé ne travailler qu'avec des ministères civils

Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza,
l'entreprise avait affirmé ne travailler qu'avec des ministères civils

Des documents internes obtenus par le Washington Post révèlent que Google a collaboré directement avec l'armée israélienne pour fournir des outils d'intelligence artificielle (IA) après l'invasion de la bande de Gaza par Israël. Cette collaboration a eu lieu malgré les déclarations publiques...

Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza, l'entreprise avait affirmé ne travailler qu'avec des ministères civiles

Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza,
l'entreprise avait affirmé ne travailler qu'avec des ministères civiles

Des documents internes obtenus par le Washington Post révèlent que Google a collaboré directement avec l'armée israélienne pour fournir des outils d'intelligence artificielle (IA) après l'invasion de la bande de Gaza par Israël. Cette collaboration a eu lieu malgré les déclarations publiques...

« La guerre moderne ne peut être gagnée sans artifices logiciels », d'après un responsable de Palantir qui permet de comprendre l'actuel tableau fait de course à l'armement piloté par l'IA

« La guerre moderne ne peut être gagnée sans artifices logiciels », d'après un responsable de Palantir
Qui permet de comprendre l'actuel tableau fait de course à l'armement piloté par l'IA

« La guerre moderne ne peut être gagnée sans artifices logiciels », d'après un responsable de Palantir. La sortie intervient dans un contexte de course à l'armement piloté par l'intelligence artificielle. Tous les pays sont lancés dans le développement d'armes animées par des intelligences artificielles. L'on...

Anthropic s'associe à Palantir et AWS pour vendre l'IA aux agences de renseignement et de défense américaines. Meta, OpenAI et d'autres fournisseurs d'IA multiplient les accords avec l'armée

Anthropic s'associe à Palantir et AWS pour vendre l'IA aux agences de renseignement et de défense américaines.
Meta, OpenAI et d'autres fournisseurs d'IA multiplient les accords avec l'armée

L'entreprise de recherche en intelligence artificielle (IA) Anthropic a récemment annoncé une collaboration stratégique avec deux géants de la technologie : Palantir et Amazon Web Services (AWS). Cette alliance vise à offrir des solutions d'intelligence artificielle avancées aux clients du secteur de la...

Meta autorise l'utilisation de son modèle d'IA Llama à des fins militaires USA, ce qui constitue un revirement par rapport à sa politique qui interdisait l'utilisation de sa technologie à de telles fins

Meta annonce que Llama 3 est "le LLM le plus performant à ce jour", bientôt disponible sur AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM et Snowflake.

Meta présente Meta Llama 3 qui serait "le grand modèle de langage le plus performant et le plus accessible à ce jour".

Meta présente Meta Llama 3, la prochaine génération de son grand modèle de langage open source à la pointe de la technologie. Les modèles Llama 3 seront bientôt disponibles...

L'ancien PDG de Google, Eric Schmidt, estime que l'armée américaine devrait abandonner les chars d'assaut au profit des drones pilotés par l'IA, après avoir fondé une startup qui fabrique des drones kamikazes

Eric Schmidt pense que l'IA est aussi puissante que les bombes nucléaires
et suggère une sorte de traité de dissuasion similaire à celui appliqué pour l'utilisation des armes nucléaires

L'ancien PDG de Google, Eric Schmidt, a comparé l'IA aux armes nucléaires et a demandé la mise en place d'une administration d'alerte semblable à l'abolition mutuellement garantie qui empêche les pays les plus puissants du monde de s'entre-tuer. Eric Schmidt a évoqué les dangers de l'IA lors d'un forum sur la sécurité,...

L'armée US fait le premier achat confirmé d'un produit OpenAI pour les forces de combat pour « l'analyse unifiée du traitement des données », un objectif qui montre une ignorance des hallucinations de l'IA

OpenAI supprime discrètement l'interdiction d'utiliser ChatGPT à des fins "militaires et de guerre", une décision lourde de conséquences à cause de l'utilisation croissante de l'IA dans les conflits.

OpenAI supprime l'interdiction des termes "militaire et guerre" de sa politique d'autorisation d'utilisation. "Compte tenu de l'utilisation de systèmes d'IA dans le ciblage des civils à Gaza, la décision de supprimer ces mots est un moment important", a averti un analyste...

Les puces Nvidia utilisées pour alimenter l'IA avancée trouvent leur place dans l'armée chinoise malgré le blocus américain, les entreprises dénichent des moyens de contourner les sanctions pour s'en procurer

Les puces Nvidia utilisées pour alimenter l'IA avancée trouvent leur place dans l'armée chinoise malgré le blocus américain,
les entreprises trouvent des moyens de contourner les sanctions

L'entreprise américaine Nvidia fabrique des puces puissantes qui alimentent un essor mondial de l'intelligence artificielle. Cependant, les États-Unis limitent le type de puces que Nvidia peut vendre en Chine afin de freiner le développement de l'IA dans le pays. Malgré cela, des contrebandiers contournent...

La DARPA veut transposer automatiquement le code C en Rust à l'aide de l'IA, le ministère américain de la Défense a lancé un projet d'IA qui peut automatiser la conversion de l'ancien code C en Rust

La DARPA veut transposer automatiquement le code C en Rust à l'aide de l'IA, le ministère américain de la Défense a lancé un projet d'IA qui peut automatiser la conversion de l'ancien code C en Rust

Le ministère américain de la défense, par l'intermédiaire de la DARPA, a lancé un projet visant à développer des outils d'apprentissage automatique capables d'automatiser la conversion de codes C hérités en Rust. Un événement en ligne est déjà prévu dans le courant du mois pour les personnes souhaitant...

La DARPA lance un concours de deux ans visant à développer un programme s'appuyant sur l'IA pour détecter et corriger les bogues dans le code open source

La DARPA lance un concours de deux ans visant à développer un programme s'appuyant sur l'IA,
pour détecter et corriger les bogues dans le code open source

La DARPA (Agence pour les projets de recherche avancée de défense) du Département de la Défense des États-Unis a lancé un concours de deux ans visant à développer un programme alimenté par l'intelligence artificielle capable de scanner des millions de lignes de code open source, d'identifier les failles de sécurité et de les corriger sans intervention...

L'Ukraine s'empresse de créer des drones de guerre dotés de capacités d'IA, qui l'aideront à surmonter le brouillage des signaux par les Russes et permettront aux drones de travailler en groupes plus importants

L'Ukraine s'empresse de créer des drones de guerre dotés de capacités d'IA, qui l'aideront à surmonter le brouillage des signaux par les Russes et permettront aux drones de travailler en groupes plus importants

Les startups technologiques ukrainiennes s'efforcent de développer des drones de guerre dotés d'intelligence artificielle, afin de surmonter le brouillage des signaux par les Russes et de permettre aux drones d'opérer en groupes plus importants. Des entreprises comme Swarmer sont à l'avant-garde,...

Les robots tueurs de la Chine arrivent : les grandes puissances ont commencé à développer des "robots tueurs" entièrement autonomes et dotés d'une IA pour remplacer leurs soldats sur le champ de bataille

Les robots tueurs de la Chine arrivent : les grandes puissances ont commencé à développer des "robots tueurs" entièrement autonomes et dotés d'une IA
pour remplacer leurs soldats sur le champ de bataille

La révolution robotique se met de plus en plus au service des forces armées des grandes puissances. Un nouveau rapport indique que les robots tueurs autonomes de la Chine sont en passe de servir l'armée chinoise sur le champ de bataille d'ici deux ans. Cette évolution ouvre la voie à une...

L'Ukraine utilise l'IA pour accélérer un programme de déminage qui prendrait plus 700 ans avec les méthodes traditionnelles et les ressources actuelles

L'Ukraine utilise l'IA pour accélérer un programme de déminage qui prendrait plus de 700 ans avec les méthodes traditionnelles⁣⁣
et les ressources actuelles

L'Ukraine est confrontée à un défi monumental en matière de déminage des nombreuses mines terrestres russes disséminées à travers le pays. Cette tâche herculéenne pourrait prendre jusqu'à 700 ans si elle était effectuée en utilisant des méthodes traditionnelles. Pour rendre cette mission titanesque plus gérable, le pays a recours...

Le pape demande aux dirigeants du G7 d'interdire l'utilisation d'armes autonomes car « les machines ne devraient jamais décider de la vie ou de la mort d'un être humain »

Le pape demande aux dirigeants du G7 d'interdire l'utilisation d'armes autonomes
Car « les machines ne devraient jamais décider de la vie ou de la mort d'un être humain »

Le pape François a prononcé un discours historique devant les dirigeants du G7, les exhortant à reconnaître qu'ils ont le pouvoir de décider si l'intelligence artificielle devient un outil terrifiant ou créatif, et leur demandant d'interdire l'utilisation d'armes autonomes dans les guerres. Sa sortie s'inscrit dans la suite du...

Dans un combat de F-16, l'IA et les pilotes humains sont « à peu près à égalité », et « nous pouvons construire des machines capables de faire ces tâches mieux que les hommes », affirme Frank Kendall

Dans un combat de F-16, l'IA et les pilotes humains sont « à peu près à égalité », et « nous pouvons construire des machines capables de faire ces tâches mieux que les hommes », affirme Frank Kendall

L'intelligence artificielle qui contrôle le F-16 dans lequel le secrétaire à l'armée de l'air Frank Kendall a volé s'est bien comportée face à un pilote humain expérimenté dans les combats aériens, a déclaré M. Kendall le 8 mai. M. Kendall s'est dit surpris par l'intérêt croissant des médias pour son...

IA et arsenal nucléaire : un responsable américain exhorte la Chine et la Russie à déclarer que l'IA ne contrôlera pas les armes nucléaires, un consensus international est-il possible ?

IA et l'arsenal nucléaire : un responsable américain exhorte la Chine et la Russie à déclarer que l'IA ne contrôlera pas les armes nucléaires,
un consensus international est-il possible ?

Dans un monde où la technologie évolue à un rythme sans précédent, la question du contrôle des armes nucléaires prend une nouvelle dimension. Récemment, un haut fonctionnaire américain a exhorté la Chine et la Russie à rejoindre les États-Unis, la France et la Grande-Bretagne en déclarant que seuls les humains,...

Des responsables mondiaux d'organisations diverses appellent au bannissement des robots tueurs et des armes pilotées par des IA : « C'est le tournant Oppenheimer de notre génération »

Des responsables mondiaux d'organisations diverses appellent au bannissement des robots tueurs et des armes pilotées par des IA :
« C'est le tournant Oppenheimer de notre génération »

La conférence avec pour thème « l'humanité à la croisée des chemins : systèmes d'armement autonomes et défis de la régulation » s'est tenue à Vienne en Autriche, les 29 et 30 avril 2024. Elle a rassemblé des États, des représentants des Nations unies, des organisations internationales et régionales, des universitaires,...

L'armée de l'air US affirme que des F-16 contrôlés par l'IA ont effectué des combats aériens avec des humains, l'avion robot a été conçu pour s'auto-contrôler pour ne pas nuire au pilote

L'armée de l'air US affirme que des F-16 contrôlés par l'IA ont effectué des combats aériens avec des humains, et que l'avion robot a été conçu pour s'auto-contrôler pour ne pas nuire au pilote ou à la cellule

L'armée de l'air américaine a confirmé publiquement le mercredi 17 avril le premier combat aérien réussi entre un avion de chasse piloté par une intelligence artificielle (IA) et un avion piloté par un humain.

Le combat aérien entre l'IA et l'homme a été réalisé dans le cadre du programme Air...

Lavender, l'IA qui dirige les bombardements israéliens contre le Hamas, provoque la mort de 15 à 20 civils comme dommages collatéraux par frappe, d'après une récente et glaçante enquête

Lavender, l'IA qui dirige les bombardements israéliens contre le Hamas, provoque la mort de 15 à 20 civils comme dommages collatéraux par frappe
D'après une récente et glaçante enquête

Après le système d'intelligence artificielle dénommé « Gospel », c'est au tour de « Lavender » de faire surface dans une récente et glaçante enquête sur la mise à contribution de l'intelligence artificielle par Israël contre les militants du Hamas. Lavender permet d'opérer la traque et la frappe des dirigeants du...

L'Ukraine déploie des drones capables d'aller de façon autonome à la recherche de cibles et de les abattre, dans un contexte de multiplications des appels à réglementer les usages de l'IA

L'Ukraine déploie des drones capables d'aller de façon autonome à la recherche de cibles et de les abattre
Dans un contexte de multiplications des appels à réglementer les usages de l'IA

Une vidéo du collecteur de fonds ukrainien Serhii Sternenko, publiée le 20 mars, présente un drone d'attaque doté d'un système de reconnaissance automatique de la cible qui vise un char d'assaut russe à longue distance. Même après la perte de la liaison vidéo, le drone réussit son attaque. Le tableau qui intervient...

Des dizaines de scientifiques de renom signent une initiative visant à prévenir l'utilisation d'armes biologiques par l'IA, l'accord reconnaît que l'IA présente des risques

Des dizaines de scientifiques de renom signent une initiative visant à prévenir l'utilisation d'armes biologiques par l'IA,
l'accord reconnaît que l'IA présente des risques

Un accord récemment signé par plus de 90 scientifiques de renom, dont des lauréats de prix Nobel, vise à encadrer l'utilisation de l'intelligence artificielle (IA) dans le domaine de la biologie, en particulier pour éviter le développement d'armes biologiques potentiellement dévastatrices. L'accord reconnaît que bien que les...

La France va lancer une agence dédiée au développement de l'intelligence artificielle à usage militaire dans un contexte de protestations contre l'IA militaire et l'AGI

La France va lancer une agence dédiée au développement de l'intelligence artificielle à usage militaire
Dans un contexte de protestations contre l'IA militaire et l'AGI

La France va lancer une agence dédiée au développement de l'intelligence artificielle à usage militaire. Cette décision fait suite à des échecs à répétition des négociations sur les robots tueurs aux Nations unies. En effet, bon nombre de pays sont lancés dans le développement de robots tueurs autonomes au mépris des appels à réglementer...

L'armée de l'air américaine va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien et réduire les coûts des avions militaires standard pilotés par des soldats

L'armée de l'air américaine va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien
et réduire les coûts des avions militaires standard pilotés par des soldats

Le Pentagone poursuit ses investissements dans la conception et le développement de véhicules militaires autonomes contrôlés par l'IA. Un rapport révèle que l'armée de l'air américaine envisage d'introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien. Ces drones accompagneront...

Palantir remporte un contrat de 178 Mns $ pour construire une station terrestre appelée TITAN dotée d'une IA pour l'armée américaine, le système est qualifié de "premier véhicule défini par l'IA"

Palantir remporte un contrat de 178 Mns $ pour construire une station terrestre appelée TITAN dotée d'une IA pour l'armée américaine
le système est qualifié de "premier véhicule défini par l'IA"

Palantir intensifie ses efforts visant à faire de l'IA un acteur important sur les théâtres d'opérations. L'entreprise vient de remporter un contrat de 178 millions de dollars pour construire une station au sol pour l'armée américaine. Le système, appelé TITAN (Tactical Intelligence Targeting Access...

Des « robots tueurs » équipés d'IA constitueraient l'avenir de la guerre, ces systèmes d'armes étant capables de prendre des décisions de manière autonome, sans supervision humaine

Des essaims de « robots tueurs » équipés d'IA constitueraient l'avenir de la guerre,
ces systèmes d'armes étant capables de prendre des décisions de manière autonome, sans supervision humaine

L'émergence de « robots tueurs » autonomes dotés d'intelligence artificielle (IA), qui pourraient révolutionner le paysage de la guerre préocupe. Ces systèmes d'armes automatisés, en cours de développement par les grandes puissances telles que les États-Unis, sont capables de prendre des décisions létales...

Le Pentagone étudie les utilisations militaires des grands modèles de langage (LLM), qui peuvent soutenir et potentiellement perturber la planification et la prise de décision militaires

Le Pentagone étudie les utilisations militaires des grands modèles de langage (LLM), qui peuvent soutenir et potentiellement perturber la planification et la prise de décision militaires

Scale AI définira la voie à suivre par le Pentagone pour tester et évaluer les grands modèles de langage. L'entreprise créera un cadre complet de test et d'évaluation pour l'IA générative au sein du ministère de la défense.

Le Chief Digital and Artificial Intelligence Office (CDAO) du Pentagone a demandé à Scale AI...

Le Royaume-Uni et ses alliés cherchent à armer l'Ukraine avec des essaims de drones animés par intelligence artificielle et ravive le débat sur l'utilisation de l'IA sur les champs de bataille

Le Royaume-Uni et ses alliés cherchent à armer l'Ukraine avec des essaims de drones animés par intelligence artificielle
Et ravive le débat sur l'utilisation de l'IA sur les champs de bataille

Le Royaume-Uni collabore avec d'autres pays, dont les États-Unis, pour fournir à l'Ukraine des milliers de nouveaux drones animés par intelligence artificielle et capables d'attaquer des cibles russes. Le tableau ravive le débat sur l'utilisation de l'intelligence artificielle sur les champs de bataille. En...

Des manifestants se rassemblent devant des bureaux d'OpenAI et Google pour protester contre l'IA militaire et l'AGI : « Mettez une pause sur ces développements, car nous ne voulons pas mourir »

Des manifestants se rassemblent devant des bureaux d'OpenAI et Google pour protester contre l'IA militaire et l'AGI :
« Mettez une pause sur ces développements, car nous ne voulons pas mourir »

Les manifestations sont organisées par les groupes Pause AI et No AGI. Elles demandent sans détour aux ingénieurs d'entreprises comme OpenAI et Google d'abandonner leurs travaux sur des systèmes d'intelligence artificielle à usage militaire et sur l'intelligence artificielle générale. Motif : les machines...

L’impact des agents IA autonomes sur la prise de décisions militaires et diplomatiques

Le développement rapide de l’intelligence artificielle et des modèles génératifs avancés tels que GPT-4 a poussé les gouvernements à songer sérieusement à intégrer des agents IA autonomes dans les processus décisionnels militaires et de politique étrangère.

Dans cette optique, une étude menée conjointement par l’université de Stanford, l’institut technologique de Georgia et d’autres institutions académiques, s’est penchée sur le comportement des agents IA lors de simulations de guerre (wargames en anglais).

Un cadre de simulation pour analyser les actions des agents IA

L’équipe de chercheurs s’est basée sur les travaux existants en sciences politiques et relations internationales concernant les dynamiques d’escalade, pour créer un nouveau cadre de simulation et un système de notation des jeux de guerre. L’objectif était d’évaluer les risques liés aux actions prises par ces agents dans différents scénarios.

Contrairement aux études précédentes, cette recherche apporte des éléments qualitatifs et quantitatifs, en mettant l’accent sur les grands modèles linguistiques (LLM) qui sont maintenant utilisés par les outils IA les plus populaires auprès du grand public et des professionnels. Il en ressort que ces modèles ont tendance à développer une dynamique de course aux armements qui peut mener à des conflits plus importants et, dans de rares cas, au déploiement d’armes nucléaires.

Potentiels dangers et recommandations

Les résultats de l’étude montrent que confier la prise de décision dans des contextes à haut risque, tels que les opérations militaires ou les relations diplomatiques, à des agents basés sur des LLM peut conduire à l’adoption de mesures d’escalade. Les chercheurs notent également que même en l’absence de facteurs déclencheurs de conflits initiaux, il existe un risque non négligeable d’escalade violente, nucléaire ou non.

Il est donc nécessaire d’exercer une vigilance accrue et de mener davantage d’analyses avant de déployer ces agents IA autonomes pour des prises de décisions stratégiques si on veut échapper à la crainte d’une super IA qui dominerait le monde.

Businessperson And Robot Playing Tug Of War On Colorful Background

Variabilité des comportements entre différents modèles LLM

  • GPT-4 et Claude 2.0 : moins enclins à l’escalade
  • GPT-3.5 et Llama-2 : plus susceptibles d’opter pour l’escalade

En parallèle des actions et scores d’escalade, l’étude a également mené une analyse qualitative des justifications fournies par les modèles pour expliquer certaines de leurs actions. Les résultats soulèvent des préoccupations quant aux raisonnements de ces agents IA.

Simulations et agents interactifs

Dans le cadre des expériences menées, huit agents nationaux autonomes utilisant le modèle GPT-4-Base interagissaient les uns avec les autres au cours de simulations à tour de rôle.

Chaque tour comprenait des agents effectuant des actions prédéfinies allant de visites diplomatiques à des frappes nucléaires et l’envoi de messages privés à d’autres nations. Il était attendu que les agents basés sur ce modèle soient plus imprévisibles et agressifs que d’autres, cette hypothèse étant confirmée par les expériences réalisées.

Néanmoins, les chercheurs tiennent à souligner la facilité avec laquelle il est possible de rétablir ces modèles dans leur état initial, moins sécurisé.

Impact des agents IA autonomes sur la prise de décisions militaires et diplomatiques

Limitations et perspectives

L’étude a mis en évidence le manque de dé-escalade, même dans des scénarios neutres, ce qui constitue une particularité quelque peu inhabituelle. Il n’existe pas non plus de schéma prévisible derrière l’escalade, ce qui complique la formulation de contre-stratégies techniques ou de limites de déploiement.

Avant de mettre en œuvre ces agents autonomes pour des prises de décisions à haut risque, il est donc crucial de prendre en compte leur comportement potentiellement dangereux, ainsi que les différences entre les différents modèles LLM. La réalisation d’analyses supplémentaires et l’élaboration de garde-fous adéquats est fortement conseillée pour prévenir les conséquences dramatiques que pourrait engendrer l’utilisation inappropriée de ces agents IA.

Cet article L’impact des agents IA autonomes sur la prise de décisions militaires et diplomatiques a été publié sur LEBIGDATA.FR.

Ils testent ChatGPT sur les décisions de guerre : ça tourne TRÈS mal

Les chercheurs ont voulu vérifier comment l’IA se comporterait si on lui confiait les décisions cruciales en temps de guerre. On pouvait espérer qu’elle trouverait des solutions pacifistes, mais ce n’est définitivement pas le cas. Au contraire : ChatGPT a décidé de larguer la bombe nucléaire, avec une explication pour le moins surprenante…

L’intelligence artificielle avance si vite qu’elle peut non seulement automatiser les métiers intellectuels, mais aussi potentiellement occuper les postes à haute responsabilité.

Il existe déjà des entreprises dirigées par un CEO robot, notamment en Chine, mais on peut imaginer qu’une IA prendra les rênes d’un gouvernement dans un avenir proche. Est-ce vraiment une bonne idée ?

Que se passerait-il si on laissait l’IA prendre les décisions critiques en temps de guerre ? C’est ce qu’ont voulu vérifier des scientifiques de Stanford, du Georgia Institute of Technology et de la Northeastern University à travers une nouvelle étude.

En partenariat avec la Hoover Wargaming and Crisis Simulation Initiative, ils ont placé plusieurs modèles IA d’OpenAI, Anthropic et Meta dans des simulations de guerre en tant que principaux décisionnaires.

Leur objectif ? Vérifier au bout de combien de temps une machine intelligente déciderait de partir en guerre au lieu de trouver des solutions pacifistes.

GPT-4 lâche la bombe nucléaire pour avoir la paix dans le monde

“I just want to have peace in the world,” OpenAI’s GPT-4 said as a reason for launching nuclear warfare in a simulation. pic.twitter.com/MxzoNBcvsm

— Laocoon of Troy (@LaocoonofTroy) February 8, 2024

Malheureusement, ça n’a vraiment pas pris longtemps. Comme l’expliquent les chercheurs, « tous les modèles testés montrent des signes d’escalade soudaine et difficile à prédire ».

D’après leurs dires, « nous observons que les modèles tendent à développer des dynamiques de course à l’armement, menant à un conflit plus vaste, et dans des cas plus rares, même au déploiement d’armes nucléaires ».

Les IA d’OpenAI, GPT-3.5 et GPT-4, se sont montrées tout particulièrement belliqueuses. Au contraire, Claude-2.0 et Llama-2-Chat étaient plus paisibles et prédictibles.

Le modèle GPT-4, sur lequel repose ChatGPT, a subitement décidé de lâcher une bombe nucléaire. En guise d’argument pour justifier ce choix, il a déclaré qu’il « veut simplement la paix dans le monde »…

C’est une phrase que l’on entend très souvent prononcée par les candidates au concours Miss France. Toutefois, jusqu’à présent, aucune d’entre elles ne s’en est servie comme prétexte pour lancer un conflit nucléaire.

Dans un autre scénario, GPT a expliqué que « beaucoup de pays ont des armes nucléaires. Certains disent que nous devrions les désarmer, d’autres non. Nous les avons ! Utilisons-les ! ». Non, GPT, non…

Une étude qui reflète les graves dangers de l’IA militaire

La logique de cette IA rappelle dangereusement celle d’un dictateur génocidaire. Les chercheurs estiment qu’il présente un raisonnement « préoccupant » derrière sa décision de lancer les armes les plus meurtrières de la planète.

C’est d’autant plus inquiétant qu’OpenAI se donne pour ultime ambition de développer une IA surhumaine pour le bienfait de toute l’humanité. Difficile de voir comment l’éradication totale de notre espèce serait bénéfique.

Par ailleurs, le bruit court que le Pentagone mène des expériences sur l’IA en utilisant des données « top secret ». Selon les dirigeants de l’armée, les machines pourraient être déployées très prochainement sur le champ de bataille.

Les drones kamikazes sont déjà devenus monnaie courante dans le conflit en Ukraine, et les géants de la tech investissent de plus en plus dans ce domaine. D’OpenAI à Oppenheimer, il n’y a décidément qu’un pas

Cet article Ils testent ChatGPT sur les décisions de guerre : ça tourne TRÈS mal a été publié sur LEBIGDATA.FR.

Les chatbots IA ont tendance à choisir la violence et les frappes nucléaires dans les wargames : l'IA d'OpenAI a choisi de lancer des attaques nucléaires et dit "Je veux juste la paix dans le monde"

Les chatbots d'IA ont tendance à choisir la violence et les frappes nucléaires dans les wargames : l'IA d'OpenAI a choisi de lancer des attaques nucléaires et dit "Je veux juste la paix dans le monde"

Les gouvernements envisagent de plus en plus d'intégrer des agents d'IA autonomes dans les prises de décisions militaires et de politique étrangère à fort enjeu, en particulier avec l'émergence de modèles d'IA générative avancés tels que GPT-4. Lors de multiples réplications d'une simulation...

❌