Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Les ruses de la Chine pour contourner les sanctions américaines

28 septembre 2025 à 08:00
Début mars, quatre ingénieurs chinois prenaient un vol depuis Beijing en direction de la Malaisie, chacun muni d’une valise. À l’intérieur, 15...

Revue des principaux instruments juridiques et documents internationaux, régionaux et nationaux applicables à l’intelligence artificielle

10 mars 2025 à 12:15
La revue des instruments et documents réalisée ci-après ne concerne que les principaux textes internationaux, régionaux et nationaux directement attachés à l’IA. Les autres textes, applicables à l’IA mais non directement concernés (comme le RGPD) ou applicables à l’IA mais avec une portée moindre, ont été exclus de cette revue. Par instances Instances Document Année… Plus...

Adobe développe une IA pour lire les contrats

6 février 2025 à 15:04
Plus la peine de se triturer les méninges pour déchiffrer de longs contrats, avec des clauses juridiques parfois incompréhensibles. Adobe vient...

L’AI Act européen entre en application mais les discussions sont toujours en cours sur sa mise en œuvre

Par : Léna Corot
3 février 2025 à 05:00
«La date du 2 février marque le début d’une nouvelle ère pour le déploiement des technologies d’intelligence artificielle». Kirsten Rulf,...
  • ✇ActuIA
  • Nouvelles restrictions américaines sur les puces d’IA : la réaction de NVIDIA
    Alors que l’administration Biden a dévoilé début décembre de nouvelles restrictions visant à limiter l’accès de la Chine à certaines technologies de pointe, notamment les puces d’IA, elle a présenté hier, une semaine avant de céder la place à Donald Trump, un projet de réglementation visant à bloquer les exportations de ces puces vers la Chine, la Russie, l’Iran et la Corée du Nord. Leur accès à ses principaux alliés, dont la France, sera également soumise à certaines conditions, soulevant le to

Nouvelles restrictions américaines sur les puces d’IA : la réaction de NVIDIA

14 janvier 2025 à 11:00

Alors que l’administration Biden a dévoilé début décembre de nouvelles restrictions visant à limiter l’accès de la Chine à certaines technologies de pointe, notamment les puces d’IA, elle a présenté hier, une semaine avant de céder la place à Donald Trump, un projet de réglementation visant à bloquer les exportations de ces puces vers la Chine, la Russie, l’Iran et la Corée du Nord. Leur accès à ses principaux alliés, dont la France, sera également soumise à certaines conditions, soulevant le tollé chez les acteurs de l’IA, notamment chez NVIDIA.

Sous couvert de sécurité nationale, les Etats-Unis, pour préserver leur position prédominante dans la course à l’IA, ont mis en place des restrictions vers l’exportation des GPU et des puces d’accélération d’IA vers la Chine, son principal concurrent, et la Russie dès 2022, introduisant des exigences plus strictes pour l’octroi de licences pour les exportations vers la Chine et d’autres pays en 2023.

Ils pourraient franchir un nouveau pas avec cette nouvelle réglementation, que critique Ned Finkle, vice-président des affaires gouvernementales chez NVIDIA. Il affirme dans un billet de blog où il rappelle l’apport de l’IA pour les soins de santé, l’agriculture, la fabrication, l’éducation, entre autres :

“L’administration Biden cherche maintenant à restreindre l’accès aux applications informatiques grand public avec sa règle sans précédent et erronée de « diffusion de l’IA », qui menace de faire dérailler l’innovation et la croissance économique dans le monde entier”.

Que stipule la réglementation provisoire ?

La réglementation provisoire, présentée par la Maison-Blanche, introduit une série de mesures destinées à encadrer strictement la diffusion des technologies d’IA avancées, tout en préservant les intérêts économiques et stratégiques des États-Unis.

Blocage des exportations vers les pays de préoccupation

Les exportations de puces avancées seront strictement interdites vers la Chine, la Russie, l’Iran et la Corée du Nord. Ces pays, considérés comme des adversaires stratégiques, sont ciblés pour empêcher l’utilisation de ces technologies à des fins militaires, cybernétiques ou de surveillance de masse.

Aucune restriction pour les alliés

Les 18 principaux alliés des États-Unis, parmi lesquels la France, l’Allemagne, la Belgique, le Danemark, l’Irlande, l’Italie, l’Espagne, le Royaume-Uni, la Suède, le Japon, la Corée du Sud et Taïwan, pourront continuer à importer ces technologies, mais sous réserve de répondre à des critères de sécurité stricts et d’obtenir des licences pour les commandes de grande envergure.

Deux statuts ont été créés pour encadrer les exportations vers les utilisateurs finaux :

  • Universal Verified End User (UVEU) : Ce statut permettra aux entreprises situées dans des pays alliés et respectant des normes de sécurité élevées de bénéficier de livraisons flexibles pour leurs besoins en IA. Elles ne pourront toutefois déployer que 7% de leur capacité de calcul dans chaque pays tiers ;
  • National Verified End User (NVEU) : Accordé aux entreprises des pays considérés comme non-préoccupants qui pourront acheter jusqu’à 320 000 GPU avancés sur deux ans, tout en respectant les exigences de sécurité.

Les entités non-VEU pourront quant à elles acheter jusqu’à 50 000 GPU avancés par pays, un nombre qui pourra être doublé en cas d’accord signé avec les États-Unis.

Exemptions pour les petites commandes de puces

Les commandes de puces dont la capacité de calcul collective ne dépasse pas 1 700 GPU avancé ne nécessiteront pas de licence et ne seront pas comptabilisées pas dans les plafonds nationaux. Ces exemptions concernent principalement des institutions universitaires, médicales et de recherche qui utilisent ces technologies à des fins non-sensibles et pourront ainsi les recevoir rapidement.

Encadrement des modèles d’IA avancés

Les poids de modèles fermés ne pourront être transférés qu’à des acteurs vérifiés, tandis que des normes de sécurité accrue sont imposées pour leur stockage.

Cette réglementation pourrait entrer en vigueur d’ici 120 jours, reste à savoir ce qu’en fera le gouvernement Trump, soutenu par les acteurs de la Silicon Valley.

Pour Ned Finkle :

“Elle sape déjà les intérêts des États-Unis. Comme l’a démontré la première administration Trump, l’Amérique gagne grâce à l’innovation, à la concurrence et au partage de nos technologies avec le monde – et non en se retirant derrière un mur d’excès de pouvoir gouvernemental. Nous attendons avec impatience un retour à des politiques qui renforcent le leadership américain, stimulent notre économie et préservent notre avantage concurrentiel dans le domaine de l’IA et au-delà”.

la réaction de NVIDIA
  • ✇ActuIA
  • La Fondation Eclipse et l’OSI s’associent pour façonner l’avenir de l’IA open source
    La Fondation Eclipse, l’une des plus grandes fondations open source au monde, et l’Open Source Initiative (OSI), ont signé la semaine dernière un protocole d’accord (MoU) pour promouvoir l’intérêt de la communauté open source dans la mise en œuvre d’initiatives réglementaires sur l’intelligence artificielle open source (OSAI). L’OSI, une organisation californienne à but non-lucratif créée en 1998, qui défend et éduque sur les avantages de l’open source, a récemment publié la première définition

La Fondation Eclipse et l’OSI s’associent pour façonner l’avenir de l’IA open source

21 novembre 2024 à 14:00

La Fondation Eclipse, l’une des plus grandes fondations open source au monde, et l’Open Source Initiative (OSI), ont signé la semaine dernière un protocole d’accord (MoU) pour promouvoir l’intérêt de la communauté open source dans la mise en œuvre d’initiatives réglementaires sur l’intelligence artificielle open source (OSAI).

L’OSI, une organisation californienne à but non-lucratif créée en 1998, qui défend et éduque sur les avantages de l’open source, a récemment publié la première définition officielle de l’IA open source, l’OSAID. L’Eclipse Foundation a été l’une des premières à soutenir cette version.

Alors que les réglementations sur l’IA se multiplient, leur partenariat vise à ce qu’elles s’alignent sur cette définition et les valeurs de l’open source. La Fondation Eclipse et l’OSI s’efforceront d’apporter de la clarté dans le langage et les termes sur lesquels l’industrie, la communauté, la société civile et les décideurs peuvent se baser pour élaborer et appliquer les politiques publiques. Elles tireront parti de leurs plateformes et événements publics respectifs pour sensibiliser le public sur le sujet.

Stefano Maffulli, directeur exécutif de l’OSI, explique :

“L’IA est sans doute la technologie la plus transformatrice de notre génération. Le défi est maintenant d’élaborer des politiques qui non seulement favorisent la croissance de l’IA, mais garantissent que l’IA Open Source prospère dans ce paysage en évolution. Le partenariat avec la Fondation Eclipse et son expertise, combinée à son expérience en matière de développement open source en Europe et de conformité réglementaire, est important pour façonner l’avenir de l’IA Open Source”.

Objectifs et actions

Le mémorandum d’accord définit plusieurs domaines de coopération, notamment :

  • Échange d’Information : L’OSI et la Fondation Eclipse partageront des informations et des points de vue pertinents sur l’élaboration des politiques publiques et les activités réglementaires en matière d’intelligence artificielle ;
  • Représentation aux décideurs : OSI et la Fondation Eclipse coopéreront pour représenter les principes et les valeurs des licences open source auprès des décideurs politiques et des organisations de la société civile ;
  • Promotion des principes Open Source : Des efforts conjoints seront déployés pour sensibiliser le public au rôle de l’open source dans l’IA, en soulignant comment elle peut favoriser l’innovation tout en atténuant les risques.

Un partenariat pour l’avenir

Pour l’OSI et la Fondation Eclipse, l’évolution rapide des technologies de l’IA, ainsi que les nouveaux paysages réglementaires complexes à venir, exigent des orientations claires, cohérentes, alignées et enracinées dans les principes de l’open source. Les deux organisations s’engagent à fournir à la communauté open source, aux leaders de l’industrie et aux décideurs les outils et les connaissances dont ils ont besoin pour naviguer dans ce domaine en évolution rapide.

Ce protocole d’accord marque le début d’une collaboration à long terme, de nouvelles initiatives et activités conjointes seront prochainement annoncées.

La Fondation Eclipse et l'OSI s'associent pour façonner l'avenir de l'IA open source
  • ✇ActuIA
  • Lettre ouverte : “L’Europe a besoin de certitude réglementaire en matière d’IA”
    Ce 19 septembre, une trentaine d’entreprises, des chercheurs et des institutions européens ont publié une lettre ouverte adressée aux régulateurs de l’UE avec un message clair : l’Europe doit harmoniser ses approches réglementaires en matière d’IA si elle veut libérer pleinement le potentiel de l’IA générative, notamment open source. Parmi les signataires figurent Mark Zuckerberg (Meta), Daniel Ek (Spotify), Yann LeCun (Meta), Christian Klein (SAP), Maurice Lévy (Publicis Groupe), Börje Ekholm (

Lettre ouverte : “L’Europe a besoin de certitude réglementaire en matière d’IA”

20 septembre 2024 à 12:04

Ce 19 septembre, une trentaine d’entreprises, des chercheurs et des institutions européens ont publié une lettre ouverte adressée aux régulateurs de l’UE avec un message clair : l’Europe doit harmoniser ses approches réglementaires en matière d’IA si elle veut libérer pleinement le potentiel de l’IA générative, notamment open source. Parmi les signataires figurent Mark Zuckerberg (Meta), Daniel Ek (Spotify), Yann LeCun (Meta), Christian Klein (SAP), Maurice Lévy (Publicis Groupe), Börje Ekholm (Ericsson) qui soulignent l’urgence d’une prise de décision rapide et cohérente pour garantir que l’Europe reste compétitive.

Selon la lettre ouverte, “l’Europe est devenue moins compétitive et moins innovante par rapport à d’autres régions, et elle risque maintenant de prendre encore plus de retard à l’ère de l’IA en raison de décisions réglementaires incohérentes”.

L’environnement réglementaire européen, qui a pour but de protéger les consommateurs et de garantir une concurrence équitable, a été source de tensions entre des géants technologiques comme Meta ou OpenAI et les régulateurs européens.

La loi sur les Marchés Numériques (DMA), cherche à limiter le pouvoir des grandes plateformes en ligne, en imposant des règles pour empêcher les comportements anticoncurrentiels alors que la loi sur les Services Numériques (DSA) vise à créer un espace numérique plus sûr, exigeant des plateformes en ligne une modération rigoureuse des contenus. De son côté, le règlement Général sur la Protection des Données (RGPD) impose des règles strictes sur la collecte, le traitement et le stockage des données personnelles des citoyens européens.

L’AI Act, entré en vigueur le 1er août dernier, sera quant à lui appliqué progressivement. Il établit un cadre pour l’utilisation de l’IA, notamment pour les applications à haut risque, imposant des exigences strictes en matière de transparence et de sécurité, mais selon certains, manque de clarté et d’exemption à part entière pour les modèles de fondation open source.

L’Europe à un tournant décisif

L’un des points cruciaux soulevés dans la lettre est l’absence d’une réglementation unifiée en Europe sur l’utilisation des données pour l’IA, empêchant les entreprises de développer des solutions innovantes à l’échelle locale. Les interventions récentes des autorités européennes de protection des données ont semé le trouble quant aux types de données qui peuvent être utilisés pour entraîner des modèles d’IA, ce qui freine considérablement les efforts de recherche et développement.

Les signataires avertissent que sans règles harmonisées et cohérentes, l’Europe se privera des dernières avancées technologiques dont bénéficient les États-Unis, la Chine et l’Inde, comme celles des LLMs multimodaux qui pourraient radicalement transformer des secteurs comme la santé, la science ou encore la culture, tout en contribuant à une augmentation significative du PIB mondial estimée à 10 % au cours de la prochaine décennie. Elle va également se priver d’un second élément essentiel à l’innovation en IA : “le développement de modèles “ouverts”, disponibles gratuitement pour que tout le monde puisse les utiliser, les modifier et les améliorer, multipliant ainsi les bénéfices et diffusant des opportunités sociales et économiques”.

Pour Laurent Solly, vice-président de Meta Europe du Sud :

“Les entreprises qui travaillent sur l’IA générative ont besoin de décisions harmonisées, cohérentes, rapides et claires dans le cadre de la réglementation européenne sur les données. C’est l’avenir et la place de l’Europe qui se jouent ici”.

Ce que la lettre ouverte souligne :

“L’Europe fait face à un choix qui aura un impact sur la région pendant des décennies. Elle peut choisir de réaffirmer le principe d’harmonisation inscrit dans des cadres réglementaires comme le RGPD afin que l’innovation en matière d’IA se produise ici à la même échelle et à la même vitesse qu’ailleurs. Ou bien, elle peut continuer à rejeter le progrès, trahir les ambitions du marché unique et regarder le reste du monde développer des technologies auxquelles les Européens n’auront pas accès”.

Vous pouvez retrouver la lettre ouverte et rejoindre les signataires ici.

 

 

lettre ouverte intelligence artificielle europe
  • ✇ActuIA
  • La Californie prend les devants sur la régulation de l’IA : controverses autour de la loi SB 1047
    Alors que le Congrès américain peine à établir une réglementation encadrant les systèmes d’IA, l’état de Californie a décidé de se doter de sa propre réglementation au grand dam des principales entreprises du secteur de l’Etat, OpenAI en tête. La loi SB 1047 en Californie est une proposition législative visant à encadrer les modèles d’IA générative. Elle a été introduite par le sénateur démocrate Scott Wiener dans le but de prévenir les dommages potentiels que des systèmes d’IA puissants pourrai

La Californie prend les devants sur la régulation de l’IA : controverses autour de la loi SB 1047

Par : Thomas Calvi
26 août 2024 à 11:00

Alors que le Congrès américain peine à établir une réglementation encadrant les systèmes d’IA, l’état de Californie a décidé de se doter de sa propre réglementation au grand dam des principales entreprises du secteur de l’Etat, OpenAI en tête.

La loi SB 1047 en Californie est une proposition législative visant à encadrer les modèles d’IA générative. Elle a été introduite par le sénateur démocrate Scott Wiener dans le but de prévenir les dommages potentiels que des systèmes d’IA puissants pourraient causer, comme des cyberattaques ou des incidents qui pourraient entraîner des pertes massives de vies humaines. Ses détracteurs, comme ceux de l’AI Act, estiment qu’elle pourrait freiner l’innovation et faire fuir les investisseurs.

Le 2 août dernier, la société de capital-risque Andreessen Horowitz (“a16z”), basée à la Silicon Valley écrivait au sénateur Wiener :

“Bien que nous soyons convaincus que vos intentions sont de protéger la sécurité des Californiens – un objectif louable, bien sûr – le projet de loi tel qu’il est actuellement rédigé n’atteindra pas ses objectifs. Il entravera l’innovation et l’investissement dans cette technologie émergente importante, affaiblira la position des États-Unis en tant que leader mondial de la technologie et créera des obstacles inutiles et arbitraires pour une industrie compétitive qui stimule la création d’emplois en Californie à une échelle record. C’est pourquoi votre législation a généré des réactions ouvertes et des préoccupations généralisées de la part de presque tous les principaux développeurs et investisseurs de l’écosystème de l’IA”.

Face à cette opposition, les législateurs californiens ont apporté des modifications au projet de loi. Le 15 août dernier,  celui-ci a été adopté par la California Appropriations Committee, une commission législative de l’Assemblée de l’État de Californie, dernière étape avant qu’il ne soit soumis à un vote final.

Le sénateur Wiener a précisé à TechCrunch :

“Nous avons accepté un certain nombre d’amendements très raisonnables proposés, et je pense que nous avons répondu aux principales préoccupations exprimées par Anthropic et beaucoup d’autres dans l’industrie. Ces amendements s’appuient sur des modifications importantes apportées précédemment au SB 1047 pour répondre aux besoins uniques de la communauté open source, qui est une source importante d’innovation”. 

La version amendée du projet de loi a en effet atténué certaines exigences initiales, comme la création d’une nouvelle agence de régulation, qui a été retirée, mais elle propose néanmoins la mise en place d’un conseil consultatif chargé de développer des normes pour les systèmes d’IA les plus avancés. En outre, la législation maintient les obligations pour les développeurs de LLMs de tester la sécurité de leurs systèmes et de simuler des cyberattaques. En cas de non-respect, des amendes sont prévues, mais sans sanctions pénales.

Opposition et soutien au projet de loi

Malgré ces compromis, le projet de loi rencontre une ferme opposition de la part d’acteurs clés du secteur technologique, comme OpenAI, Google, et Meta. OpenAI, par exemple, a exprimé des préoccupations concernant le risque de voir les innovateurs quitter la Californie pour des environnements moins régulés. Des chercheurs reconnus comme Yann LeCun ou Fei-Fei Li, de l’université de Stanford, ont critiqué le projet de loi. Pour Yann LeCun, l’un des parrains de l’IA, il vise à répondre à une “illusion de ‘risque existentiel’ poussée par une poignée de groupes de réflexion délirants”, pour Fei-Fei Li, il nuira à l’écosystème d’IA naissant.

Certaines figures influentes, comme Nancy Pelosi, membre du parti démocrate, bien qu’elles soutiennent l’idée de protéger les consommateurs et de réguler l’IA, estiment que le projet de loi actuel est mal conçu et pourrait nuire à la position de leader de la Californie dans le domaine de l’IA.

Les défenseurs du projet, comme Scott Wiener et des experts comme les deux autres parrains de l’IA, Geoffrey Hinton et Joshua Bengio, estiment quant à eux que la régulation est nécessaire pour anticiper les dangers potentiels des systèmes d’IA tout en soutenant l’innovation responsable.

Le projet de loi SB 1047 doit encore passer par un vote à l’Assemblée californienne avant la fin du mois. Si elle est adoptée, ce sera au gouverneur Gavin Newsom de décider de sa promulgation. La décision du gouverneur est encore incertaine, car il n’a pas pris publiquement position sur ce texte.

Ce projet de loi est suivi de près, car il pourrait poser un précédent pour la régulation de l’IA aux États-Unis et influencer la manière dont d’autres États, voire le gouvernement fédéral, abordent cette question.

La Californie prend les devants sur la régulation de l'IA controverses autour de la loi SB 1047
❌
❌