Vue lecture
SaferAI alerte sur les risques pour la sécurité de l’IA après la révocation du décret Biden
Tout juste investi 47ème président des États-Unis, Donald Trump a révoqué lundi dernier le décret de Joe Biden du 30 octobre 2023 qui visait à encadrer les risques liés à l’IA. Bien que ce décret ait eu pour objectif de soutenir le développement d’une IA responsable, le nouveau président le considère avant tout comme un frein à l’innovation.
Le décret de Joe Biden exigeait que les entreprises développant des systèmes d’IA avancés présentant des risques potentiels pour la sécurité nationale, l’économie ou la santé partagent leurs résultats de tests de sécurité et d’autres informations critiques avec le gouvernement.
Cette décision, de révoquer ce décret intervient à un moment critique où les principales entreprises d’IA présentent des lacunes significatives dans leurs pratiques de gestion des risques, selon une évaluation de SaferAI, une organisation à but non-lucratif française spécialisée dans la gestion des risques de l’IA.
Siméon Campos, fondateur et directeur exécutif de SaferAI, affirme :
“Les garde-fous qui viennent d’être supprimés doivent être urgemment remplacés. Notre récente notation, mesurant la maturité de gestion des risques des entreprises d’IA, montre que même les entreprises leaders obtiennent des scores entre 1,5 et 1,9 sur 5 en matière de pratiques de gestion des risques, certaines entreprises n’obtenant que 0,1. Ces évaluations révèlent que même les leaders de l’industrie sont loin de mettre en œuvre des pratiques de gestion des risques adéquates, et sans régulation, ces lacunes préoccupantes pourraient s’aggraver.”
Selon l’organisation, les enjeux sont particulièrement élevés compte tenu des développements récents des capacités de l’IA. Le modèle o1 d’OpenAI a démontré des capacités qui pourraient aider des experts à développer des armes biologiques, tandis que les capacités du modèle o3 semblent encore plus significatives. Encore en phase de test, il devrait être lancé d’ici quelques semaines, o3-mini, une version plus rapide et plus économique, le sera d’ici la fin du mois. Si le décret de Biden avait été pleinement mis en œuvre, il aurait exigé le partage des résultats des tests de sécurité et le partage d’information clés au gouvernement pour de tels systèmes.
Henry Papadatos, Managing Director de SaferAI, déclare :
“Sans les exigences du décret en matière de tests de sûreté et de transparence, nous naviguons à l’aveugle avec des systèmes d’IA de plus en plus avancés. Comme le montrent nos notations, les pratiques de gestion des risques que nous observons dans l’industrie suggèrent que les engagements volontaires seuls ne suffisent pas à garantir une gestion adéquate des risques.”
Les experts en gestion des risques de SaferAI appellent à de nouvelles mesures législatives pour combler le vide réglementaire laissé par la suppression du décret. Les dispositions du décret concernant la gestion des risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité ne seront plus appliquées, suscitant des inquiétudes quant à l’utilisation potentiellement abusive des systèmes d’IA avancés.

Baromètre Impact AI : près de trois quarts des salariés français jugent nécessaire de réguler le développement de l’IA
Le collectif Impact AI, en collaboration avec le cabinet d’audit et de conseil KPMG et BNP Paribas, a publié hier la première édition de son “Observatoire de l’IA responsable”. Ce rapport, réalisé avec l’institut de sondage Viavoice et le centre de prospective GCF, analyse les perceptions des salariés du secteur privé en France quant au déploiement de l’IA dans leur entreprise.
L’IA : un atout stratégique
Plus de la moitié des salariés français (52 %) considère que l’IA joue un rôle crucial dans le développement et le rayonnement d’un pays, une proportion qui grimpe à 74 % parmi les utilisateurs réguliers de ces technologies. Pour ces derniers, les grands gagnants du développement de l’IA sont les Etats-Unis (53 %), devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %) l’UE (29 %) et Israël (29 %).
La régulation de l’IA, essentielle pour concilier innovation et éthique
Près de 75 % des salariés jugent nécessaire de réguler le développement de l’IA, 37 % « tout à fait nécessaire », 85 % des utilisateurs de l’IA sont également en faveur d’une régulation.
Les salariés expriment une préférence pour une régulation exercée par une agence internationale (30 %), 25 % penchent pour une régulation de l’état et pour 19 %, elle devrait être assumée par l’Europe. Cependant, l’AI Act suscite un accueil favorable : 57 % des salariés le considèrent comme une avancée positive, un chiffre qui atteint 75 % chez les utilisateurs d’IA.
Concernant les projets IA des entreprises, seule une minorité (10 %) place l’innovation au sommet des priorités, 36% des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, prônant un équilibre entre innovation, responsabilité et sécurité et 21 % estimant qu’il faut privilégier le respect des principes éthiques.
L’impact sur l’emploi : une préoccupation persistante
Parmi les risques identifiés, l’impact sur l’emploi arrive en tête (41 %), suivi des inquiétudes relatives à la confidentialité des données (33 %) et à une dépendance excessive à l’IA (31 %). Les salariés citent ensuite la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).
L’IA responsable : un atout éthique et un levier d’efficacité
La définition de l’IA responsable proposée aux salariés interrogés était la suivante : “une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l’inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé”.
Pour 63 % des salariés et 83 % des utilisateurs d’IA dans le cadre professionnel, le développement d’une telle IA est essentielle ou indispensable. Pour près de 8 salariés sur 10 une IA responsable doit s’attacher au respect de l’être humain, de sa santé, de son bien-être et de ses droits. Interrogés sur les domaines où la responsabilité de l’IA devait être appliquée en priorité, les sondés citent :
- la protection des données personnelles et sensibles (36 %) ;
- le respect des droits fondamentaux (27 %) ;
- l’amélioration du bien-être humain (25 %) ;
- le respect de l’humain et de sa singularité (24 %) ;
- le respect des principes éthiques (22 %) ;
- la garantie de la transparence (21 %) ;
- le respect de la santé humaine (20 %) ;
- l’impact environnemental (17 %) ;
- l’explicabilité des choix (13 %) ;
- la réduction des biais dans les algorithmes (11 %) ;
- l’inclusion sociale (9 %).
L’IA responsable n’est pas seulement perçue comme une nécessité éthique. Pour 44 % des salariés, elle améliore l’efficacité, favorise une prise de décision optimisée (39 %) et réduit la consommation de ressources (32 %).
Une acculturation encore trop faible
Malgré l’importance accordée à l’IA responsable, 63 % des salariés ignorent les initiatives menées par leurs entreprises dans ce domaine. Seulement 9 % peuvent se référer à une charte éthique ou un interlocuteur spécialisé.
Pour accélérer cette acculturation à l’IA responsable, les salariés suggèrent qu’un certain nombre de freins soient levés, comme le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en œuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.
Christophe LIÉNARD, Président d’Impact AI, commente :
“Les conclusions de cette première édition de l’Observatoire de l’IA responsable montrent la grande sensibilité des Français aux notions d’IA responsable et d’IA éthique et vont donc nourrir les grands travaux que le collectif entend mener en 2025, avec l’impulsion de l’AI Action Summit de février : autour du travail, de la santé, de l’environnement et pour toujours plus de formation et d’appropriation de toutes et tous des outils d’IA responsable”.
