Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Salaire, emploi, richesse : Google DeepMind se prépare déjà à la rupture de notre modèle économique

Dans un message publié sur X le 22 janvier 2026, Shane Legg, Chief AGI Scientist chez Google DeepMind, annonce recruter un économiste en anticipation de l’arrivée de l’intelligence artificielle générale. Une démarche qui interroge directement la pérennité de notre modèle économique actuel.

C’est fâcheux : Zuckerberg aurait déjà « étouffé » son plus gros pari de l’année

2025 aura été l’année où Mark Zuckerberg a transformé Meta en pari géant sur la « superintelligence », en misant notamment sur de nouvelles têtes d’affiche comme Alexandr Wang. Problème : selon le Financial Times, la collaboration entre les deux hommes tangue déjà fortement. Des rumeurs qui viennent une nouvelle fois fragiliser la crédibilité stratégique du créateur de Facebook.

Meta change de cap et supprime 600 postes dans son unité dédiée à l’IA

Meta, la maison-mère de Facebook, Instagram et WhatsApp, a annoncé le 22 octobre 2025 se séparer de 600 employés de son unité dédiée à l’IA. Une coupe d’effectifs qui traduit un changement de stratégie clair chez la firme de Mark Zuckerberg.

ChatGPT : Sam Altman demande de se calmer sur l’IA générale

ChatGPT OpenAI

La perspective d'une future réunion entre Sam Altman, le patron d'OpenAI et de ChatGPT, et l'administration américaine suscite des fantasmes depuis quelques jours. D'aucuns pensent qu'il pourrait s'agir d'intelligence artificielle générale, le Graal de l'IA. Mais Sam Altman a démenti.

  • ✇ActuIA
  • Safe Superintelligence lève 1 milliard de dollars pour accélérer le développement de systèmes d’IA sécurisés
    Deux mois et demi après sa création, Safe Superintelligence Inc (SSI), la start-up cofondée par Ilya Sutskever, Daniel Gross et Daniel Levy, a finalisé un tour de table d’1 milliard de dollars. Rapportée par Reuters, cette levée de fonds, menée par des investisseurs de premier plan tels qu’Andreessen Horowitz, Sequoia Capital, DST Global et SV Angel, reflète la confiance accordée à SSI. La start-up a pris le parti de ne pas commercialiser de produit avant d’avoir la certitude que ses systèmes d’

Safe Superintelligence lève 1 milliard de dollars pour accélérer le développement de systèmes d’IA sécurisés

Par : Thomas Calvi
6 septembre 2024 à 11:00

Deux mois et demi après sa création, Safe Superintelligence Inc (SSI), la start-up cofondée par Ilya Sutskever, Daniel Gross et Daniel Levy, a finalisé un tour de table d’1 milliard de dollars. Rapportée par Reuters, cette levée de fonds, menée par des investisseurs de premier plan tels qu’Andreessen Horowitz, Sequoia Capital, DST Global et SV Angel, reflète la confiance accordée à SSI. La start-up a pris le parti de ne pas commercialiser de produit avant d’avoir la certitude que ses systèmes d’IA ne présentent aucun risque pour l’humanité.

Les trois cofondateurs ont déclaré en juin dernier lors du lancement de SSI :

“La superintelligence est à portée de main. La construction d’une superintelligence sûre (SSI) est le problème technique le plus important de notre époque. Nous avons lancé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre. Il s’appelle Safe Superintelligence Inc. SSI est notre mission, notre nom et l’ensemble de notre feuille de route produit, car c’est notre seul objectif. Notre équipe, nos investisseurs et notre modèle commercial sont tous alignés pour réaliser SSI”.

Ilya Sutskever avait démissionné le mois précédant le lancement de SSI de son poste de scientifique en chef chez OpenAI, dont il était l’un des cofondateurs, et où il codirigeait avec Jan Leike, l’équipe de superalignement mise en place par la start-up en juillet 2023 pour minimiser les risques potentiels d’une IA qui surpasserait l’intelligence humaine.

L’un comme l’autre considèrent que développer une IA qui serait capable de s’adapter et d’exceller dans un large éventail de domaines, de manière similaire, voire supérieure, à l’intelligence humaine, autrement dit une superintelligence ou IAG, est envisageable avant la fin de cette décennie mais, pour eux, des mesures de sécurité sont nécessaires pour garantir que les systèmes d’IA restent sûrs et alignés avec les valeurs humaines.

Ils alertaient :

“La superintelligence sera la technologie la plus percutante que l’humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants du monde. Mais le vaste pouvoir de la superintelligence pourrait aussi être très dangereux et pourrait conduire à la perte de pouvoir de l’humanité ou même à l’extinction humaine”.

Donner la priorité à la sécurité

SSI, qui compte aujourd’hui une dizaine d’employés, concentre tous ses efforts sur le développement d’une IAG sécurisée, “et rien d’autre”. Les fonds levés seront utilisés pour acquérir de la puissance de calcul, recruter les meilleurs talents, des ingénieurs et chercheurs qui seront basés à Palo Alto et Tel Aviv, “où nous avons des racines profondes et la capacité de recruter les meilleurs talents techniques”, précisait l’équipe fondatrice lors du lancement de SSI.

La start-up, serait aujourd’hui valorisée à 5 milliards de dollars selon les sources de Reuters. Daniel Gross, interviewé par ce dernier, a précisé :

“Il est important pour nous d’être entourés d’investisseurs qui comprennent, respectent et soutiennent notre mission, qui est de viser directement une superintelligence sûre et en particulier de passer quelques années à faire de la R&D sur notre produit avant de le commercialiser”. 

Safe Superintelligence lève 1 milliard de dollars pour accélérer le développement de systèmes d'IA sécurisés
  • ✇ActuIA
  • Nouvelle aventure pour Ilya Sutskever avec le lancement de « Safe Superintelligence Inc »
    C’est sur X qu’Ilya Sutskever, l’un des cofondateurs d’OpenAI, a annoncé le lancement de “Safe Superintelligence Inc” tout comme il l’avait fait pour annoncer son départ d’OpenAI, il y a un mois. Il se disait “très enthousiaste à l’idée de ce qui va suivre – un projet qui est très significatif pour moi et dont je partagerai les détails en temps voulu”. Ce projet était donc de créer une start-up dédiée au développement d’une IAG sécurisée, ce qu’il vient de faire avec Daniel Gross et Daniel Levy.

Nouvelle aventure pour Ilya Sutskever avec le lancement de « Safe Superintelligence Inc »

21 juin 2024 à 12:00

C’est sur X qu’Ilya Sutskever, l’un des cofondateurs d’OpenAI, a annoncé le lancement de “Safe Superintelligence Inc” tout comme il l’avait fait pour annoncer son départ d’OpenAI, il y a un mois. Il se disait “très enthousiaste à l’idée de ce qui va suivre – un projet qui est très significatif pour moi et dont je partagerai les détails en temps voulu”. Ce projet était donc de créer une start-up dédiée au développement d’une IAG sécurisée, ce qu’il vient de faire avec Daniel Gross et Daniel Levy.

Ilya Sutskever occupait le poste de scientifique en chef chez OpenAI et codirigeait avec Jan Leike, l’équipe de superalignement mise en place par la start-up en juillet 2023 pour minimiser les risques potentiels d’une IA qui surpasserait l’intelligence humaine.

Tous deux pensent qu’une intelligence artificielle générale pourrait être développée d’ici la fin de cette décennie, mais prévenaient:

“La superintelligence sera la technologie la plus percutante que l’humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants du monde. Mais le vaste pouvoir de la superintelligence pourrait aussi être très dangereux et pourrait conduire à la perte de pouvoir de l’humanité ou même à l’extinction humaine”.

Ilya Sutskever faisait partie des quatre membres du Conseil d’administration qui ont évincé Sam Altman de son poste de PDG en novembre dernier. Bien que l’un comme l’autre ait été politiquement correct dans ses commentaires concernant la démission d’Ilya Sutskever, il était clair que les deux hommes n’avaient plus la même vision pour l’avenir d’OpenAI. Jan Leike, qui a quitté la start-up dans la foulée, apportait son éclairage :

“Construire des machines plus intelligentes que l’homme est une entreprise intrinsèquement dangereuse… Mais au cours des dernières années, la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants”.

OpenAI a d’ailleurs dissous l’équipe de superalignement après le départ des deux co-directeurs.

Développer une intelligence artificielle générale sécurisée

OpenAI qui a pour ambition de développer une IA qui serait capable de s’adapter et d’exceller dans un large éventail de domaines, de manière similaire, voire supérieure, à l’intelligence humaine, autrement dit une IAG, se retrouve aujourd’hui face à un sérieux concurrent: Safe Superintelligence Inc ou SSI.

Les trois cofondateurs déclarent dans leur communiqué sur X :

“La superintelligence est à portée de main. La construction d’une superintelligence sûre (SSI) est le problème technique le plus important de notre époque. Nous avons lancé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre. Il s’appelle Safe Superintelligence Inc. SSI est notre mission, notre nom et l’ensemble de notre feuille de route produit, car c’est notre seul objectif. Notre équipe, nos investisseurs et notre modèle commercial sont tous alignés pour réaliser SSI”.

Ajoutant :

“Nous prévoyons de faire progresser les capacités le plus rapidement possible tout en veillant à ce que notre sécurité reste toujours prioritaire”.

La start-up américaine SSI compte des bureaux à Palo Alto et Tel Aviv, “où nous avons des racines profondes et la capacité de recruter les meilleurs talents techniques”, précise l’équipe fondatrice. Outre Ilya Sutskever, elle se compose de Daniel Levy, chercheur et ingénieur en IA qui travaillait lui aussi chez OpenAI et de Daniel Gross, entrepreneur et investisseur d’origine israélienne, cofondateur de Cue, une entreprise acquise par Apple, où il a ensuite travaillé sur des projets liés à l’IA, et ancien partenaire de l’accélérateur de start-ups Y Combinator.

SSI recrute :

“Nous rassemblons une équipe réduite et fissurée des meilleurs ingénieurs et chercheurs du monde qui se consacrent à se concentrer sur les SSI et rien d’autre”.

Nouvelle-aventure-Ilya-Sutskever-lancement-Safe-Superintelligence-Inc

Un ancien chef d’OpenAI part combattre OpenAI

Ilya Sutskever, co-fondateur et ex-scientifique en chef d'OpenAI, lance Safe Surperintelligence Inc (SSI). Son objectif est de revenir à la mission originelle du créateur de ChatGPT, à savoir fabriquer une intelligence artificielle puissante et fiable.

❌
❌