À l'occasion du Forum InCyber, Numerama a souhaité approfondir les discussions autour des menaces grandissantes pour les entreprises. Parmi elles, le « Shadow AI », et deux questions centrales face à ce défi : quelle stratégie adopter, et quelles responsabilités en cas de fuite de données internes ?
À l'occasion du Forum InCyber, Numerama a souhaité approfondir les discussions autour des menaces grandissantes pour les entreprises. Parmi elles, le « Shadow AI », et deux questions centrales face à ce défi : quelle stratégie adopter, et quelles responsabilités en cas de fuite de données internes ?
Le 26 mars 2026, une erreur de configuration sur le blog d'Anthropic a involontairement révélé l'existence de Claude Mythos, le prochain modèle de l'entreprise. Le document exposé décrit un modèle dont les capacités offensives en cybersécurité dépasseraient, selon Anthropic elle-même, tout ce qui existe aujourd'hui.
Le 26 mars 2026, une erreur de configuration sur le blog d'Anthropic a involontairement révélé l'existence de Claude Mythos, le prochain modèle de l'entreprise. Le document exposé décrit un modèle dont les capacités offensives en cybersécurité dépasseraient, selon Anthropic elle-même, tout ce qui existe aujourd'hui.
Dans un article de blog publié le 24 mars 2026, les chercheurs de l'entreprise de cybersécurité Snyk reviennent sur le déroulé d'une attaque menée contre la bibliothèque Python LiteLLM. Le projet, utilisé par des millions de développeurs, a été compromis pendant trois heures. Derrière l'attaque, un groupe nommé TeamPCP qui avait préparé son coup cinq jours à l'avance.
Dans un article de blog publié le 24 mars 2026, les chercheurs de l'entreprise de cybersécurité Snyk reviennent sur le déroulé d'une attaque menée contre la bibliothèque Python LiteLLM. Le projet, utilisé par des millions de développeurs, a été compromis pendant trois heures. Derrière l'attaque, un groupe nommé TeamPCP qui avait préparé son coup cinq jours à l'avance.
Le 23 mars 2026, une vidéo publiée sur X par Claude a propulsé Dispatch sur le devant de la scène. Cette fonctionnalité de Cowork permet à l'IA d'Anthropic de travailler seule sur votre ordinateur pendant que vous lui donnez des ordres depuis votre téléphone. Lancée discrètement quelques jours plus tôt, elle est désormais au cœur de l'attention, et ce qu'Anthropic écrit en petites lettres sur la sécurité mérite qu'on s'y attarde.
Le 23 mars 2026, une vidéo publiée sur X par Claude a propulsé Dispatch sur le devant de la scène. Cette fonctionnalité de Cowork permet à l'IA d'Anthropic de travailler seule sur votre ordinateur pendant que vous lui donnez des ordres depuis votre téléphone. Lancée discrètement quelques jours plus tôt, elle est désormais au cœur de l'attention, et ce qu'Anthropic écrit en petites lettres sur la sécurité mérite qu'on s'y attarde.
Les promesses de l’IA dans les entreprises semblent encore lointaines. OpenAI le reconnaît. Malgré des outils puissants, elle peine à s’imposer dans les processus métier.
OpenAI, leader mondial de l’IA, tire la sonnette d’alarme. Selon Brad Lightcap, directeur des opérations, les entreprises n’ont pas encore intégré l’IA de manière significative dans leurs activités. « Nous n’avons pas vraiment vu l’IA pénétrer les processus métier des entreprises », affirme-t-il en marge du Sommet indien sur
Les promesses de l’IA dans les entreprises semblent encore lointaines. OpenAI le reconnaît. Malgré des outils puissants, elle peine à s’imposer dans les processus métier.
OpenAI, leader mondial de l’IA, tire la sonnette d’alarme. Selon Brad Lightcap, directeur des opérations, les entreprises n’ont pas encore intégré l’IA de manière significative dans leurs activités. « Nous n’avons pas vraiment vu l’IA pénétrer les processus métier des entreprises », affirme-t-il en marge du Sommet indien sur l’impact de l’IA. Pourtant, la demande pour les solutions d’IA reste élevée. Les outils proposent des fonctions inédites, mais leur intégration en entreprise demeure complexe.
Un retard réel dans l’adoption de l’IA en entreprise
Malgré l’enthousiasme médiatique autour de l’IA, son intégration dans les entreprises reste limitée. Selon OpenAI, les outils puissants développés pour automatiser ou optimiser les processus métier n’ont pas encore trouvé leur place dans la majorité des organisations.
Les chiffres confirment ce retard. D’après un rapport de l’OCDE, moins de 15 % des entreprises européennes utilisent l’IA de manière régulière dans leurs opérations. En France, seulement 10 % des sociétés déclarent l’avoir intégrée de façon stratégique, selon Infonet.
7/ 🤔 OPENAI COO: AI HASN'T HIT ENTERPRISE YET Brad Lightcap: "We have not yet really seen AI penetrate enterprise business processes."
The gap between AI hype and actual enterprise adoption is still enormous. That's your window.
Malgré ce retard d’adoption en entreprise, la demande explose. OpenAI évoque une pression constante sur ses capacités. La croissance rapide de la startup témoigne d’un intérêt massif pour l’IA.
La directrice financière Sarah Friar a indiqué viser plus de 20 milliards de dollars de revenus annualisés pour 2025. Les chiffres exacts sur l’usage professionnel restent confidentiels. Pourtant, Lightcap reconnaît une demande mondiale supérieure aux capacités actuelles.
Les freins à l’IA dans les entreprises
L’IA est en mesure d’alléger de nombreuses tâches. On en est tous conscients. Mais pourquoi les entreprises sont-elles réticentes à cette technologie ? Plusieurs obstacles freinent l’adoption de l’IA. D’abord, le coût reste un facteur majeur. Les licences, l’infrastructure et la formation représentent des investissements lourds.
Ensuite, la sécurité et la protection des données demeurent des priorités, ce qui freine certaines expérimentations. La culture interne joue également un rôle. En effet, intégrer l’IA nécessite de revoir certains processus et d’accompagner les équipes dans le changement.
Enfin, les compétences manquent parfois pour développer et superviser des agents d’IA complexes.
D’après InfoQ, la plateforme vise à aider les entreprises à créer, déployer et gérer des agents d’IA. Lightcap explique que Frontier sert de laboratoire. L’équipe cherche à comprendre comment intégrer concrètement l’IA dans des environnements chaotiques.
Les entreprises combinent déjà CRM, ERP, outils collaboratifs et solutions internes. Ajouter des agents autonomes exige bien sûr une orchestration précise.
OpenAI ne veut pas mesurer le succès par le nombre de licences. L’entreprise privilégie l’impact business réel. Cette approche traduit une volonté pragmatique face à la complexité des déploiements.
Des efforts pour accélérer l’adoption
OpenAI ne reste pas les bras croisés face à la lenteur de l’adoption. La firme de Sam Altman a multiplié les partenariats stratégiques pour rapprocher l’IA des entreprises. Des cabinets de conseil renommés, comme Boston Consulting Group, McKinsey, Accenture ou Capgemini, accompagnent désormais les déploiements.
BCG is proud to announce an expanded partnership with @OpenAI to drive enterprise-scale AI transformation using OpenAI’s new agentic platform, Frontier.
“AI is central to how CEOs think about competitiveness and growth,” says Dylan Bolden, Global Chair of Functional Practices at… pic.twitter.com/eHc6YGDpKn
L’accompagnement va de la phase pilote à l’intégration concrète dans les systèmes métier. Ces partenariats cherchent à réduire les obstacles liés aux processus complexes et à la sécurité des données. Ils visent aussi à accompagner la montée en compétences des équipes.
La concurrence s’organise aussi. Anthropic développe des modules spécialisés pour la finance, l’ingénierie et le design. Les agents sectoriels deviennent la prochaine bataille stratégique. Chaque acteur cherche à prouver une valeur métier concrète, pas seulement technologique.
L’avenir de l’IA dans l’entreprise
Si l’adoption reste lente, les opportunités ne manquent pas. Les entreprises pourraient tirer parti de l’IA pour automatiser les tâches répétitives. Ou encore pour améliorer la prise de décision et soutenir la croissance.
Les bureaux récemment ouverts par OpenAI en Inde, dédiés aux ventes et à la commercialisation, montrent que le potentiel de marché est immense. Selon Lightcap, « Frontier nous permet d’expérimenter de manière itérative comment intégrer l’IA dans les domaines complexes des entreprises ».
Certes, L’IA n’a pas encore transformé les entreprises, mais la course est lancée. La route est encore longue. Toutefois, les sociétés qui réussiront à surmonter les freins bénéficieront d’un avantage stratégique considérable.
Des centaines de milliards de lignes de COBOL tournent encore dans les systèmes critiques des banques et des gouvernements. Problème : les développeurs capables de les maintenir disparaissent, à la retraite ou trop âgés. Claude, l'IA d'Anthropic, promet de résoudre l'équation impossible -- moderniser sans tout casser.
Des centaines de milliards de lignes de COBOL tournent encore dans les systèmes critiques des banques et des gouvernements. Problème : les développeurs capables de les maintenir disparaissent, à la retraite ou trop âgés. Claude, l'IA d'Anthropic, promet de résoudre l'équation impossible -- moderniser sans tout casser.
Ce 23 février 2026, Summer Yue est au centre des discussions tech sur X. La responsable de l’alignement IA chez Meta a raconté comment son agent autonome OpenClaw lui a désobéi, supprimant sans autorisation des emails de sa boîte Gmail. Un incident qui soulève de sérieuses questions sur la fiabilité des agents IA.
Ce 23 février 2026, Summer Yue est au centre des discussions tech sur X. La responsable de l’alignement IA chez Meta a raconté comment son agent autonome OpenClaw lui a désobéi, supprimant sans autorisation des emails de sa boîte Gmail. Un incident qui soulève de sérieuses questions sur la fiabilité des agents IA.
Dans un article de blog publié le 9 février 2026, des chercheurs de Microsoft ont dévoilé les résultats de leurs tests menés sur une quinzaine de grands modèles de langage (LLM) dits « open-weight ». Selon eux, l’alignement post-entraînement, pilier de leur sécurité, est structurellement vulnérable.
Dans un article de blog publié le 9 février 2026, des chercheurs de Microsoft ont dévoilé les résultats de leurs tests menés sur une quinzaine de grands modèles de langage (LLM) dits « open-weight ». Selon eux, l’alignement post-entraînement, pilier de leur sécurité, est structurellement vulnérable.
Des agents capables de piloter des logiciels, de prendre des décisions et de collaborer entre eux…l’IA commence à structurer les organisations. Pour OpenAI, une entreprise presque entièrement opérée par des IA est une évolution déjà techniquement atteignable.
Pendant longtemps, tout le monde voit l’IA comme un simple assistant numérique. C’est un outil qui aide ,accélère et suggère. Mais selon le PDG d’OpenAI, la prochaine étape est que des IA opéreront entièrement dans les entreprises. Lors
Des agents capables de piloter des logiciels, de prendre des décisions et de collaborer entre eux…l’IA commence à structurer les organisations. Pour OpenAI, une entreprise presque entièrement opérée par des IA est une évolution déjà techniquement atteignable.
Pendant longtemps, tout le monde voit l’IA comme un simple assistant numérique. C’est un outil qui aide ,accélère et suggère. Mais selon le PDG d’OpenAI, la prochaine étape est que des IA opéreront entièrement dans les entreprises. Lors d’une récente intervention au sommet sur l’IA de Cisco, ce 4 février, Sam Altman a esquissé un futur où l’IA devient un acteur central de l’économie qui agit, coordonne et même collabore entre machines.
Des IA qui ne conseillent plus, mais qui agissent dans l’entreprise
Le point de bascule, selon Sam Altman, se situe dans l’évolution des modèles actuels vers de véritables agents autonomes. Contrairement aux IA classiques qui génèrent des réponses ou des suggestions, ces IA utilisent directement des ordinateurs, des logiciels et des interfaces en ligne.
Navigation web, utilisation d’applications professionnelles, accès à des environnements sécurisés… l’IA peut désormais accomplir les tâches de bout en bout dans une entreprise. Elle ne se limite plus à proposer un plan ou à rédiger un document, elle exécute réellement le travail. Une fois ce mode de fonctionnement expérimenté, ce sera difficile de revenir à une IA passive, cantonnée à un rôle d’assistant.
Dans ce contexte, Sam Altman évoque ce qu’il appelle la “limite supérieure de l’IA actuelle”. Le PDG d’OpenAI parle des entreprises entièrement dédiées à l’IA. Des structures où les systèmes intelligents ne sont plus greffés aux flux existants, mais forment l’ossature même de l’organisation. Tout peut être pris en charge par des agents logiciels que ce soit la planification, l’exécution, la coordination ou l’analyse.
Les agents IA travaillent entre eux
L’idée d’une entreprise composée uniquement d’IA ne repose pas seulement sur l’automatisation individuelle d’après le CEO d’OpenAI. Ce dernier insiste sur la capacité des agents à communiquer et à se coordonner entre eux, un autre grand changement.
Dans ce modèle, les interactions ne sont plus conçues pour être gérées manuellement par des humains. Les IA échangent des informations, se répartissent les tâches, prennent des décisions opérationnelles et ajustent leurs actions en temps réel. Les humains deviennent alors des superviseurs stratégiques, voire de simples observateurs.
Cette logique s’étend bien au-delà du numérique. Sam Altman imagine même déjà des milliards de robots humanoïdes qui construisent des centres de données, exploitent des mines ou participent à la production d’énergie. Dans sa vision l’IA ne transforme pas seulement les logiciels, mais aussi les infrastructures physiques et industrielles.
Selon lui, cette dynamique pourrait entraîner une croissance économique d’une ampleur inédite. Celle-ci sera portée par l’émergence de nouveaux services et par une accélération des découvertes scientifiques.
The companies that succeed in the future are going to make very heavy use of AI. People will manage teams of agents to do very complex things.
Today we are launching Frontier, a new platform to enable these companies.
La sécurité et la gouvernance sont les véritables freins
Fait notable, Sam Altman affirme que les principaux défis à ce futur ne sont plus techniques. Les capacités de l’IA progressent rapidement, mais les entreprises restent structurellement mal préparées à les intégrer.
Le cœur du problème se situe du côté de la sécurité, de l’accès aux données et de la gouvernance. Les systèmes actuels ont été conçus pour des utilisateurs humains effectuant des actions ponctuelles. Ils s’adaptent mal à des agents IA toujours actifs, capables d’observer et d’agir en continu sur l’ensemble des systèmes.
Selon Altman, il faudra inventer un nouveau paradigme de sécurité et de gestion des accès pour permettre à ces entreprises pilotées par l’IA de fonctionner pleinement. En attendant, de nombreuses organisations freinent volontairement l’adoption de ces technologies, malgré leur maturité croissante.
Ce décalage crée ainsi un fossé inquiétant entre ce que l’IA peut déjà faire et ce que les entreprises osent réellement déployer. Et les conséquences pourraient être lourdes. Sam Altman avertit que les structures incapables de s’adapter rapidement risquent de perdre leur avantage concurrentiel. Non pas par manque de technologie, mais par manque de préparation organisationnelle.
L’entreprise composée uniquement d’IA n’est donc plus un concept futuriste. Elle est déjà possible, selon OpenAI. Et nous verrons ensemble les organisations qui auront le courage et la structure pour franchir ce cap.
Clawdbot s’est imposé en quelques jours comme le nouveau jouet à la mode de l’écosystème IA : un agent personnel capable de lire vos messages et, plus généralement, d’organiser votre vie numérique de manière proactive, 24 heures sur 24. Mais dans l’enthousiasme général, un point crucial est relégué au second plan par un bon nombre d’utilisateurs : la cybersécurité.
Clawdbot s’est imposé en quelques jours comme le nouveau jouet à la mode de l’écosystème IA : un agent personnel capable de lire vos messages et, plus généralement, d’organiser votre vie numérique de manière proactive, 24 heures sur 24. Mais dans l’enthousiasme général, un point crucial est relégué au second plan par un bon nombre d’utilisateurs : la cybersécurité.
Selon le média américain The Verge, des milliers d’employés de Microsoft ont récemment été incités à utiliser Claude Code pour améliorer leur productivité au travail… alors même que Microsoft commercialise GitHub Copilot auprès de ses clients.
Selon le média américain The Verge, des milliers d’employés de Microsoft ont récemment été incités à utiliser Claude Code pour améliorer leur productivité au travail… alors même que Microsoft commercialise GitHub Copilot auprès de ses clients.
Depuis sa création en 2015, OpenAI s’est positionnée comme le garant d’une intelligence artificielle éthique et transparente. Pourtant, l’image de l’organisation dirigée par Sam Altman se craquèle.
Entre départs en série et accusations de censure interne. Le géant de l’IA semble avoir troqué son idéal de transparence contre une stratégie commerciale impitoyable. Le dernier départ en date, celui du chercheur en économie Tom Cunningham. Ce dernier lève le voile sur une dérive inquiétante
Depuis sa création en 2015, OpenAI s’est positionnée comme le garant d’une intelligence artificielle éthique et transparente. Pourtant, l’image de l’organisation dirigée par Sam Altman se craquèle.
Entre départs en série et accusations de censure interne. Le géant de l’IA semble avoir troqué son idéal de transparence contre une stratégie commerciale impitoyable. Le dernier départ en date, celui du chercheur en économie Tom Cunningham. Ce dernier lève le voile sur une dérive inquiétante avec l’étouffement systématique des recherches critiques.
Le chercheur accuse OpenIA de se dévier de mission initiale
Tom Cunningham ne s’est pas contenté de quitter son poste. Il a adressé un message d’adieu interne dont la teneur est accablante. Selon des informations rapportées par Wired, le chercheur estime que l’équipe de recherche économique d’OpenAI a dévié de sa mission initiale. Plutôt que de produire une analyse rigoureuse et objective de l’impact de l’IA sur la société. L’unité agirait désormais comme une simple « branche de propagande » au service de l’employeur.
Le grief principal de Cunningham porte sur la liberté académique. Alors que les chercheurs devraient pouvoir explorer les zones d’ombre de l’IA. OpenAI exercerait une pression pour que seuls les résultats « valorisants » soient publiés. En somme, la vérité scientifique passerait après les intérêts marketing.
OpenAI impose une culture de la discrétion
Peu après la démission de Cunningham, le directeur de la stratégie d’OpenAI. Jason Kwon, a clarifié la position de l’entreprise dans un mémo interne sur Slack. Pour lui, OpenAI n’est plus seulement une institution de recherche, mais un « acteur majeur du monde ». À ce titre, il estime que l’entreprise doit « prendre ses responsabilités » quant aux résultats qu’elle diffuse. Pour lui, certaines vérités sont trop sensibles pour être rendues publiques sans filtre.
Cette approche, perçue comme de la censure par les employés, marque une rupture brutale avec les racines non-lucratives d’OpenAI. Autrefois championne de l’open-source, l’entreprise verrouille désormais ses modèles et transforme sa structure en une entité à but lucratif.
Les vérités qui dérangents mises sous le tapis
Qu’est-ce qu’OpenAI cherche exactement à cacher ? Les inquiétudes des chercheurs portent souvent sur l’impact socio-économique global. Alors qu’un rapport officiel publié en septembre par l’entreprise vantait les mérites de ChatGPT comme un outil de productivité. Les recherches qui montrent que l’IA peut exacerber les inégalités sont systématiquement minimisées ou bloquées.
D’autres anciens membres, comme Miles Brundage ou William Saunders, ont également exprimé leurs frustrations. Leurs témoignages convergent sur l’urgence de sortir de « nouveaux produits brillants » prend le pas sur la sécurité des utilisateurs.
Un important enjeu financier pour OpenAI
Avec des investissements se chiffrant en dizaines de milliards de dollars et des partenariats colossaux. L’entreprise ne peut pas se permettre de diffuser des recherches qui alimenteraient les craintes du public ou des régulateurs. Par contre, cette stratégie de l’occultation est un pari risqué.
En perdant ses meilleurs talents au profit d’une culture du secret, OpenAI risque de perdre sa crédibilité. Si le public commence à voir en Sam Altman comme un PDG dissimulant les risques réels de sa technologie. Le « futur radieux » promis par l’IA pourrait bien perdre de son éclat. Le départ de Tom Cunningham rappelle une réalité brutale. La science et les profits font rarement bon ménage lorsqu’il s’agit de dire la vérité sur les technologies.
La recherche en intelligence artificielle adore parler d’impact, mais beaucoup moins d’effets secondaires. Officiellement, tout est mesuré, évalué, anticipé. Officieusement, certains chiffres dérangent. Trop. Le départ fracassant d’un chercheur d’OpenAI, révélé par Wired, jette une lumière crue sur ce malaise grandissant : quand l’IA menace l’économie ou l’emploi, la vérité devient-elle un problème de communication ?
On ne quitte pas OpenAI sur un coup de tête. Encore moins quand on travaille
La recherche en intelligence artificielle adore parler d’impact, mais beaucoup moins d’effets secondaires. Officiellement, tout est mesuré, évalué, anticipé. Officieusement, certains chiffres dérangent. Trop. Le départ fracassant d’un chercheur d’OpenAI, révélé par Wired, jette une lumière crue sur ce malaise grandissant : quand l’IA menace l’économie ou l’emploi, la vérité devient-elle un problème de communication ?
On ne quitte pas OpenAI sur un coup de tête. Encore moins quand on travaille sur un sujet aussi stratégique que l’impact économique de l’IA.
Tom Cunningham, chercheur en économie au sein de l’entreprise, a pourtant décidé de partir. Et il n’a pas fait semblant de refermer la porte discrètement.
Dans son message de départ, partagé en interne, Cunningham accuse son équipe de s’éloigner de la recherche au sens strict pour se transformer en relais narratif de l’entreprise. En clair : produire des études, oui… mais à condition qu’elles racontent la bonne histoire.
Celle d’une IA créatrice de valeur, dopant la productivité, modernisant le travail. Pas celle d’un outil susceptible de détruire des emplois, d’accentuer les inégalités ou de provoquer des chocs économiques difficiles à encaisser.
Selon Wired, au moins un autre membre de l’équipe de recherche économique aurait également quitté OpenAI pour des raisons similaires. Un détail qui, mis bout à bout, commence à ressembler à un signal faible… qui ne l’est plus tant que ça.
La recherche économique, ce miroir qu’OpenAI n’aime plus trop regarder
Sur le papier, OpenAI se présente toujours comme un acteur responsable, soucieux d’étudier les conséquences de ses propres technologies.
L’entreprise publie régulièrement des rapports sur les usages de ChatGPT, les gains de productivité ou l’adoption mondiale de ses outils.
Mais justement : ce qu’elle publie est de plus en plus homogène. Toujours positif. Toujours orienté vers la création de valeur.
En septembre dernier, un rapport piloté par Aaron Chatterji, responsable de la recherche économique, mettait en avant les bénéfices économiques de ChatGPT à travers le monde. Une démonstration propre, bien ficelée, presque trop lisse.
Pour un ancien économiste ayant travaillé avec OpenAI, cité anonymement par Wired, le problème est là : la recherche interne tendrait désormais à glorifier la technologie, au lieu d’en explorer honnêtement les zones grises. Autrement dit, le miroir existe toujours… mais il est soigneusement incliné.
“Build solutions, not papers” : quand la stratégie dicte la science
Après le départ de Cunningham, un message interne vient cristalliser le malaise. Jason Kwon, directeur de la stratégie d’OpenAI, explique que l’entreprise ne doit pas se contenter de publier des recherches sur des sujets “difficiles”, mais qu’elle doit aussi “construire des solutions”.
Sur le principe, l’argument est défendable. OpenAI n’est pas un laboratoire académique isolé, mais un acteur majeur qui déploie ses technologies à l’échelle mondiale. Le problème, c’est ce que cette logique implique concrètement.
Quand une entreprise est à la fois juge et partie, productrice de l’outil et analyste de ses effets, la tentation est forte de reformuler les problèmes avant même de les étudier.
On ne parle plus seulement de recherche, mais de gestion de perception. La science cesse alors d’être un espace d’exploration libre pour devenir un outil de pilotage stratégique. C’est précisément ce glissement que dénoncent les chercheurs qui partent.
D’un labo idéaliste à une machine économique à mille milliards
Pour comprendre cette crispation, il faut revenir sur la trajectoire d’OpenAI. À sa création en 2016, l’organisation se voulait ouverte, presque militante.
Recherche open source, discours sur le bien commun, méfiance affichée vis-à-vis des logiques purement commerciales.
En moins de dix ans, le décor a radicalement changé. Les modèles sont désormais fermés. L’entreprise s’est restructurée en public benefit corporation.
Les partenariats se chiffrent en dizaines, puis en centaines de milliards de dollars. OpenAI négocie des accords colossaux, investit massivement dans les infrastructures, et prépare, selon plusieurs sources, une introduction en bourse qui pourrait viser une valorisation proche du trillion de dollars.
Dans ce contexte, publier une étude concluant que l’IA pourrait déstabiliser massivement le marché du travail ou provoquer un choc économique négatif n’est plus un simple exercice académique.
C’est un risque financier, politique et médiatique. La vérité devient alors non pas fausse, mais dangereuse.
Cunningham n’est pas un cas isolé : la liste des lanceurs d’alerte s’allonge
L’affaire Cunningham s’inscrit dans une série plus large de départs et de critiques internes. Ces derniers mois, plusieurs figures clés ont quitté OpenAI en exprimant des inquiétudes similaires, bien que portant sur des domaines différents.
William Saunders, ancien membre de l’équipe “Superalignment”, a expliqué être parti après avoir constaté que la priorité allait aux produits “plus rapides et plus brillants”, au détriment de la sécurité.
Steven Adler, ex-chercheur en sécurité, critique publiquement la gestion des risques psychologiques liés à ChatGPT, évoquant des utilisateurs entraînés dans des spirales délirantes.
Miles Brundage, ancien responsable de la policy research, a lui aussi dénoncé la difficulté croissante à publier sur certains sujets jugés sensibles.
Le point commun n’est pas anecdotique. Sécurité, alignement, économie : ce sont précisément les domaines qui pourraient freiner, compliquer ou réguler le déploiement massif de l’IA.
Ceux qui posent problème ne disparaissent pas. Ce sont ceux qui les étudient qui s’en vont.
Le vrai danger n’est pas l’IA… mais qui écrit son histoire
OpenAI n’est pas une entreprise comme les autres. Ses rapports sont lus par des gouvernements, cités par des régulateurs, repris par des médias généralistes. Elle participe activement à la construction du récit public autour de l’intelligence artificielle.
Si ce récit repose sur une recherche de plus en plus orientée, alors le débat démocratique lui-même devient bancal. Les politiques publiques se fondent sur des analyses partielles.
Les citoyens n’ont accès qu’à une version filtrée des impacts réels. Et l’IA avance sous couvert de science, alors qu’il s’agit parfois de stratégie.
Ce n’est pas une censure brutale, ni un complot. C’est plus subtil, plus moderne, plus acceptable. Une sélection des questions qu’on pose, et de celles qu’on évite.
Quand la vérité devient “inconfortable”, elle devient stratégique
Le départ de Tom Cunningham ne prouve pas qu’OpenAI ment. Il montre autre chose, peut-être plus préoccupant : que certaines vérités sont devenues trop coûteuses à produire.
À mesure que l’IA s’impose comme une force économique majeure, la question n’est plus seulement de savoir ce qu’elle peut faire, mais qui a le droit d’en mesurer les dégâts.
Tant que cette mission reste entre les mains de ceux qui ont tout à perdre à la réponse, la recherche restera sous tension. Et les chercheurs continueront, parfois, de claquer la porte…
Dans une étude publiée le 13 novembre 2025, la société américaine Anthropic met en lumière ce qu’elle considère comme « la première campagne de cyberespionnage orchestrée par IA ». Dans cette opération, attribuée à un acteur chinois, les outils d’intelligence artificielle ne servent plus seulement d’appuis, mais jouent un rôle autonome dans différentes phases de l’attaque.
Dans une étude publiée le 13 novembre 2025, la société américaine Anthropic met en lumière ce qu’elle considère comme « la première campagne de cyberespionnage orchestrée par IA ». Dans cette opération, attribuée à un acteur chinois, les outils d’intelligence artificielle ne servent plus seulement d’appuis, mais jouent un rôle autonome dans différentes phases de l’attaque.
Le 3 novembre 2025, Microsoft a mis en lumière les mécanismes d'un nouveau type de porte dérobée, baptisée SesameOp. Fait marquant : le logiciel malveillant s'appuie sur l'interface de programmation d'applications (API) d'OpenAI pour effectuer ses actions de commande et de contrôle (C2).
Le 3 novembre 2025, Microsoft a mis en lumière les mécanismes d'un nouveau type de porte dérobée, baptisée SesameOp. Fait marquant : le logiciel malveillant s'appuie sur l'interface de programmation d'applications (API) d'OpenAI pour effectuer ses actions de commande et de contrôle (C2).
Le 30 octobre 2025, OpenAI dévoilait Aarvark, un nouvel agent IA basé sur GPT-5. L'outil, destiné aux développeurs, doit permettre d'identifier les vulnérabilités présentes dans le code et proposer des solutions pour les corriger. L'outil est encore en version bêta privée.
Le 30 octobre 2025, OpenAI dévoilait Aarvark, un nouvel agent IA basé sur GPT-5. L'outil, destiné aux développeurs, doit permettre d'identifier les vulnérabilités présentes dans le code et proposer des solutions pour les corriger. L'outil est encore en version bêta privée.
Dans un article de blog publié le 24 octobre 2025, des chercheurs de la société de cybersécurité NeuralTrust ont révélé une méthode permettant à un acteur malveillant de contourner les mécanismes de sécurité de l’assistant IA intégré au nouveau navigateur ChatGPT Atlas.
Dans un article de blog publié le 24 octobre 2025, des chercheurs de la société de cybersécurité NeuralTrust ont révélé une méthode permettant à un acteur malveillant de contourner les mécanismes de sécurité de l’assistant IA intégré au nouveau navigateur ChatGPT Atlas.
Promis depuis 2019 comme la pièce maîtresse de l’IA de Tesla, le supercalculateur Dojo devait libérer l’entreprise de sa dépendance à Nvidia, grâce à ses propres puces « maison ». En 2025, le projet initial est abandonné, et Elon Musk minimise l’échec.
Promis depuis 2019 comme la pièce maîtresse de l’IA de Tesla, le supercalculateur Dojo devait libérer l’entreprise de sa dépendance à Nvidia, grâce à ses propres puces « maison ». En 2025, le projet initial est abandonné, et Elon Musk minimise l’échec.
Des chercheurs en cybersécurité ont révélé une vulnérabilité majeure dans l’IA Microsoft 365 Copilot, permettant à des pirates de voler des données sensibles d'entreprises, sans le moindre clic d'utilisateur. Baptisée EchoLeak, cette faille exploitait l’IA générative intégrée aux outils Microsoft pour exfiltrer des informations via un simple e-mail, même non ouvert.
Des chercheurs en cybersécurité ont révélé une vulnérabilité majeure dans l’IA Microsoft 365 Copilot, permettant à des pirates de voler des données sensibles d'entreprises, sans le moindre clic d'utilisateur. Baptisée EchoLeak, cette faille exploitait l’IA générative intégrée aux outils Microsoft pour exfiltrer des informations via un simple e-mail, même non ouvert.