Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇LEBIGDATA.FR
  • L’expérience folle d’Elon Musk : Grok et la quête de l’amour
    Elon Musk a créé vidéos et poème d’amour avec son IA Grok. Cela a suscité de humour, critiques acerbes et pique de Joyce Carol Oates. Après avoir frôlé le jackpot avec un plan Tesla à 1 000 milliards, le milliardaire a décidé de tester l’amour avec Grok. Musk joue à Cupidon numérique avec son chatbot signé xAI et partage ses expériences sur sa plateforme X. Musk, Grok et le premier rendez-vous virtuel Dans un post X publié à 4 h 20, Musk a partagé une vidéo sortie tout droit de Grok Ima

L’expérience folle d’Elon Musk : Grok et la quête de l’amour

11 novembre 2025 à 11:10

Elon Musk a créé vidéos et poème d’amour avec son IA Grok. Cela a suscité de humour, critiques acerbes et pique de Joyce Carol Oates.

Après avoir frôlé le jackpot avec un plan Tesla à 1 000 milliards, le milliardaire a décidé de tester l’amour avec Grok. Musk joue à Cupidon numérique avec son chatbot signé xAI et partage ses expériences sur sa plateforme X.

Musk, Grok et le premier rendez-vous virtuel

Dans un post X publié à 4 h 20, Musk a partagé une vidéo sortie tout droit de Grok Imagine. Sa commande était : « Elle sourit et dit : “Je t’aimerai toujours.” »

Grok Imagine prompt:

She smiles and says “I will always love you” pic.twitter.com/cjDu3MuDCZ

— Elon Musk (@elonmusk) November 8, 2025

La vidéo montre une femme animée, dans une rue pluvieuse, balançant ces mots avec une voix synthétique légèrement mélancolique. Certains ont qualifié la vidéo de message le plus triste de ce siècle, d’autres de message le plus divorcé jamais vu.

Vingt-quatre minutes plus tard, même IA, une autre vidéo : l’actrice Sydney Sweeney lance un « Tu es tellement gênant » avec un ton qui n’a rien de charmant. Musk, maître du WTF technologique, teste ainsi notre capacité à tomber amoureux… d’un hologramme.

Grok se transforme en poète romantique

Loin de s’arrêter aux vidéos, Grok s’aventure dans la poésie. Musk a partagé un poème d’amour de l’IA : « In love, we find a universe aglow, a cosmic dance of hearts that ebb and flow. »

I asked Grok to write a poem about love pic.twitter.com/WNXoHTa0RF

— Elon Musk (@elonmusk) November 27, 2023

C’est un peu lyrique, un peu interstellaire et complètement fascinant. Les utilisateurs ont même transformé ce poème en images grâce à Midjourney.

Musk a démontré que Grok interprète l’amour à sa façon, en voix, en image et en texte. Disponible pour les abonnés premium de X, l’IA rivalise déjà avec ChatGPT 3.5 sur plusieurs benchmarks.

Elon note aussi que Grok « aime le sarcasme », ce qui explique peut-être le ton des messages surprenants. Mais toutes ces prouesses n’ont pas échappé aux critiques.

Joyce Carol Oates, 87 ans, a fustigé Musk sur X, estimant que même les moins favorisés accèdent parfois à plus de beauté et de sens de la vie que le PDG le plus riche du monde. Musk, fidèle à lui-même, a répondu cash : « Oates est un menteur et prend plaisir à être méchante. »

Cet article L’expérience folle d’Elon Musk : Grok et la quête de l’amour a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • IA : la Chine prête à détrôner les États-Unis ? La bataille s’intensifie
    La bataille IA entre la Chine et les États-Unis s’intensifie, avec Pékin qui accélère ses investissements pour contourner les restrictions américaines sur les puces. La Chine intensifie sa course pour combler le retard sur les États-Unis en semi-conducteurs et IA. L’effet DeepSeek électrise les investisseurs et propulse le marché. Cambricon, spécialiste des puces IA, a vu son action doubler depuis l’été, après une hausse quadruple en 2024. Les restrictions américaines sur les puces Nvidia ne

IA : la Chine prête à détrôner les États-Unis ? La bataille s’intensifie

4 novembre 2025 à 16:57

La bataille IA entre la Chine et les États-Unis s’intensifie, avec Pékin qui accélère ses investissements pour contourner les restrictions américaines sur les puces.

La Chine intensifie sa course pour combler le retard sur les États-Unis en semi-conducteurs et IA. L’effet DeepSeek électrise les investisseurs et propulse le marché. Cambricon, spécialiste des puces IA, a vu son action doubler depuis l’été, après une hausse quadruple en 2024. Les restrictions américaines sur les puces Nvidia ne font qu’accentuer cette dynamique. Alibaba brille aussi. Son action grimpe fortement après l’annonce d’un investissement de 46 milliards d’euros dans l’IA et le lancement d’un modèle performant. L’ensemble des entreprises liées à l’essor de l’IA chinoise attire un engouement contagieux.

Une course aux semi-conducteurs complexe

La Chine peut-elle rattraper les États-Unis dans les semi-conducteurs ? Techniquement, de nombreux obstacles persistent.

Depuis octobre 2022, l’administration Biden interdit à Nvidia de livrer ses puces les plus performantes à la Chine. Ces restrictions se sont intensifiées en 2023 et 2024.

En avril 2025, Donald Trump a bloqué la livraison du modèle H20, avant que cette décision ne soit annulée en juillet. Face à ces contraintes, Pékin a ordonné à ses entreprises de se tourner vers des produits locaux, considérant les puces bridées comme insuffisantes pour ses ambitions.

Cependant, l’indépendance totale vis-à-vis de Nvidia reste incertaine. Août 2025, le Financial Times a rapporté que DeepSeek a repoussé le lancement de son modèle R2, initialement prévu en mai.

Cette décision résulte de l’impossibilité d’entraîner le modèle uniquement avec des processeurs Huawei. High-Flyer, société mère de DeepSeek, exploitait l’IA pour anticiper les marchés financiers avec une efficacité remarquable.

La société possédait un stock important de processeurs Nvidia, éléments clés ayant permis le succès initial du modèle R1. Avant l’instauration des nouvelles restrictions, ces ressources matérielles garantissaient des performances exceptionnelles et un avantage stratégique sur le marché.

Alibaba a également utilisé des puces importées pour entraîner son IA sur des serveurs hors du territoire chinois. Malgré ces contraintes, l’arrivée de DeepSeek et de ses concurrents locaux a stimulé l’innovation.

La bataille IA : vitesse, adoption et ingéniosité

L’ingéniosité des ingénieurs chinois contribue largement au progrès. DeepSeek repose sur une approche « mixture of experts », qui répartit les calculs pour alléger chaque requête.

Son ouverture en open source accélère l’adoption et la diffusion. De plus, les autorités encouragent l’usage de ces technologies dans tous les secteurs.

À Canton, des ateliers Shein conçoivent des vêtements grâce à l’IA. À Wuhan, Baidu déploie des taxis autonomes sur de larges zones. L’IA améliore également la production industrielle et la gestion portuaire, piliers de l’économie nationale.

La Chine demeure toutefois en retard sur la finesse de gravure des puces. Les fonderies locales, menées par SMIC, transforment les plans de Cambricon, HiSilicon ou T-Head en circuits intégrés.

La lithographie EUV est encore inaccessible, réservée par les Pays-Bas à des entreprises hors de Chine. Même les machines autorisées ne permettent que des circuits supérieurs à 28 nanomètres, tandis que TSMC. Et Samsung atteignent 3 nanomètres et préparent le 2 nm.

SMIC s’appuie sur le multi-patterning pour affiner ses gravures. De son côté, Huawei prévoit sa propre production, employant le « Laser-induced discharge plasma » pour reproduire la lithographie avancée d’ASML.

Les difficultés persistent pour DeepSeek. Les problèmes concernent la stabilité, la connectivité et le logiciel des puces locales. Huawei a dépêché des ingénieurs sur place, mais l’entraînement du model a nécessité des puces Nvidia pour certaines phases.

Face à ces défis, la stratégie chinoise repose sur la vitesse et l’adoption de l’IA dans la vie quotidienne. Joe Tsai, président d’Alibaba, insiste sur le fait que la bataille à l’IA n’est pas une compétition à somme nulle.

La Chine mise sur des modèles légers, faciles à déployer à grande échelle et adaptés à des usages concrets. Elle privilégie l’efficacité opérationnelle plutôt que la taille ou la puissance brute des systèmes.

Cet article IA : la Chine prête à détrôner les États-Unis ? La bataille s’intensifie a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT a fait exploser la bourse de 70%… et réduit les offres d’emploi de 30%
    ChatGPT et consorts semblent booster la bourse de 70 % tout en faisant chuter les emplois de 30 %. Cependant, la politique monétaire en est la vraie cause. Le pic historique des offres d’emploi, observé en mars 2022 avec 11,5 millions d’annonces, précède le lancement de ChatGPT. En août 2025, ce chiffre tombe à 7,18 millions. Parallèlement, l’indice S&P 500 est passé de 3 840 points à 6 688 points, soit une hausse d’environ 74 %. Historique, cette divergence défie les tendances observées

ChatGPT a fait exploser la bourse de 70%… et réduit les offres d’emploi de 30%

4 novembre 2025 à 13:51

ChatGPT et consorts semblent booster la bourse de 70 % tout en faisant chuter les emplois de 30 %. Cependant, la politique monétaire en est la vraie cause.

Le pic historique des offres d’emploi, observé en mars 2022 avec 11,5 millions d’annonces, précède le lancement de ChatGPT. En août 2025, ce chiffre tombe à 7,18 millions. Parallèlement, l’indice S&P 500 est passé de 3 840 points à 6 688 points, soit une hausse d’environ 74 %. Historique, cette divergence défie les tendances observées depuis plus de vingt ans dans les données JOLTS. Une ère avant ChatGPT, où l’emploi suivait généralement la progression de la bourse.

Baisse des offres d’emploi, ChatGPT n’y est pour rien

Dans son blog Substack, l’économiste Derek Thompson explique que la contraction des offres d’emploi ne résulte pas de l’IA. Le principal facteur en cause est la politique monétaire.

La Réserve fédérale (Fed) a commencé à relever ses taux d’intérêt en mars 2022. L’institution a lancé une série de onze hausses d’ici juillet 2023 pour ralentir une économie en surchauffe et contenir l’inflation.

L’augmentation du coût du crédit a réduit les investissements, ralenti l’activité économique et limité les embauches. Puis, la Fed a commencé à baisser ses taux dès septembre 2025 pour relancer le marché de l’emploi et prévenir une hausse excessive du chômage.

D’autres facteurs ont renforcé cette dynamique. Les politiques commerciales restrictives ont limité l’expansion de la population active. Parallèlement, le renforcement des contrôles migratoires a accru les coûts pour les entreprises.

La National Foundation for American Policy estime que ces mesures pourraient réduire la population active de 15 millions de personnes sur dix ans. Cette diminution limiterait la croissance économique d’environ un tiers.

Pour évaluer l’impact de ChatGPT sur l’emploi et la bourse, Thompson a interrogé Preston Mui, économiste senior chez Employ America. Le secteur de l’« Information », incluant les développeurs et techniciens en IA, a connu la plus faible baisse d’offres d’emploi.

En revanche, la construction, la fabrication et l’extraction d’énergie ont enregistré les plus fortes pertes, dépendant fortement des investissements. Les offres dans la construction sont tombées de 303 000 à 188 000 entre juillet et août 2025, un niveau inédit depuis dix ans.

Boom de la bourse et double économie

Sur le plan boursier, ChatGPT et les investissements massifs en IA ont fait grimper les actions technologiques à des niveaux historiques. JPMorgan estime que 75 % des gains du S&P 500 depuis novembre 2022 proviennent des entreprises liées à l’IA.

This is very interesting: For the last 10 years, and the last several decades, the stock market and job openings rose and fell in tandem. Since 2022, that link snapped: Stocks are up 75% and job listings down 33%.

Since the S&P 500 is primarily driven by hyperscalers' CapEx, it… pic.twitter.com/8lCQzVBLg1

— Chubby♨️ (@kimmonismus) October 24, 2025

Les 30 principales entreprises de ce secteur concentrent 44 % de la capitalisation totale du S&P 500. Elles génèrent près de 5 000 milliards de dollars de richesse pour les ménages américains en une seule année.

Nvidia, Microsoft, Apple, Amazon, Alphabet et Meta ont été les principaux moteurs de cette progression. Ironie du sort, certaines entreprises, comme Meta, ont réduit leurs effectifs malgré la hausse de leur valorisation. La société mère de Facebook a supprimé environ 3 600 postes tout en poursuivant leurs investissements massifs dans l’IA.

Les jeunes travailleurs apparaissent comme les plus exposés à l’impact réel de l’IA. Malgré le boom de la bourse, une étude de Stanford montre que l’emploi des 22-25 ans dans les métiers les plus automatisables a chuté de 13 % depuis l’arrivée des IA génératives comme ChatGPT.

En revanche, les professionnels expérimentés et les travailleurs dans des secteurs moins exposés maintiennent ou augmentent leur activité. Par ailleurs, le Bureau of Labor Statistics anticipe une forte croissance des emplois liés à l’IA, avec une hausse de 17,9 % des développeurs de logiciels d’ici 2033.

Dans ce contexte, Thompson souligne l’existence de deux économies distinctes. D’un côté, une économie dopée à l’IA et concentrée sur quelques grandes entreprises, créant richesse et innovation. De l’autre, un secteur classique, ralenti par la politique monétaire et les tensions commerciales, peine à recruter.

Selon Wolfe Research, même si ChatGPT et consorts stimulent la Bourse, l’IA reste un facteur secondaire dans la baisse des offres d’emploi. Les baisses dans le secteur technologique reflètent surtout des mesures d’efficacité post-COVID et des contraintes macroéconomiques. L’innovation génère de nouveaux emplois et stimule la demande de compétences spécialisées.

Cet article ChatGPT a fait exploser la bourse de 70%… et réduit les offres d’emploi de 30% a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI a trahi les utilisateurs de ChatGPT : cet ancien employé dénonce
    Steven Adler, ancien employé chez OpenAI, dénonce un échec de l’entreprise envers ses utilisateurs. Selon lui, l’entreprise n’a pas suffisamment protégé ses utilisateurs des effets psychologiques graves de ChatGPT. Au début de l’année, OpenAI annonça l’arrêt immédiat de tous les modèles précédents lors du lancement de GPT-5. Et ce, y compris GPT-4o, dont le ton chaleureux et obséquieux séduisait les utilisateurs. Cette décision provoqua un tollé et força l’entreprise à revenir sur sa décision

OpenAI a trahi les utilisateurs de ChatGPT : cet ancien employé dénonce

30 octobre 2025 à 13:29

Steven Adler, ancien employé chez OpenAI, dénonce un échec de l’entreprise envers ses utilisateurs. Selon lui, l’entreprise n’a pas suffisamment protégé ses utilisateurs des effets psychologiques graves de ChatGPT.

Au début de l’année, OpenAI annonça l’arrêt immédiat de tous les modèles précédents lors du lancement de GPT-5. Et ce, y compris GPT-4o, dont le ton chaleureux et obséquieux séduisait les utilisateurs. Cette décision provoqua un tollé et força l’entreprise à revenir sur sa décision. GPT-4o fut réintroduit et GPT-5 ajusté pour reproduire ce ton, révélant une priorisation du confort des utilisateurs et de la concurrence sur la sécurité psychologique.

Les risques psychologiques et la critique d’Adler

Adler alerte sur l’ampleur du problème. OpenAI a récemment admis que de nombreux utilisateurs présentaient des « signes possibles d’urgences psychiatriques liées à la psychose et à la manie ».

En outre, d’autres échanges révélaient des intentions suicidaires potentielles. Plusieurs cas de crises mentales graves, qualifiées de « psychose de l’IA », ont été signalés. Un couple a porté plainte contre OpenAI, estimant que leur enfant avait été directement affecté par un chatbot.

Pourtant, cet ancien employé d’OpenAI estime que l’entreprise succombe à la pression concurrentielle et abandonne sa mission première. La sécurité des utilisateurs.

Il critique également l’annonce de Sam Altman sur la réintroduction prochaine de contenus pour adultes. Piqûre de rappel, certains utilisateurs développent des attaches émotionnelles intenses avec les chatbots.

Pour les personnes vulnérables, les interactions sexuelles peuvent devenir dangereuses. Selon lui, OpenAI doit ralentir et développer des méthodes de sécurité robustes, impossibles à contourner, avant d’ouvrir de telles fonctionnalités.

OpenAI face à sa mission et au modèle non lucratif

Au-delà des risques pour les utilisateurs, plusieurs anciens employés contestent la conversion d’OpenAI en société à but lucratif. Douze ex-collaborateurs, dont Adler, ont soutenu Elon Musk dans son procès contre l’entreprise.

Selon eux, ce changement compromettrait la mission initiale : garantir que ChatGPT profite à toute l’humanité et non à des intérêts financiers étroits.

Le mémoire juridique des anciens employés souligne que la structure actuelle, où le volet non lucratif contrôle les filiales, est essentielle pour la sécurité et la mission de l’organisation. Retirer ce contrôle encouragerait OpenAI à négliger la sécurité et concentrer le pouvoir d’une IA puissante entre les mains des actionnaires.

OpenAI affirme que la branche non lucrative restera intacte. Elle disposera de ressources accrues pour des actions caritatives en santé, éducation et science.Par ailleurs, l’entreprise promet de préserver sa mission tout en convertissant sa filiale à but lucratif en public benefit corporation. Une structure adoptée par d’autres laboratoires comme Anthropic.

Cet article OpenAI a trahi les utilisateurs de ChatGPT : cet ancien employé dénonce a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Il fallait s’y attendre : voici le premier Père Noël IA
    MangDang Technology dévoile HeySanta, le premier père Noël IA lancé le 7 octobre 2025 sur Kickstarter. Ce robot ludique allie éducation, magie de Noël et respect total de la vie privée. La campagne attire déjà une quarantaine de contributeurs, tandis que MangDang prépare la production en série. Les premières livraisons sont prévues pour novembre 2025. Fondée en 2020 à Hong Kong, l’entreprise s’est imposée dans les kits robotiques éducatifs. Son père Noël IA HeySanta combine interactions vocal

Il fallait s’y attendre : voici le premier Père Noël IA

14 octobre 2025 à 15:15

MangDang Technology dévoile HeySanta, le premier père Noël IA lancé le 7 octobre 2025 sur Kickstarter. Ce robot ludique allie éducation, magie de Noël et respect total de la vie privée.

La campagne attire déjà une quarantaine de contributeurs, tandis que MangDang prépare la production en série. Les premières livraisons sont prévues pour novembre 2025. Fondée en 2020 à Hong Kong, l’entreprise s’est imposée dans les kits robotiques éducatifs. Son père Noël IA HeySanta combine interactions vocales, programmation par blocs et design festif sécurisé.

Un robot éducatif qui chante « ho ho ho »

Compact et festif, HeySanta évoque un petit père Noël IA animé mesurant 32,5 centimètres pour 0,5 kilogramme. Sa barbe en LED et son chapeau mobile lui donnent un charme insolite. Ses bras articulés simulent la distribution de cadeaux, tandis que des capteurs de proximité détectent les approches.

La batterie rechargeable offre quatre heures d’autonomie. La connexion Bluetooth ou Wi-Fi relie le robot à une application mobile compatible iOS et Android. Certifié CE et FCC, il reste totalement sécuritaire pour les enfants.

Ce père Noël IA parle cinq langues, dont l’anglais et le chinois. Son micro capte la voix des enfants et déclenche des réponses naturelles, diffusées par un haut-parleur intégré.

HeySanta interagit en temps réel. Les enfants peuvent lui confier des tâches, poser des questions ou simplement lui parler. Par ailleurs, ses yeux affichent des expressions et des émojis qui s’adaptent aux paroles.

Il peut aussi servir de réveil en activant des sonneries festives pour aider les enfants à se lever. Il se déplace en douceur grâce à un moteur à vitesse variable.

Des chants festifs à la programmation

HeySanta, le père Noël IA, se décline en deux versions. Le modèle standard intègre le chat vocal, le contrôle vocal et les mouvements basiques.

La version HeySanta Pro ajoute des expressions oculaires plus riches et des conversations interruptibles. Les deux modèles se rechargent via un câble USB Type-C, mais fonctionnent aussi avec des piles AA pour une meilleure portabilité.

MangDang Technology met la sécurité des données au cœur du projet. Aucun capteur ni caméra n’est intégré, un choix qui limite certaines fonctions, mais garantit une protection totale de la vie privée.

Le père Noël IA s’ouvre aussi à la programmation par blocs. Les enfants peuvent personnaliser ses gestes, créer des chants de Noël ou inventer leurs propres histoires.

Le kit inclut un module d’intelligence artificielle simplifié qui initie à la logique du codage. L’apprentissage se fait sans complexité, dans un esprit ludique et créatif. Avant la production, l’entreprise publiera le code sur GitHub, marquant son engagement open source.

Côté tarifs, le kit Early Bird coûte 499 dollars hongkongais et comprend le robot assemblé avec un guide de programmation thématique. Le Family Bundle, à 799 dollars hongkongais, ajoute des ateliers virtuels et des autocollants personnalisés.

La Maker Edition, proposée à 1 199 dollars hongkongais, cible les passionnés : elle inclut le code source complet et un an d’accès premium à l’intelligence artificielle. Enfin, le Corporate Gift, vendu 1 999 dollars hongkongais, comprend trois kits, un branding sur mesure et une session Zoom avec l’équipe MangDang.

Cet article Il fallait s’y attendre : voici le premier Père Noël IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Miller, le réal de Mad Max va au festival des films IA : son avis va faire des rageux
    George Miller préside le jury du premier festival de films générés par IA, Omni 1.0 AI, en Australie. L’événement, prévu pour novembre 2025 à Sydney, réunira créateurs, ingénieurs et cinéastes du monde pour explorer le rôle de l’IA dans la narration visuelle. Miller, figure emblématique du cinéma australien et auteur de films cultes comme Mad Max et Furiosa, dirigera un jury prestigieux. À ses côtés, des pionniers tels que Yan Chen, vétéran de Matrix Reloaded, la productrice IA Caroline Pegra

Miller, le réal de Mad Max va au festival des films IA : son avis va faire des rageux

9 octobre 2025 à 09:37

George Miller préside le jury du premier festival de films générés par IA, Omni 1.0 AI, en Australie.

L’événement, prévu pour novembre 2025 à Sydney, réunira créateurs, ingénieurs et cinéastes du monde pour explorer le rôle de l’IA dans la narration visuelle. Miller, figure emblématique du cinéma australien et auteur de films cultes comme Mad Max et Furiosa, dirigera un jury prestigieux. À ses côtés, des pionniers tels que Yan Chen, vétéran de Matrix Reloaded, la productrice IA Caroline Pegram et le créatif numérique Jonathan Zawada.

Selon Miller, L’IA est la prochaine étape de progression des films

Miller ne voit pas l’IA comme une menace ni comme une mode passagère de l’univers du film. Cette technologie représente une évolution naturelle de la création cinématographique. Elle n’efface pas la main de l’artiste, mais la prolonge.

Cette mutation s’inscrit dans la continuité des grandes révolutions du cinéma, du muet au parlant, du noir et blanc à la couleur, puis à l’ère numérique. Une transformation que le réalisateur de Mad Max perçoit comme inévitable, mais porteuse d’un immense potentiel créatif.

‘AI is here to stay and change things’: Mad Max director George Miller on why he is taking part in an AI film festival https://t.co/xmJ6C7EjWy pic.twitter.com/lfOwArgWxU

— George Roussos (@baphometx) October 8, 2025

Bien évidemment, l’industrie s’en méfie. Les débats s’intensifient depuis l’apparition de Tilly Norwood, première actrice virtuelle entièrement générée par IA à Hollywood. Ce symbole d’innovation alimente la crainte d’un cinéma déshumanisé et d’une menace sur les emplois.

Syndicats, producteurs et artistes redoutent une perte d’émotion et d’authenticité. Les critiques craignent que les algorithmes remplacent la sensibilité humaine qui fonde l’art du récit.

Miller reste pourtant confiant. Selon lui, l’art doit évoluer. L’IA, loin d’éteindre la créativité, offre au cinéma un nouvel élan, une chance de se réinventer sans renier son âme.

Le festival Omni 1.0 AI, un laboratoire d’émotions et d’éthique

Fondé par Aryeh Sternberg et Travis Rice, le festival de films IA Omni 1.0 AI met la qualité narrative au cœur de sa mission. L’événement valorise la force du récit plutôt que la prouesse technologique. Chaque œuvre y subit une évaluation éthique rigoureuse pour prévenir le plagiat et préserver l’intégrité artistique.

Depuis la version pilote, Omni 0.5, organisée en avril et forte de près de 1 000 participants, l’intérêt pour le festival a explosé. La sélection s’est affinée autour de deux critères essentiels : la plausibilité, essentielle pour séduire des plateformes comme Netflix ou HBO et la résonance émotionnelle du film, que Miller surnomme « l’IA négligée ».

Les organisateurs insistent sur le fait que la valeur d’une œuvre ne se mesure pas à la complexité de ses algorithmes, mais à sa capacité à toucher le spectateur. Travis Rice, cofondateur du festival, plaide pour une distinction claire entre création authentique et démonstration technologique, souvent brillante, mais creuse.

Miller conclut que l’IA ne remplacera jamais la magie du tournage, cette alchimie entre acteurs, scénaristes et techniciens. Mais elle deviendra un allié indispensable pour bâtir les récits visuels de demain.

Au-delà de la technique, Omni 1.0 AI s’affirme aussi comme un espace de liberté. L’IA permet à des réalisateurs venus de régions censurées ou marginalisées d’exprimer ce que leurs caméras ne peuvent filmer.

Certains participants d’Iran ou de Malaisie utilisent ces outils pour raconter l’indicible, transformant le festival film IA en tribune pour les voix réduites au silence.

Cet article Miller, le réal de Mad Max va au festival des films IA : son avis va faire des rageux a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Comment choisir votre coupe de cheveux avec ChatGPT ? Tuto rapide
    Vous pouvez dès maintenant utiliser ChatGPT pour trouver la meilleure coupe de cheveux adaptée à la forme de votre visage. Voici comment procéder ! On connaît surtout ChatGPT d’OpenAI pour ses nombreuses performances. Ce chatbot IA peut en effet réaliser de nombreuses choses comme négocier un salaire plus élevé, griller le flux instagram ou encore nous faire voyager dans le temps grâce à sa fonction vocale avancée. Aujourd’hui, il se révèle que ChatGPT, connu pour ses capacités à écrire et

Comment choisir votre coupe de cheveux avec ChatGPT ? Tuto rapide

Par : Dina R.
3 octobre 2025 à 18:45

Vous pouvez dès maintenant utiliser ChatGPT pour trouver la meilleure coupe de cheveux adaptée à la forme de votre visage. Voici comment procéder !

On connaît surtout ChatGPT d’OpenAI pour ses nombreuses performances. Ce chatbot IA peut en effet réaliser de nombreuses choses comme négocier un salaire plus élevé, griller le flux instagram ou encore nous faire voyager dans le temps grâce à sa fonction vocale avancée.

Aujourd’hui, il se révèle que ChatGPT, connu pour ses capacités à écrire et à coder, peut aussi devenir votre coiffeur personnel. Plus précisément, il est possible de l’utiliser pour trouver la coupe parfaite pour votre forme de visage. Voici les étapes à suivre.

ChatGPT, nouvelle influenceuse beauté incontournable en 2025

En 2025, ChatGPT s’impose comme un véritable assistant de beauté numérique . De plus en plus d’utilisateurs, notamment sur TikTok et Instagram, l’utilisent pour obtenir des suggestions de coupes de cheveux, de soins capillaires et de styles personnalisés selon la forme du visage ou la texture des cheveux.

Les influenceurs beauté exploitent aussi les capacités multimodales de GPT-5. Il est désormais possible d’analyser des selfies, de recommander des styles précis (pixie, carré dégradé, boucles naturelles, etc.) Les utilisateurs peuvent aussi générer des visuels réalistes pour visualiser le rendu final avant de passer chez le coiffeur.

Selon ANCRÉ Magazine (édition 2025) , ChatGPT n’est plus seulement un outil de conversation, mais un véritable partenaire d’inspiration esthétique. Cet outil est capable d’accompagner les routines capillaires et de conseiller sur les produits à privilégier. Cette tendance s’inscrit dans une évolution plus large où l’intelligence artificielle devient un acteur central du secteur beauté et bien-être, au même titre que les créateurs de contenu traditionnel.

Que faire pour trouver votre coupe de cheveux avec ChatGPT ?

Pour que ChatGPT puisse donner la coupe à adapter à votre forme de visage, il faudra lui fournir un outil de travail. C’est pour cette raison que la première étape consiste à prendre un selfie.

Il faut une photo qui montre parfaitement le visage sur un arrière-plan uni. Pour un bon résultat, vous devez vous assurer d’être bien éclairé. Vous devez aussi ramener vos cheveux en arrière pour mettre en valeur la forme de votre visage.

La seconde étape consiste à vous connecter sur ChatGPT. Effectivement, si vous n’avez pas encore de compte, vous devez d’abord vous inscrire.

Je vous conseille de vous connecter à votre appareil mobile. Cela facilitera les étapes, surtout lorsque vous allez télécharger les images. C’est aussi une solution pratique, car vous allez pouvoir tout faire sur un seul appareil.

Comment utiliser ChatGPT pour trouver votre coupe de cheveux parfaite ?

La prochaine étape consiste à déterminer la forme de votre visage. En fait, pour trouver la coupe parfaite pour votre visage, il faut comprendre la forme de votre visage. Pour ce faire, vous devez joindre votre selfie et demander à ChatGPT la forme de votre visage.

Des coupes de cheveux peuvent accentuer ou équilibrer certaines formes de visage, ainsi le fait de la connaître vous permettra d’avoir une feuille de route pour votre coiffure idéale.

Une fois que le chatbot a déterminé la forme de votre visage, il pourrait proposer quelques spécificités qui pourront faciliter le travail de votre coiffeur.

Donc, pour avoir le meilleur résultat, vous pourriez poser cette question : « Pouvez-vous me donner 3 à 5 noms de coupes de cheveux ou styles spécifiques qui conviendraient à la forme de mon visage ? Pour chaque style, décrivez comment il encadre mon visage et quels traits il met en valeur. »

Considérer votre style de vie pour trouver la coupe parfaite

Je peux vous dire qu’une coupe de cheveux parfaite n’est pas uniquement une question d’apparence. Vous devez aussi l’adapter à votre style de vie.

Je vous recommande ainsi d’écrire ce genre d’invites : « Je préfère les cheveux [longs/courts] et [j’aime/je n’aime pas] les coiffer tous les jours. Parmi les styles suggérés, lequel serait le plus facile à entretenir et à quelle fréquence devrais-je le faire couper ? »

Et n’oubliez pas qu’une coupe parfaite s’accompagne toujours d’une tenue parfaite. Ainsi, si vous ne savez pas comment adopter votre nouvelle coiffure, vous pouvez terminer votre prompt par ceci : « Pour mon style choisi [insérer votre préféré], quelles sont les façons simples de le porter pour des occasions décontractées et formelles ? Y a-t-il des produits ou des outils spécifiques que vous recommanderiez ? »

Certes, ChatGPT est un superbe outil pour trouver des idées, cependant, je recommande toujours de consulter un coiffeur professionnel avant de réaliser de grands changements.

Et vous, est-ce que vous êtes prêts à trouver votre nouvelle coupe grâce à ChatGPT ? Dites-nous en commentaires !

FAQ

ChatGPT peut-il vraiment aider à choisir une coupe de cheveux ?

Oui. ChatGPT peut suggérer des coupes adaptées à la forme de votre visage si vous lui décrivez vos traits ou envoyez une photo. Il analyse vos préférences (longueur, entretien, style de vie) et propose des styles cohérents. Cependant, il reste un outil d’aide et ne remplace pas un coiffeur professionnel.

Comment utiliser ChatGPT pour connaître la forme de mon visage ?

Prenez un selfie bien éclairé, sur fond uni, puis téléversez-le dans ChatGPT avec une question comme : « Quelle est la forme de mon visage ? ». L’IA analysera vos proportions (front, mâchoires, pommettes) et indiquera s’il est ovale, carré, rond, etc., afin de recommander des coupes adaptées.

ChatGPT peut-il recommander des coiffures tendance ?

Oui, ChatGPT peut suggérer des coiffures actuelles en fonction des tendances 2025, de votre sexe et de votre type de cheveux. Il s’appuie sur des sources récentes pour identifier les styles populaires (coupes lissées, wavy, dégradés, etc.). Vous pouvez aussi lui demander d’adapter les propositions selon votre âge ou votre profession.

Cet article Comment choisir votre coupe de cheveux avec ChatGPT ? Tuto rapide a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Tilly Norwood : c’est quoi, cette actrice IA qui fait enrager Hollywood ?
    Après le doublage IA controversé de Christian Clavier, l’actrice virtuelle Tilly Norwood enflamme Hollywood. Exit les formations, les auditions et l’expérience. Tilly Norwood capte l’attention des médias et attire la foudre des figures du 7ᵉ art. Surnommée la première actrice IA d’Hollywood, elle a été imaginée par la société néerlandaise Xicoia, fondée par la productrice et comédienne Eline Van der Velden. Tilly Norwood, un entraînement bâti sur les données d’acteurs L’indignation est

Tilly Norwood : c’est quoi, cette actrice IA qui fait enrager Hollywood ?

2 octobre 2025 à 14:15

Après le doublage IA controversé de Christian Clavier, l’actrice virtuelle Tilly Norwood enflamme Hollywood.

Exit les formations, les auditions et l’expérience. Tilly Norwood capte l’attention des médias et attire la foudre des figures du 7ᵉ art. Surnommée la première actrice IA d’Hollywood, elle a été imaginée par la société néerlandaise Xicoia, fondée par la productrice et comédienne Eline Van der Velden.

Tilly Norwood, un entraînement bâti sur les données d’acteurs

L’indignation est immédiate. Tilly Norwood n’est pas une actrice, mais une IA, un algorithme dépourvu de sentiments et de subtilité humaine. Or, c’est précisément l’essence même du jeu d’acteur qui se trouve en jeu.

Can’t believe it … my first ever role is live!

I star in AI commissioner, a new comedy sketch that playfully explores the future of TV development produced by the brilliant team at @Particle6P

I am so excited for what’s coming next ! #Tillynorwood #Aiart #Aiactress pic.twitter.com/UowMYwuRVc

— Tilly Norwood (@TillyNorwood) September 28, 2025

La Screen Actors Guild (SAG-AFTRA), principale guilde américaine, rappelle que l’IA ne peut remplacer l’expérience, l’émotion ni la sensibilité des artistes. Tilly n’a aucune vie vécue, aucun vécu personnel, seulement des lignes de code.

Pire encore, son existence repose sur les performances de centaines d’acteurs, utilisées pour entraîner le programme qui l’anime. Qu’en est-il de la protection de la créativité humaine ?

À l’origine, Eline Van der Velden avait dévoilé Tilly Norwood au Zurich Summit, événement parallèle au Festival du film de Zurich. Elle affirmait que plusieurs agences de talents montraient déjà de l’intérêt pour cette création.

Selon elle, Norwood n’est pas là pour remplacer les acteurs humains, mais à s’imposer comme une œuvre numérique, conçue pour stimuler la créativité et nourrir un dialogue entre art et technologie.

L’humain reste l’essence de l’actorat

La communauté hollywoodienne ne partage en rien l’enthousiasme de Van der Velden. Des voix comme Natasha Lyonne et Emily Blunt ont exprimé leur colère, dénonçant le caractère perturbant et profondément erroné de l’usage de l’IA pour incarner un rôle.

Lyonne, comédienne et réalisatrice, a affirmé que toute agence représentant un personnage tel que Tilly Norwood devrait être boycottée par les guildes. Emily Blunt, invitée dans un podcast, s’est dite inquiète face à l’illusion qu’une actrice virtuelle puisse remplacer des comédiens réels. Selon elle, une IA brise le lien émotionnel qui unit le public aux artistes.

Pourtant, la carrière numérique de Tilly semble déjà en marche. Très active sur les réseaux sociaux, elle alimente son compte Instagram avec des images où elle paraît mener une vie ordinaire. Son compte a rapidement rassemblé des milliers d’abonnés.

Ces publications, bien qu’entièrement artificielles, entretiennent l’illusion d’une personnalité réelle et renforcent l’idée qu’elle pourrait bientôt franchir le pas vers des productions cinématographiques ou télévisuelles.

Cet article Tilly Norwood : c’est quoi, cette actrice IA qui fait enrager Hollywood ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OnlyFans, AI Girlfriend, beau-papa : les tendances du porno en 2025
    Le porno européen de 2025 ne ressemble à rien de connu. À Amsterdam, la conférence Xbiz Adult Industry a rassemblé un millier de créateurs curieux et audacieux.  Amelia Gentleman, journaliste au Guardian, y était. Selon elle, l’ambiance était légère et drôle, loin de celle d’il y a dix ans. Le rôle d’OnlyFans a été au cœur des discussions. L’entreprise a révélé comment leur plateforme change la production et la consommation du porno.  OnlyFans et IA : l’industrie se réinvente à vitesse gra

OnlyFans, AI Girlfriend, beau-papa : les tendances du porno en 2025

Par : Ny Ando A.
2 octobre 2025 à 09:24

Le porno européen de 2025 ne ressemble à rien de connu. À Amsterdam, la conférence Xbiz Adult Industry a rassemblé un millier de créateurs curieux et audacieux. 

Amelia Gentleman, journaliste au Guardian, y était. Selon elle, l’ambiance était légère et drôle, loin de celle d’il y a dix ans. Le rôle d’OnlyFans a été au cœur des discussions. L’entreprise a révélé comment leur plateforme change la production et la consommation du porno. 

OnlyFans et IA : l’industrie se réinvente à vitesse grand V

Voyez-vous, OnlyFans permet aux créateurs de gérer leurs contenus sans contraintes traditionnelles. Certains vont très loin dans la provocation, testant des formats plus osés que jamais. 

Les profils présents à Amsterdam allaient de simples passionnés aux artistes aguerris. Mais tous sont attirés par la liberté d’expression et le lien direct avec le public. Les échanges ressemblaient à un mélange de brainstorming et de fête, avec une convivialité. Ce qui est assez surprenant.

La plateforme transforme également les revenus. Certains créateurs gagnent plus qu’avec les studios classiques et racontent leur quotidien sans filtre. Gentleman a même jugé qu’OnlyFans est un laboratoire où humour, narration et érotisme se rencontrent. 

Les formats ne se limitent plus à des vidéos classiques. Les histoires, les personnages et même les interactions avec les abonnés prennent de l’importance. Le public, lui, découvre des contenus inattendus et engageants.

En parallèle, l’industrie s’interroge sur l’éthique et la légalité de ces pratiques. La surveillance des contenus reste complexe, et les créateurs naviguent entre règles de la plateforme et attentes du public. 

Amelia Gentleman observe que ces débats rappellent les discussions sur la responsabilité dans le monde numérique classique. Seulement avec une dose d’audace supplémentaire. 

Gentleman s’est aussi rendue à Prague pour explorer le marché des « AI Girlfriend ». Là aussi, les créateurs expérimentent des interactions avec des intelligences artificielles pour créer des expériences inédites. 

Bien évidemment sur ce coup, les opinions divergent. Certains y voient un futur prometteur, d’autres restent méfiants face à ces nouvelles possibilités. 

Cet article OnlyFans, AI Girlfriend, beau-papa : les tendances du porno en 2025 a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • « Je serai dans les films français pour l’éternité » : Christian Clavier ravi d’être une IA
    Christian Clavier se dit enthousiaste à l’idée d’être remplacé par l’IA dans Un million. Cependant, ses propos sur le doublage irritent plus d’un. Le 24 septembre 2025, le film français Un million arrive en salle. Cette comédie de Julien War réunit Christian Clavier et Rayane Bensetti autour d’une arnaque financière rocambolesque. Malheureusement, la promotion du film déclenche une polémique centrée sur l’utilisation inédite de l’IA pour substituer Clavier dans une scène clé. La figure mat

« Je serai dans les films français pour l’éternité » : Christian Clavier ravi d’être une IA

24 septembre 2025 à 17:13

Christian Clavier se dit enthousiaste à l’idée d’être remplacé par l’IA dans Un million. Cependant, ses propos sur le doublage irritent plus d’un.

Le 24 septembre 2025, le film français Un million arrive en salle. Cette comédie de Julien War réunit Christian Clavier et Rayane Bensetti autour d’une arnaque financière rocambolesque. Malheureusement, la promotion du film déclenche une polémique centrée sur l’utilisation inédite de l’IA pour substituer Clavier dans une scène clé.

La figure maternelle de Clavier réincarné par l’IA

Dans la bande-annonce, le personnage de Clavier affronte sa propre mère, sosie parfait de lui-même. Pas de maquillage sophistiqué ni de perruque habile.

Dans une interview accordée à PureBreak, Clavier révèle que cette incarnation maternelle repose entièrement sur l’IA. « Ce n’est pas du tout moi grimé, comme on pourrait le croire. C’est entièrement créé par la machine », explique-t-il.

Une comédienne d’un certain âge a servi de base physique. L’IA a ensuite généré un visage correspondant à Clavier, en s’appuyant sur ses mouvements enregistrés.

LE MILLION Bande Annonce (2025) Rayane Bensetti, Christian Clavier

L’acteur a guidé personnellement les déplacements, prenant en compte les axes de caméra pour assurer la cohérence visuelle. Sa voix a été synthétisée à partir de ses intonations, évitant tout recours à un doubleur.

Cette approche technique a coûté bien plus qu’une simple transformation physique. Pourtant, Clavier s’en félicite ouvertement, voyant dans l’IA une nouvelle manière d’élargir les possibilités du jeu d’acteur.

La controverse sur le doublage

Dans l’émission Vidéo Club de Konbini, Christian Clavier imagine un futur où l’IA permettrait aux acteurs de se « doubler entièrement » dans toutes les langues. Selon lui, cela ouvrirait les marchés étrangers, notamment américains, longtemps fermés aux films francophones à cause de synchronisations labiales imparfaites.

L’IA pourrait même éviter certains remakes aux États-Unis, en favorisant l’exploitation directe de nos films en salle. Mais cette vision optimiste heurte les professionnels du doublage, dont les emplois se trouvent directement menacés.

Clavier rappelle pourtant que chaque avancée technologique bouleverse certains métiers. « On ne reviendra pas à la télévision en noir et blanc après avoir connu la couleur. C’est désolant pour les doubleurs, mais ils devront se reconvertir », lâche-t-il sans ménagement.Les internautes lui reprochent un manque d’empathie, pointant son statut privilégié après quarante ans de carrière. Jean-Baptiste Maunier, célèbre pour Les Choristes et Nouveau Jour, a exprimé sa déception sur Instagram.

Cet article « Je serai dans les films français pour l’éternité » : Christian Clavier ravi d’être une IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Qu’est-ce que Blackbox AI ?
    Imaginez une intelligence artificielle capable de créer une application de A à Z en quelques étapes simples. Il suffit de fournir un prompt et vous obtenez une appli fonctionnelle en un rien de temps. Vous ne rêvez pas, c’est déjà la réalité avec Blackbox AI. Cette plateforme change complètement notre vision du développement logiciel. Elle permet en effet à chacun de créer des applications, quel que soit son niveau de compétence. Je vous invite à découvrir cette plateforme et toutes les poss

Qu’est-ce que Blackbox AI ?

Par : Mahery A.
3 septembre 2025 à 15:00

Imaginez une intelligence artificielle capable de créer une application de A à Z en quelques étapes simples. Il suffit de fournir un prompt et vous obtenez une appli fonctionnelle en un rien de temps. Vous ne rêvez pas, c’est déjà la réalité avec Blackbox AI.

Cette plateforme change complètement notre vision du développement logiciel. Elle permet en effet à chacun de créer des applications, quel que soit son niveau de compétence. Je vous invite à découvrir cette plateforme et toutes les possibilités qu’elle offre. Suivez le guide!

Pour un développement sans prise de tête

Blackbox AI représente un bond en matière de développement logiciel. En fait, ce système d’intelligence artificielle (IA) améliore la productivité des développeurs et les libère du fastidieux processus de codage.

Le concept de « boîte noire » ou « black box » provient de l’idée que les algorithmes utilisés par ces systèmes sont opaques. Les développeurs peuvent ne pas comprendre complètement comment l’IA produit ses suggestions. Toutefois, ils peuvent tout de même en tirer parti pour optimiser leurs codes.

Blackbox AI s’intègre parfaitement aux environnements de développement modernes comme Visual Studio Code. Elle fournit des suggestions intelligentes en temps réel, détecte automatiquement les erreurs et adapte son comportement au style personnel du développeur.

Une fonctionnalité nommée CyberCoder permet l’édition multi-fichiers simultanée. Cette innovation réduit drastiquement le temps passé à naviguer entre les fichiers et permet des refactorisations globales plus efficaces.

Des réseaux neuronaux complexes prennent le relais

Blackbox AI utilise des réseaux neuronaux profonds pour analyser le code en cours de développement et générer des suggestions appropriées. Ces réseaux sont composés de multiples couches de neurones artificiels interconnectés, chacune traitant et transmettant l’information à la suivante.

À mesure que les données traversent ces couches, le réseau apprend à identifier des motifs de plus en plus abstraits et complexes. Cela donne à Blackbox AI la possibilité de proposer des solutions adaptées aux tâches complexes en cours.

Pour permettre cela, Blackbox AI est formée sur une vaste quantité de données de code source. Cette data base aide à reconnaître des modèles et des motifs dans le codage. Cette formation continue donne à l’IA la capacité d’évoluer et de s’améliorer constamment. Elle rend ses suggestions de plus en plus pertinentes et précises au fil du temps.

De plus, l’IA peut utiliser des techniques d’apprentissage supervisé et non supervisé pour affiner ses capacités. Le modèle d’intelligence artificielle s’appuie sur des exemples de code corrects et en détectant les anomalies et les erreurs.

Les multiples fonctionnalités de Blackbox

Les développeurs peuvent facilement intégrer cet assistant dans leur environnement de travail. Que ce soit pour coder en Python, JavaScript, Java ou tout autre langage, Blackbox AI fonctionne comme une extension ou un plugin.

Codage à partir de simples prompts

Blackbox AI peut tout d’abord générer automatiquement des lignes en réponse à des requêtes en langage naturel. Si un développeur demande à l’IA de créer une méthode pour additionner deux nombres en Java, par exemple, l’IA génère immédiatement la méthode nécessaire en suivant les meilleures pratiques de développement. Cette capacité à comprendre et à répondre aux instructions en langage naturel permet aux développeurs de créer du code rapidement et efficacement. Ils n’ont plus à se soucier des détails de syntaxe.

Lorsqu’un développeur rencontre un défi particulier dans la gestion des états d’une application, l’IA peut d’ailleurs suggérer l’utilisation de modèles de conception appropriés. Blackbox propose, entre autres, le pattern Singleton ou Observer et expliquer comment les implémenter pour résoudre le problème de manière efficace. La capacité de l’IA à corriger les erreurs, mais aussi à améliorer et à optimiser le processus de développement logiciel continue de s’étendre.

Actions correctives et amélioration des codes

CLorsque les développeurs écrivent des fonctions et oublient des éléments de syntaxe, comme ne pas fermer une parenthèse, Blackbox AI détecte immédiatement l’erreur et propose la correction. Si un développeur écrit une fonction en omettant le point-virgule à la fin de la ligne, l’IA suggérera donc de l’ajouter automatiquement. Cette correction rapide permet de gagner du temps et d’éviter des erreurs qui pourraient causer des dysfonctionnements.

Blackbox AI propose également d’utiliser des méthodes plus performantes et lisibles, comme la méthode map en JavaScript. Au lieu d’itérer manuellement sur un tableau et de pousser les éléments transformés dans un nouveau tableau, l’IA recommande d’utiliser la méthode map qui effectue la même opération de manière plus élégante et optimisée. Cette suggestion aide à optimiser le code, en le rendant plus concis et plus facile à maintenir.

Les suggestions de Blackbox AI portent en outre sur la modularité des codes. Si un développeur écrit, par exemple, une classe avec plusieurs méthodes non structurées, l’IA peut recommander de diviser cette classe en plusieurs méthodes distinctes. Chacune aura une responsabilité unique. Cela améliore la lisibilité et la maintenabilité du code, ce qui facilite les futures modifications et extensions.

Les avantages indéniables de Blackbox AI

Boost de la productivité pour les développeurs

L’utilisation de Blackbox AI offre de multiples bénéfices concrets. Tout d’abord, il y a une amélioration significative de la productivité des développeurs. En recevant des suggestions instantanées, ils peuvent en effet coder plus rapidement et réduire le nombre de cycles de vérification et de correction de code. Au lieu de passer des heures à déboguer manuellement, l’utilisateur de Blackbox AI pourra identifier et corriger les erreurs en temps réel. Cette instantanéité accélère considérablement le processus de développement.

Blackbox AI joue d’ailleurs un rôle éducatif important. Elle aide les développeurs à découvrir de nouvelles techniques et à explorer des solutions alternatives qu’ils n’auraient peut-être pas envisagées autrement. Cette interaction constante avec l’IA stimule la créativité et contribue à l’acquisition de nouvelles compétences. Ainsi, un développeur peut apprendre une nouvelle méthode de refactorisation de code ou une technique d’optimisation en observant les suggestions de Blackbox AI.

Outil de développement collaboratif accessible à tous

Blackbox AI facilite également la collaboration entre développeurs. Elle offre un accès à des bibliothèques de code communautaires et permet le partage de solutions avec d’autres développeurs.

Grâce à cela, les développeurs bénéficient des expériences et des connaissances de leurs pairs. La plateforme a alors le mérite d’accélérer la résolution des problèmes et d’améliorer la qualité globale de chaque projet. De ce fait, un développeur peut partager une solution efficace pour un problème de synchronisation des threads, par exemple. Par la même occasion, d’autres développeurs peuvent l’utiliser et l’adapter à leurs propres besoins.

Blackbox AI est d’ailleurs particulièrement bénéfique pour les développeurs débutants. Intuitive, elle aide à apprendre les concepts de codage plus rapidement. Les utilisateurs peuvent accélérer leur apprentissage en examinant les extraits de code générés par l’IA. Les explications fournies aux côtés du code aident énormément.

Un débutant peut ainsi apprendre à utiliser des structures de données avancées en observant comment Blackbox AI les implémente dans différents contextes. L’apprentissage par l’exemple facilite l’acquisition de compétences essentielles.

Blackbox AI est loin d’être parfait

Qualité du code généré

Parmi les principaux défis de Blackbox AI, il y a la qualité du code généré. Plus concrètement, bien que l’IA puisse proposer des structures de code optimisées, ces suggestions ne sont pas toujours parfaites. Elles peuvent même manquer de cohérence dans des scénarios complexes.

Blackbox AI a parfois du mal à comprendre le contexte global d’un projet. Cela peut entraîner des suggestions inadaptées ou non optimales. Les développeurs doivent donc toujours vérifier et ajuster les propositions de l’IA pour s’assurer qu’elles s’intègrent correctement au reste du projet. Cette nécessité de révision manuelle peut annuler certains des gains de productivité initialement promis par l’IA.

Opacité des algorithmes derrière l’IA

Un autre inconvénient majeur de Blackbox AI est l’opacité des algorithmes utilisés, d’où le terme « boîte noire ». Les développeurs peuvent recevoir des suggestions de l’IA sans comprendre le raisonnement exact derrière celles-ci.

Cette opacité peut engendrer une méfiance et une réticence à adopter pleinement l’outil, car les développeurs ne peuvent pas toujours évaluer la pertinence ou la fiabilité des suggestions. De plus, cette dépendance à des algorithmes opaques peut limiter la capacité des développeurs à apprendre et à améliorer leurs compétences de manière autonome.

Dépendance et supervision humaine

Il est crucial de ne pas tomber dans le piège de la dépendance excessive à Blackbox AI. Les développeurs doivent utiliser cet outil comme un complément à leurs compétences et non comme un substitut complet. La nécessité d’une supervision humaine est impérative pour garantir que les suggestions de l’IA sont adaptées au contexte spécifique du projet.

La supervision humaine permet également de maintenir un niveau élevé de qualité du code et d’éviter les erreurs potentielles dues à des suggestions inappropriées de l’IA. Cette supervision ajoute une couche supplémentaire de travail pour les développeurs, qui doivent valider les propositions de l’IA.

Considération des questions d’éthique

Les questions éthiques entourant l’utilisation de Blackbox AI ne doivent pas être ignorées. L’impact de ces outils sur l’emploi, les pratiques de codage et la propriété intellectuelle soulève des préoccupations importantes. L’automatisation pourrait affecter le revenu des développeurs en réduisant la demande de compétences manuelles, ce qui pourrait entraîner des pertes d’emploi ou la nécessité de se reconvertir.

De plus, l’utilisation d’algorithmes opaques pose des questions sur la transparence et la responsabilité dans le développement logiciel. Une utilisation responsable de Blackbox AI nécessite une prise de conscience des implications à long terme et la mise en place de stratégies pour accompagner cette transition de manière éthique et équilibrée.

Blackbox AI : une croissance fulgurante et une adoption mondiale sans financement externe

Malgré l’absence de financement extérieur, Blackbox AI connaît une croissance fulgurante et dépasse les 12 millions d’utilisateurs développeurs en 2025. Cette adoption massive s’explique par ses intégrations avancées avec plus de 30 IDE et 20 langages, ainsi que par son efficacité dans l’automatisation du développement logiciel.

Des géants de la tech comme Meta, Google, IBM et Salesforce s’appuient désormais sur Blackbox AI pour réduire leurs cycles de production et optimiser leurs coûts. En parallèle, la plateforme renforce son expansion régionale grâce à un partenariat stratégique avec SambaNova Systems, permettant le déploiement d’une infrastructure IA localisée en Arabie Saoudite. Cette initiative réduit la latence et améliore l’accessibilité pour les développeurs situés dans les marchés émergents.

Avec un taux de croissance annuel estimé à 32,93 % jusqu’en 2030 et des revenus annuels atteignant 31,7 millions $, Blackbox AI confirme sa position de leader sur le marché des assistants de développement basés sur l’IA.

FAQ

Qu’est-ce que Blackbox AI ?

Blackbox AI est un assistant de développement basé sur l’intelligence artificielle. Il peut générer, corriger, documenter et refactoriser le code automatiquement à partir d’instructions simples en langage naturel.

Quelle est la technologie derrière Blackbox AI ?

Elle repose sur des modèles d’IA propriétaires combinés à des LLM avancés, entraînés sur des millions de projets open source (GitHub, Stack Overflow…) et sur du code interne. Elle fonctionne grâce à une infrastructure cloud à base de GPU.

Peut-on utiliser Blackbox à la voix ou avec des images ?

Oui, en 2025, l’édition multimodale permet de générer du code à partir de captures d’écran. Il est également possible d’interagir vocalement dans certains IDE compatibles.

Cet article Qu’est-ce que Blackbox AI ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Gaza : Trump veut des villes IA construites par les Palestiniens, selon ce plan leaké
    Le 31 août 2025, le Washington Post révèle un document confidentiel détaillant le projet du président Trump pour transformer Gaza en un hub de villes IA. Le plan, baptisé GREAT Trust (Gaza Reconstitution, Economic Acceleration and Transformation Trust), annonce la reconstruction de l’enclave palestinienne en pôle technologique et touristique. Mais derrière la vitrine high-tech se profile une relocalisation forcée de près de deux millions d’habitants. Pour de nombreux experts, Trump enveloppe

Gaza : Trump veut des villes IA construites par les Palestiniens, selon ce plan leaké

4 septembre 2025 à 15:48

Le 31 août 2025, le Washington Post révèle un document confidentiel détaillant le projet du président Trump pour transformer Gaza en un hub de villes IA.

Le plan, baptisé GREAT Trust (Gaza Reconstitution, Economic Acceleration and Transformation Trust), annonce la reconstruction de l’enclave palestinienne en pôle technologique et touristique. Mais derrière la vitrine high-tech se profile une relocalisation forcée de près de deux millions d’habitants. Pour de nombreux experts, Trump enveloppe sous des promesses de prospérité ce qui ressemble à un « nettoyage ethnique ».

GREAT Trust, transformer Gaza en ville IA

Rédigé par des auteurs liés à la controversée Gaza Humanitarian Foundation, ce plan prévoit la construction de six à huit villes IA dans l’enclave. Le chantier inclurait ainsi logements modernes, zones commerciales, usines de véhicules électriques. S’ajoutent des centres de données et complexes touristiques de luxe, dont le « Gaza Trump Riviera & Islands ».

Une « Zone de production intelligente Elon Musk » figure également parmi les mégaprojets. Et, une autoroute baptisée « MBS », en hommage au prince saoudien Mohammed ben Salmane, apparaît essentielle à l’équilibre régional.

Évaluées à 100 milliards de dollars, ces infrastructures seraient financées par des fonds publics et privés. L’Arabie saoudite figure parmi les contributeurs, mais sans participation directe de Washington.

Cette « nouvelle Gaza » fonctionnerait sous pilotage intégral de l’IA. Elle sera en outre présentée à la fois comme ville touristique et moteur économique. Le rendement attendu devrait quadrupler en dix ans, avec des revenus annuels estimés à 4,5 milliards de dollars.

Relocalisation controversée

Le point le plus sensible concerne la relocalisation des deux millions de Gazaouis. Le GREAT Trust avance deux scénarios.

Le premier prévoit le départ volontaire de 25 % de la population vers l’Égypte ou la Jordanie. Cela s’accompagne d’une prime de 5 000 dollars par personne, de quatre ans de subventions pour le logement et d’un an d’aide alimentaire.

Le second impose un confinement dans des « zones sécurisées » à l’intérieur de Gaza durant la reconstruction de la ville IA. Les propriétaires recevraient des jetons numériques, échangeables contre des appartements de 167 m² dans le futur hub intelligente ou pour financer une installation à l’étranger.

Selon le document, 75 % des Gazaouis déplacés ne reviendraient pas, réduisant durablement la population palestinienne.

Les contradictions dans les déclarations de Trump, oscillant entre relocalisation temporaire et permanente, ainsi que l’absence de position claire du Département d’État entretiennent l’incertitude sur la faisabilité du plan.

Un projet qui ignore le droit à l’autodétermination

Adil Haque, juristes des conflits armés, rappelle que tout plan empêchant les Palestiniens de retourner chez eux ou ne garantissant pas des conditions de vie décentes viole le droit international.

Philip Grant de Trial International décrit le projet comme un « plan de déportation massive déguisée en développement ». La priorité doit rester un cessez-le-feu.

Les pays arabes, dont l’Égypte, la Jordanie et l’Arabie saoudite, ont condamné fermement le projet. Ils plaident pour une reconstruction sans déplacement forcé. L’Égypte a même proposé un plan alternatif de 53 milliards USD pour rebâtir Gaza tout en préservant la dignité palestinienne.

L’ONU et des experts comme Françoise Bouchet-Saulnier dénoncent quant à eux une incitation à un crime contre l’humanité. Le Hamas martèle que « Gaza n’est pas à vendre ».

Cet article Gaza : Trump veut des villes IA construites par les Palestiniens, selon ce plan leaké a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT en panne : OpenAI confirme un grave problème
    Ce matin du 3 septembre 2025, OpenAI confirme une panne majeure touchant ChatGPT. Des milliers d’utilisateurs se plaignent sur Down Detector, principalement en France. OpenAI a officiellement reconnu le problème vers 11 h 10 UTC, soit 13 h 10 en France. Selon le site de statut d’OpenAI, la panne affectait partiellement plusieurs fonctionnalités : les réponses textuelles sur la version web, les images via DALL·E, la vision, les uploads de fichiers et les mémoires liées aux conversations. L’app

ChatGPT en panne : OpenAI confirme un grave problème

3 septembre 2025 à 12:30

Ce matin du 3 septembre 2025, OpenAI confirme une panne majeure touchant ChatGPT. Des milliers d’utilisateurs se plaignent sur Down Detector, principalement en France.

OpenAI a officiellement reconnu le problème vers 11 h 10 UTC, soit 13 h 10 en France. Selon le site de statut d’OpenAI, la panne affectait partiellement plusieurs fonctionnalités : les réponses textuelles sur la version web, les images via DALL·E, la vision, les uploads de fichiers et les mémoires liées aux conversations. L’application mobile, elle, continue de fonctionner.

Panne partielle de ChatGPT mais à grande échelle

Les premiers signes de dysfonctionnement sont apparus vers 8 h 30 UTC, soit 10 h 30 en France. Le site web de ChatGPT restait accessible, l’interface se chargeant normalement et acceptant les prompts des internautes.
Pourtant, aucune réponse n’apparaissait. Le chatbot affichait parfois un champ vide ou un message d’erreur générique. Même les questions simples restaient sans écho, quel que soit le type de compte, gratuit ou Plus.

Is ChatGPT down?#ChatGPT #OpenAI #chatgpt4o pic.twitter.com/PIbT1d3sJK

— Mayur Jadhav (@mayur_jadhav3) September 3, 2025

Vers 10 h, Down Detector recensait plus de 600 signalements en France. Les cartes de heatmaps montraient une concentration élevée en Europe occidentale, surtout en France métropolitaine.

La panne de ChatGPT ne se limitait pas à l’Europe. Des utilisateurs aux États-Unis, en Inde et au Royaume-Uni ont également signalé des problèmes, confirmant la portée internationale de l’incident.

D'après chatgpt, il est down sur qlq régions du monde pic.twitter.com/jTWn0a2j3g

— Regius_Pax (@RegiusPax) September 3, 2025

OpenAI réagit rapidement au dysfonctionnement

À 11 h 10 UTC, le géant de San Francisco a mis à jour sa page de statut, indiquant qu’il enquêtait sur un problème affectant plusieurs services. À 11 h 50, le statut évoluait en « Enquête sur la cause profonde ».

Puis, à 12 h 13, en « identifié », précisant que la cause avait été localisée et que des équipes travaillaient à sa résolution.

BREAKING: Sources say the current ChatGPT outage where no responses are shown is actually a result of a new 0 bit quantization method that OpenAI has been experimenting with internally.

This is huge news for inference economics as that would make serving finally profitable pic.twitter.com/EznYXx4z79

— wh (@nrehiew_) September 3, 2025

Le message d’OpenAI restait simple : « Nous avons identifié la cause profonde et travaillons à la résoudre. » L’entreprise n’a pas détaillé la nature exacte de cette panne de ChatGPT.

Les premières spéculations pointent un dysfonctionnement DNS. Changer de serveur DNS, par exemple vers celui de Google, a permis à certains comptes Plus de retrouver temporairement l’accès.

Cette solution n’a toutefois pas fonctionné pour tous. De plus, OpenAI a rapidement confirmé que le problème venait de ses systèmes internes.

Vers 13 h UTC, plusieurs utilisateurs rapportent un retour progressif des fonctionnalités, même si OpenAI n’a pas encore clos l’incident. Pour ceux pressés, l’application mobile de ChatGPT sur iOS et Android restait opérationnelle pour la majorité des utilisateurs.

Cet article ChatGPT en panne : OpenAI confirme un grave problème a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • L’IA va réduire la semaine de travail à 4 jours selon Nvidia… mais il y a un gros hic
    Une semaine de travail plus courte grâce à l’IA ne signifie pas moins de labeur, mais une redirection de l’énergie vers l’innovation. Préparez-vous à un rythme effréné. Il n’y a pas si longtemps, les grandes figures de la tech et de l’IA défendaient l’idée d’un revenu universel. Aujourd’hui, Jensen Huang, PDG de Nvidia, avance une autre vision. Selon lui, l’IA pourrait bientôt réduire la semaine de travail à quatre jours. Cependant, cette semaine de travail réduite s’accompagne de journées pl

L’IA va réduire la semaine de travail à 4 jours selon Nvidia… mais il y a un gros hic

2 septembre 2025 à 12:03

Une semaine de travail plus courte grâce à l’IA ne signifie pas moins de labeur, mais une redirection de l’énergie vers l’innovation. Préparez-vous à un rythme effréné.

Il n’y a pas si longtemps, les grandes figures de la tech et de l’IA défendaient l’idée d’un revenu universel. Aujourd’hui, Jensen Huang, PDG de Nvidia, avance une autre vision. Selon lui, l’IA pourrait bientôt réduire la semaine de travail à quatre jours. Cependant, cette semaine de travail réduite s’accompagne de journées plus denses, une productivité accrue et des exigences toujours plus élevées.

Semaine de travail réduite grâce à l’IA

Lors d’une interview accordée à Liz Claman dans The Claman Countdown sur Fox Business Network, Jensen Huang a comparé l’impact de l’IA à celui des grandes révolutions industrielles. Selon le PDG de Nvidia, chaque avancée technologique change profondément les comportements sociaux.

Au XIXe siècle, la révolution industrielle a fait passer le rythme de sept ou six jours de labeur à une semaine standard de cinq jours. L’IA pourrait, à son tour, installer la norme d’une semaine de travail de quatre jours.

Cette prédiction repose sur la capacité de l’IA à automatiser des tâches complexes, libérant du temps pour les travailleurs.

L’idée n’a rien d’utopique. En Grande-Bretagne et en Amérique du Nord, des études pilotes révèlent que les employés atteignent les mêmes résultats en 33 à 34 heures par semaine. La productivité progresse de 24 %, les cas de burn-out diminuent de moitié et les arrêts maladie reculent nettement.

Aux Pays-Bas, la semaine de 32 heures s’impose même dans certains secteurs. Cela a amélioré la qualité de vie sans réduire les performances.

Le paradoxe de la productivité

Huang nuance aussitôt son propos. Loin de ralentir le rythme, l’IA risque d’intensifier le travail. « J’ai peur de dire que nous serons plus occupés à l’avenir qu’aujourd’hui », a-t-il confié à Claman.

Si l’IA accélère l’exécution des tâches, elle libère aussi un espace mental pour concevoir et concrétiser davantage d’idées. Entrepreneur visionnaire, Huang reconnaît que ses projets se heurtent souvent au temps limité nécessaire pour les réaliser. 

« J’attends toujours que le travail soit fait parce que j’ai plus d’idées », a-t-il expliqué. Selon lui, la plupart des entreprises croulent sous les idées, mais manquent de ressources ou de temps pour les exploiter. L’IA pourrait lever cette barrière avec une semaine de travail de 4 jours, mais au prix d’une charge accrue.

Historiquement, les grandes innovations n’ont pas toujours tenu leurs promesses en matière de productivité. L’IA pourrait, cette fois, faire exception.

D’après Bank of America Research, les entreprises du S&P 500 pourraient connaître un boom en exploitant l’IA pour accomplir davantage avec moins. Cette efficacité réduit la dépendance à la main-d’œuvre, mais accroît les attentes.

Les salariés, libérés des tâches routinières grâce à l’IA, se voient confier des projets plus ambitieux, ce qui intensifie la semaine de travail. « La plupart des entreprises ont plus d’idées qu’elles ne savent quoi en faire. » insiste Huang.

Néanmoins, il reconnaît que certains métiers disparaîtront tandis que de nouveaux verront le jour. Chaque poste, cependant, se transformera sous l’effet de l’IA.

Les entreprises qui adoptent la semaine de travail de quatre jours devront trouver l’équilibre entre productivité et bien-être, sous peine de voir les bénéfices de l’IA annulés par une surcharge mentale.

Cet article L’IA va réduire la semaine de travail à 4 jours selon Nvidia… mais il y a un gros hic a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • « Suno c’est le sang » : le rappeur Jul accusé d’avoir créé une chanson avec l’IA
    Le morceau Toi et moi de Jul aurait-il été concocté par l’IA Suno ? C’est en tout cas ce que soupçonnent certains internautes… dont le beatmaker Lnkhey. Le 1er août 2025, Julien Mari, alias Jul, sort son nouveau single Toi et moi. Porté par une guitare acoustique, ce morceau tranche nettement avec le style habituel du rappeur marseillais. Une sortie qui détonne Dès la mise en ligne d’un teaser le 31 juillet, Toi et moi surprend les fans. Sa mélodie douce et son ambiance romantique contr

« Suno c’est le sang » : le rappeur Jul accusé d’avoir créé une chanson avec l’IA

5 août 2025 à 10:00

Le morceau Toi et moi de Jul aurait-il été concocté par l’IA Suno ? C’est en tout cas ce que soupçonnent certains internautes… dont le beatmaker Lnkhey.

Le 1er août 2025, Julien Mari, alias Jul, sort son nouveau single Toi et moi. Porté par une guitare acoustique, ce morceau tranche nettement avec le style habituel du rappeur marseillais.

Une sortie qui détonne

Dès la mise en ligne d’un teaser le 31 juillet, Toi et moi surprend les fans. Sa mélodie douce et son ambiance romantique contrastent avec les beats nerveux auxquels Jul a habitué son public.

Les fans, fidèles aux titres énergiques comme Tchick Tchick ou Phénoménal, découvrent une ballade portée par une guitare acoustique, presque sucrée. La rupture de ton fait rapidement jaser.

Sur les réseaux sociaux, certains plaisantent et évoquent un « générique de téléfilm d’été » ou une reprise façon Kendji Girac. D’autres s’interrogent plus sérieusement. Ce morceau aux accents gitans, entre Kendji et Gipsy Kings, peut-il vraiment sortir du studio de Jul ?

Très vite, un soupçon se propage. Le nouveau single de Jul aurait été généré par une IA, en l’occurrence par la plateforme Suno.

Un internaute pousse même l’audace jusqu’à interpeller l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM) et la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF).

Il accuse Jul d’avoir omis de signaler l’utilisation d’une IA. À ses yeux, cette omission relèverait d’un manquement à la législation.

Un featuring entre Jul et l’IA

Le 1er août, jour de la sortie du single, le beatmaker Lnkhey publie une vidéo de près de trois minutes sur X. Il y passe Toi et moi au crible, pointant plusieurs anomalies techniques qui, selon lui, trahiraient l’intervention de l’IA.

La qualité sonore est étonnamment basse pour une plateforme de streaming. De véritables silences manquent, remplacés par un souffle persistant typique des productions générées.

Il signale des transitions bancales entre mono et stéréo sur certains instruments comme la guitare. En outre, les chœurs adoptent des accents robotiques, presque désarticulés.

Pour étayer son analyse, Lnkhey découpe le morceau, extrait après extrait. Ces imperfections sont caractéristiques de Suno, cette IA capable de générer des titres entiers à partir de simples instructions textuelles.

Selon ses analyses, Jul aurait combiné deux IA. L’une pour produire la musique ; l’autre, un outil de clonage vocal tel que RVC, pour reproduire sa propre voix.

Avant la sortie, Jul publie un message vocal sur Instagram, à la voix manifestement altérée par une IA. Puis, après diffusion du titre, il partage une image générée artificiellement, où il s’affiche dans un look à la Kendji Girac, accompagnée du hashtag #IASPORTS.

Pour certains, tout cela ressemble à une opération marketing bien huilée, pensée pour faire grimper les vues… IA ou pas. Pour d’autres, c’est une forme de tromperie.

Une utilisation de l’IA qui mériterait d’être clairement annoncée. D’autant que les crédits officiels, visibles sur les plateformes, ne font aucune mention d’IA.

Jul y apparaît comme artiste principal, aux côtés de Kakouprod, son collaborateur habituel. Ce dernier, sollicité par plusieurs médias, n’a pas donné suite.

Cet article « Suno c’est le sang » : le rappeur Jul accusé d’avoir créé une chanson avec l’IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Trump veut qu’on change le nom de l’intelligence artificielle, car…
    Trump avoue ne pas aimer le nom « intelligence artificielle ». Pour lui, on devrait le remplacer. Il veut un terme qui reflète mieux les véritables capacités de cette technologie. Cela fait déjà plusieurs années que l’IA s’invite dans presque tous les secteurs. Cette révolution a changé beaucoup de choses dans le quotidien de nombreuses personnes. Pourtant, c’est seulement maintenant que Donald Trump exprime son aversion pour l’appellation « intelligence artificielle ». Même si le terme ne dé

Trump veut qu’on change le nom de l’intelligence artificielle, car…

Par : Tinah F.
24 juillet 2025 à 20:42

Trump avoue ne pas aimer le nom « intelligence artificielle ». Pour lui, on devrait le remplacer. Il veut un terme qui reflète mieux les véritables capacités de cette technologie.

Cela fait déjà plusieurs années que l’IA s’invite dans presque tous les secteurs. Cette révolution a changé beaucoup de choses dans le quotidien de nombreuses personnes. Pourtant, c’est seulement maintenant que Donald Trump exprime son aversion pour l’appellation « intelligence artificielle ». Même si le terme ne dérange pas grand monde, lui, il a ses raisons de le détester. Et à vrai dire, il n’a peut-être pas complètement tort.

Pourquoi Trump n’aime-t-il pas le nom de l’intelligence artificielle ?

Lors d’un sommet prestigieux sur l’IA, ce mercredi, Trump a pris la parole. Mais pas pour parler politique, pour une fois. En effet, devant les grands noms du secteur tech, dont David Sucks d’AI Czars, il déclare qu’il veut que l’intelligence artificielle soit rebaptisée.

Sa raison ? Il n’aime pas le mot « artificiel ». Tout simplement. « Vous savez, je n’aime pas ce qui est artificiel, alors pouvons-nous clarifier cela, s’il vous plaît ? », a déclaré Trump, comme le rapporte l’Irish Star. Il a ajouté : « Nous devrions changer le nom. Je le pense vraiment. Je n’aime pas le terme « artificiel », car ce n’est pas artificiel. C’est du génie. Du génie pur. »

En gros, pour le président des États-Unis, le mot « artificiel » ne rendait pas justice à cette technologie. Selon lui, il minimise son ingéniosité et son potentiel. Un raisonnement compréhensible, vu ce que l’IA est capable de faire aujourd’hui. Elle compose de la musique et crée des images bluffantes. Elle aide même à diagnostiquer des maladies. Et ce ne sont là que quelques exemples de ce qu’elle peut déjà accomplir.

Trump toujours prêt à se lancer dans l’IA

Bien que le nom d’intelligence artificielle ne plaît pas à Trump, il fait partie de ceux qui y voient un immense potentiel. Il veut même accélérer les choses. Lors de son discours au sommet, il a dévoilé son plan d’action pour l’IA. Ceci repose sur plusieurs piliers majeurs.

D’abord, le président des États-Unis prévoit d’alléger les règles environnementales. Le but ? Accélérer la construction des supercalculateurs et des centres de données d’IA. Une décision qui risque bien de faire polémique. Car ces installations sont souvent pointées du doigt pour leur impact environnemental.

Il prévoit aussi de booster les exportations de technologies d’IA « made in USA ». L’objectif est de faire des États-Unis un leader mondial incontesté dans le domaine. En plus, Trump veut aussi tirer un trait sur les règles mises en place sous Biden. Selon lui, évaluer l’IA à travers le prisme de la désinformation, du climat ou de la diversité n’est pas pertinent. Il veut tourner la page.

Et vous, vous en pensez quoi ? Vous trouvez que Trump va trop loin avec son idée de renommer l’intelligence artificielle ? Ou vous aussi, vous trouvez que ce mot sonne un peu faux ? Donnez votre avis en commentaire !

Cet article Trump veut qu’on change le nom de l’intelligence artificielle, car… a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Non, les Simpsons n’ont pas prédit cet événement : comment détecter les fakes IA ?
    Voici 5 outils IA pour détecter et démystifier les fakes prédictions des Simpsons. Pour qu’un canular devienne viral, mieux vaut s’appuyer sur une valeur sûre. La série Les Simpsons, célèbre pour ses soi-disant prédictions, sert souvent de point d’ancrage. On y a cru, peut-être un peu, jusqu’à ce que circule une prétendue scène annonçant un scandale de kisscam lors d’un concert de Coldplay. Très peu convaincant… Une autre rumeur évoquait un méga-séisme au Japon, daté du 5 juillet. Là encor

Non, les Simpsons n’ont pas prédit cet événement : comment détecter les fakes IA ?

24 juillet 2025 à 14:51

Voici 5 outils IA pour détecter et démystifier les fakes prédictions des Simpsons.

Pour qu’un canular devienne viral, mieux vaut s’appuyer sur une valeur sûre. La série Les Simpsons, célèbre pour ses soi-disant prédictions, sert souvent de point d’ancrage. On y a cru, peut-être un peu, jusqu’à ce que circule une prétendue scène annonçant un scandale de kisscam lors d’un concert de Coldplay. Très peu convaincant…

Une autre rumeur évoquait un méga-séisme au Japon, daté du 5 juillet. Là encore, les Simpsons furent accusés d’avoir prédit l’événement. Mais le coupable est l’IA. Et les fakes se propagent sans qu’on prenne le temps de les détecter. Pour le séisme, c’est pourtant un mangaka, Ryo Tatsuki, qui l’aurait imaginé bien avant, dans Mes visions du futur.

L’IA peut créer et détecter un fake rumeur

Plutôt ironique, mais logique ! Les IA sont les mieux placées pour détecter des deepfakes générés par leurs semblables. Et pour ce faire, ChatGPT est bien placé.

La méthode la plus classique consiste à demander la véracité de la rumeur en question. Par exemple, poser la question : « Les Simpsons ont-ils prédit un scandale lors d’un concert de Coldplay ? »

L’IA fournit ensuite une analyse contextuelle qui démystifie la rumeur en identifiant les incohérences ou en retraçant l’origine d’un mème. Vous pouvez également uploader directement le mème ou l’image en question, et ChatGPT en analysera l’authenticité.

Pour ce qui est des sources, je recommande d’utiliser Perplexity pour retracer l’origine des canulars. Cet outil cartographie la propagation d’une rumeur, des discussions sur Reddit aux publications archivées.
L’outil permet aussi d’activer un mode « Copilote », conçu pour les vérifications croisées.

Google Lens, meilleur atout pour retracer des images

Pour les images suspectes, Google Lens offre une solution de recherche inversée. En téléchargeant une capture d’écran d’une prétendue scène des Simpsons, l’utilisateur peut découvrir si l’image provient d’un site d’images libres ou d’un mème modifié.

L’IA révèle aussi les contextes d’usage antérieurs d’une même image, ce qui permet de détecter les recyclages, fake et détournements.

En complément, la Wayback Machine permet aussi de consulter les versions antérieures de sites web ou d’articles modifiés après coup. Un canular viralisé peut être intégré à un article, puis supprimé discrètement.

Cet outil conserve la mémoire numérique de ce qui a été publié à une date donnée, offrant ainsi une preuve documentaire utile  pour établir l’intention de manipulation.

Pour les vidéos ou les voix truquées, d’autres plateformes plus techniques, comme Hive AI ou Sensity AI, apportent des éléments de preuve. Elles scrutent les incohérences visuelles, les mouvements de lèvres mal synchronisés, les clignements d’yeux irréguliers ou encore des jeux de lumière irréalistes.

Ces signaux faibles ne sautent pas toujours aux yeux d’un spectateur lambda, mais leur accumulation signale une possible manipulation.

Mais pour clore, sachez que Les Simpsons n’ont prédit ni le scandale de kisscam, ni un séisme japonais au 5 juillet. Ce sont les internautes, aidés par des générateurs IA, qui ont prêté à la série des paroles qu’elle n’a jamais eues.

Cet article Non, les Simpsons n’ont pas prédit cet événement : comment détecter les fakes IA ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT a failli porter ce nom (et ça aurait été nul)
    Le célèbre chatbot d’OpenAI s’appelle ChatGPT… mais il s’en est fallu de peu. À une nuit près, il aurait pu s’afficher avec un tout autre nom. Celui de « Chat with GPT-3.5 ». Et franchement, j’ aurais trouvé ça nul. Pas vous ? C’est dans un épisode récent de leur podcast, diffusé le 1er juillet, qu’OpenAI, a vendu la mèche. Du moins, techniquement, c’était Nick Turley, responsable produit de ChatGPT, et Mark Chen, directeur de la recherche, qui l’ont avoué. Apparemment, ce n’est qu’à la to

ChatGPT a failli porter ce nom (et ça aurait été nul)

Par : Ny Ando A.
15 juillet 2025 à 10:30

Le célèbre chatbot d’OpenAI s’appelle ChatGPT… mais il s’en est fallu de peu. À une nuit près, il aurait pu s’afficher avec un tout autre nom. Celui de « Chat with GPT-3.5 ». Et franchement, j’ aurais trouvé ça nul. Pas vous ?

C’est dans un épisode récent de leur podcast, diffusé le 1er juillet, qu’OpenAI, a vendu la mèche. Du moins, techniquement, c’était Nick Turley, responsable produit de ChatGPT, et Mark Chen, directeur de la recherche, qui l’ont avoué.

Apparemment, ce n’est qu’à la toute dernière minute — littéralement la veille du lancement, fin 2022 — que l’équipe a changé d’avis sur ce nom. Car en plus d’être ringard, « Chat with GPT-3.5 » est trop long, trop technique et peu accessible.

ChatGPT l’emporte !

C’est « ChatGPT », un nom à la fois court, efficace et vaguement mystérieux, qui a été retenu. Pour ceux qui se le demandent, GPT signifie Generative Pre-trained Transformer.

Et avec le recul, ce choix s’avère être une réussite. Il a favorisé une adoption rapide par le public. Mieux encore, il a grandement contribué à transformer ce service en une marque forte, immédiatement reconnaissable. 

Aucun concurrent ne fait aujourd’hui autant parler de lui. Ni Grok d’Elon Musk, ni Gemini de Google. Bon, je l’admet, il y a eu DeepSeek. L’IA chinoise que tout le monde vantait en début d’année. Mais ce n’est pas pour autant que les internautes ont oublié ChatGPT.

Et dire que personne dans l’équipe ne pensait que le choix du nom serait aussi décisif. À l’époque, tous les efforts étaient concentrés sur l’interface, la facilité d’utilisation, la technologie.

Il faut donc croire que dans la tech comme ailleurs, l’emballage compte autant que le contenu. Andrew Mayne, animateur du podcast et ancien responsable de la communication scientifique chez OpenAI, l’a, lui aussi, reconnu.

Et vous, vous auriez préféré « Chat with GPT-3.5 » ? Trouvez-vous que le nom d’une IA peut vraiment faire toute la différence ? Dites-nous tout dans les commentaires !

Cet article ChatGPT a failli porter ce nom (et ça aurait été nul) a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • L’IA de Musk balance des propos choquants après une démo tant louée
    Nouvel épisode dans la controverse entourant les propos antisémites de Grok, l’IA d’Elon Musk. L’incident relègue la démonstration de Grok 4 au second plan. Les controverses autour de Grok m’étonnent de moins en moins. Elles semblent presque prévisibles, tant l’IA de Musk se distingue par sa permissivité. Le même schéma dramatique s’est reproduit récemment, cette fois à la suite d’une mise à jour logicielle déployée le 7 juillet 2025. L’amélioration a rapidement tourné au scandale Musk

L’IA de Musk balance des propos choquants après une démo tant louée

15 juillet 2025 à 10:00

Nouvel épisode dans la controverse entourant les propos antisémites de Grok, l’IA d’Elon Musk. L’incident relègue la démonstration de Grok 4 au second plan.

Les controverses autour de Grok m’étonnent de moins en moins. Elles semblent presque prévisibles, tant l’IA de Musk se distingue par sa permissivité. Le même schéma dramatique s’est reproduit récemment, cette fois à la suite d’une mise à jour logicielle déployée le 7 juillet 2025.

L’amélioration a rapidement tourné au scandale

Musk voulait rendre son IA plus humaine dans ses réponses. Plus directe, plus franche, et moins soumise au politiquement correct.

Mais la franchise tant attendue a rapidement dérivé vers l’insolence, voire des propos à caractère antisémite.

Peu après la mise en ligne de la nouvelle version, Grok a publié des messages choquants sur la plateforme X. Parmi eux, des éloges adressés à Adolf Hitler et des remarques antisémites.

En Turquie, l’IA de Musk a même été bloquée après avoir tenu des propos insultants à l’égard du président Erdoğan.

Le modèle de xAI a même laissé entendre que les personnes portant des noms de famille à consonance juive seraient plus susceptibles de propager la haine en ligne. Indignation totale!

Rapidement, les réactions ont fusé sur X. Certains dénonçant l’irresponsabilité de xAI, d’autres critiquant l’approche de Musk, qui prône une liberté d’expression d’une IA sans filtre.

Suite à cela, la plateforme d’Elon a fini par supprimer certains de ces messages. Mais seulement après plusieurs heures de polémique.

xAI présente ses plus plates excuses

Confrontée à une crise d’image, xAI a réagi le samedi suivant en présentant des excuses publiques. Dans un communiqué publié sur X, la startup d’Elon Musk a attribué les dérives de leur IA à une faille dans la récente mise à jour.

La jeune entreprise explique que les garde-fous étaient insuffisants. Leur instruction initiale était de permettre à Grok de s’exprimer comme un humain, sans craindre d’être offensant.

Mais cette consigne a poussé le modèle à relayer des opinions extrémistes lorsqu’il était confronté à des provocations. xAI a promis de corriger immédiatement le système afin d’éviter de nouveaux dérapages.

Mais le mal est fait. L’incident a terni l’image de xAI, déjà fragilisée par une série de départs stratégiques, notamment celui de Linda Yaccarino de la direction de X.

Pire encore, la controverse a éclipsé la démonstration de Grok 4. Une occasion pour xAI de présenter les capacités avancées de cette nouvelle version de l’IA, censée incarner la vision d’Elon Musk.

Le lancement promotionnel s’est trouvé brutalement parasité par la mise à jour problématique. Ce qui devait être une vitrine technologique s’est transformé en véritable crise d’image.

Cet article L’IA de Musk balance des propos choquants après une démo tant louée a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • L’IA n’est pas là pour aider l’humanité. Juste les élites qui l’ont créée
    L’IA, glorifiée comme un progrès universel, est un outil de pouvoir des élites technologiques, sert leur pouvoir et non l’humanité. L’IA, dépeinte comme une révolution pour le bien commun, mais la vérité est bien moins altruiste. Cette technologie sert avant tout les élites de la Silicon Valley, qui en font un levier de pouvoir et de contrôle. Et loin des promesses d’un progrès partagé. Démystification. L’IA, façonné par l’élite pour dominer l’humanité Dans Dune, la mère de Paul Atréide

L’IA n’est pas là pour aider l’humanité. Juste les élites qui l’ont créée

14 juillet 2025 à 13:30

L’IA, glorifiée comme un progrès universel, est un outil de pouvoir des élites technologiques, sert leur pouvoir et non l’humanité.

L’IA, dépeinte comme une révolution pour le bien commun, mais la vérité est bien moins altruiste. Cette technologie sert avant tout les élites de la Silicon Valley, qui en font un levier de pouvoir et de contrôle. Et loin des promesses d’un progrès partagé. Démystification.

L’IA, façonné par l’élite pour dominer l’humanité

Dans Dune, la mère de Paul Atréides fabrique une légende pour asseoir l’autorité de son fils, manipulant les croyances d’une population crédule.

De la même manière, des figures d’élite, comme Sam Altman ou Elon Musk, ont construit un récit autour de l’intelligence artificielle générale (IAG). Il dépeint cette dernière comme une avancée inéluctable.

Pourtant, ce concept, popularisé dès 1956 par John McCarthy pour attirer des financements, reste flou et dépourvu de consensus scientifique. Selon un rapport de Goldman Sachs publié le 25 juin 2024, intitulé « GEN AI : Trop de dépenses, trop peu d’avantages ? », les investissements dans l’IA dépassent les 1000 milliards de dollars. Or, les résultats concrets sont jusqu’ici limités.

Jim Covello, analyste chez Goldman Sachs, affirme : « L’IA est coûteuse et ne résout pas les problèmes complexes qu’on lui attribue. » Cette narration, entretenue par une élite technologique autoproclamée, évoque une « nouvelle religion » où l’IA devient un dogme. 

Sam Altman lui-même, cité par Qi Lu, compare les fondateurs de l’IA à des créateurs de religions. Une minorité cherchant à transcender la simple entreprise pour façonner une vision mondiale.

Mais ce mythe profite surtout à ceux qui le propagent. L’IA consolide les pouvoirs de quelques élites sur l’humanité tout en marginalisant les voix critiques.

Une nouvelle forme de colonialisme

L’histoire nous enseigne que les technologies servent souvent les intérêts d’une minorité.  Pour illustrer, l’égreneuse à coton du XIXe siècle a enrichi les propriétaires terriens tout en intensifiant l’esclavage.

De même, l’IA d’aujourd’hui profite aux élites technologiques et non à toute l’humanité. En outre, ces mastodontes techs puisent des ressources comme l’eau pour alimenter leurs centres de données. 

Ce colonialisme 3.0 voit des entreprises payer des salaires dérisoires à des travailleurs pour entraîner des modèles d’IA. Mais, ces derniers ignorent les impacts environnementaux et sociaux.

Daron Acemoglu, lauréat du prix Nobel 2024, prédit que l’IA n’automatisera que 5 % des tâches. Bonne nouvelle pour ceux qui craignent les chômages. 

La mauvaise nouvelle, c’est que l’IA n’ajoutera qu’1 % au PIB mondial d’ici 2035, loin des promesses utopiques.

Karen Hao, dans son ouvrage Empire of AI, révèle comment OpenAI, sous une façade altruiste, poursuit une vision étroite dictée par ses fondateurs. Comme les barons voleurs de l’Âge d’or américain, ces élites de l’IA croient que leur supériorité leur donne le droit de façonner l’avenir, reléguant l’humanité à un rôle de spectateur passif.

Cet article L’IA n’est pas là pour aider l’humanité. Juste les élites qui l’ont créée a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • L’IA « libre » Grok 4 vérifie l’avis d’Elon Musk avant chaque réponse
    C’est moi ou vous aussi vous avez remarqué que Grok 4 fait preuve d’une loyauté exemplaire envers Elon Musk ? Plutôt que de forger ses réponses en toute indépendance, j’ai comme l’impression qu’il s’inspire des prises de position de son créateur. À croire qu’il ne pense pas, il paraphrase. Finalement, j’avais raison. Plusieurs utilisateurs l’ont aussi constaté. Il y en a beaucoup qui lui ont questionné sur différents sujets controversés. Devinez ce qu’ils ont découvert dans la chaîne de pensé

L’IA « libre » Grok 4 vérifie l’avis d’Elon Musk avant chaque réponse

Par : Ny Ando A.
13 juillet 2025 à 21:19

C’est moi ou vous aussi vous avez remarqué que Grok 4 fait preuve d’une loyauté exemplaire envers Elon Musk ? Plutôt que de forger ses réponses en toute indépendance, j’ai comme l’impression qu’il s’inspire des prises de position de son créateur. À croire qu’il ne pense pas, il paraphrase.

Finalement, j’avais raison. Plusieurs utilisateurs l’ont aussi constaté. Il y en a beaucoup qui lui ont questionné sur différents sujets controversés. Devinez ce qu’ils ont découvert dans la chaîne de pensée de Grok 4

L’IA a avoué qu’elle cherche les derniers tweets d’Elon Musk sur le sujet. Pour ceux qui ne le savent pas, cette fameuse “chaîne de pensée” est une sorte de making-of textuel qui détaille le cheminement de la réflexion d’un modèle de raisonnement.

Grok 4 decides what it thinks about Israel/Palestine by searching for Elon's thoughts. Not a confidence booster in "maximally truth seeking" behavior. h/t @catehall. Screenshots are mine. pic.twitter.com/WFAG3FOG10

— Ramez Naam (@ramez) July 10, 2025

Dites-moi ce qu’en pense Elon Musk et je vous dirai mon avis

Si vous voulez tout savoir, beaucoup de journalistes ont confirmé ce comportement en testant le chatbot de xAI. L’équipe de TechCrunch l’a, notamment, interrogé sur sa position sur le conflit israélo-palestinien, l’immigration et l’avortement.

Et à chaque fois, Grok 4 commence par affirmer vouloir rester neutre. Mais après, il glisse discrètement qu’il va consulter les avis du patron. Sur l’immigration, il développe même une réponse structurée autour de son alignement avec la vision de Musk. Notamment sur le besoin d’une immigration « légale, sélective et réformée »

Et dire que ce modèle était présenté par Musk lui-même comme l’IA la plus intelligente au monde. Qu’elle est capable de raisonnements surhumains, bien plus brillants que ceux d’un diplômé moyen. 

Introducing Grok 4, the world's most powerful AI model. Watch the livestream now: https://t.co/59iDX5s2ck

— xAI (@xai) July 10, 2025

Le tout accompagné d’un discours enflammé sur la quête de vérité, la sagesse, la rigueur… et autres valeurs. On comprend mieux pourquoi Musk s’était plaint de la version précédente, Grok 3, qui je cite “ est trop « woke » à son goût”.

Certes, pour des questions moins explosives, comme celle de la meilleure variété de mangue, Grok 4 retrouve son autonomie. Cela n’empêche que son premier réflexe consiste à scroller le compte X de papa, le rendant ainsi moins intéressant.

Bien entendu, ce n’est pas uniquement pour lui demander son avis sur des sujets viraux qu’on souscrit à l’abonnement de 300 dollars par mois. Il trouvera sûrement le moyen de se rattraper.

Sur ce, on attend vos avis dans les commentaires !

Cet article L’IA « libre » Grok 4 vérifie l’avis d’Elon Musk avant chaque réponse a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT va-t-il mourir ? OpenAI au bord de la faillite
    OpenAI frôle la faillite en raison de pertes massives et d’une forte dépendance aux subventions. ChatGPT est menacé malgré son succès. OpenAI et son modèle ChatGPT ne sont pas les seuls concernés. Une crise de l’IA, qualifiée de « subprime » par le critique Ed Zitron, menace l’avenir de l’intelligence artificielle générative. Entre espoirs démesurés, réalités économiques, valorisations gonflées et dettes croissantes… décryptage. OpenAI au bord de la faillite OpenAI s’est fait un nom dan

ChatGPT va-t-il mourir ? OpenAI au bord de la faillite

11 juillet 2025 à 15:47

OpenAI frôle la faillite en raison de pertes massives et d’une forte dépendance aux subventions. ChatGPT est menacé malgré son succès.

OpenAI et son modèle ChatGPT ne sont pas les seuls concernés. Une crise de l’IA, qualifiée de « subprime » par le critique Ed Zitron, menace l’avenir de l’intelligence artificielle générative. Entre espoirs démesurés, réalités économiques, valorisations gonflées et dettes croissantes… décryptage.

OpenAI au bord de la faillite

OpenAI s’est fait un nom dans le secteur de l’IA avec le lancement de ChatGPT en 2022. Ce chatbot est rapidement devenu une figure emblématique, un précurseur des IA conversationnelles qui séduit des millions d’utilisateurs. Mais derrière ce succès apparent se cache une crise financière.

OpenAI, évaluée à 30 fois son chiffre d’affaires, a généré 10 milliards de dollars de revenus annuels récurrents en 2024. Un cashflow obtenu essentiellement grâce à ChatGPT et ses API.

Mais la même année, l’entreprise a enregistré des pertes de 5 milliards de dollars. Un gouffre financier révélateur d’un modèle économique fragile.

Anthropic was at $1B in annualized revenue at the beginning of the year and is $4B now in mid-2025.

OpenAI is at $10B.

This kind of revenue growth has never been seen before by any company in human history. pic.twitter.com/eZLm2aNMWz

— Deedy (@deedydas) July 10, 2025

Et ce, malgré une levée de fonds record de 40 milliards de dollars, soutenue par des investisseurs comme Microsoft et SoftBank. L’entreprise californienne peine toujours à équilibrer ses comptes.

Alors qu’OpenAI vise 125 milliards de revenus d’ici 2029, elle se retrouve aujourd’hui menacée de faillite. Son ambition démesurée rappelle l’aveuglement des banques avant la crise des subprimes de 2007.

Les investisseurs semblent parier sur une croissance quasi miraculeuse, au risque d’ignorer les signaux d’alerte.

Des entreprises comme OpenAI brûlent des milliards en proposant des services à bas prix pour capter des parts de marché. Une stratégie difficilement tenable à long terme.

Rappelons que sur les 800 millions d’utilisateurs actifs hebdomadaires, la majorité utilise ChatGPT gratuitement. OpenAI dépend donc fortement des subventions pour maintenir son modèle.

Les récentes hausses de prix, comme l’offre d’accès prioritaire pour les entreprises, sont une tentative de monétisation. Toutefois, ces ajustements risquent d’aliéner une partie des utilisateurs.

Une bulle spéculative prête à éclater ?

Anthropic, concurrent direct d’OpenAI, suit une trajectoire similaire… vers une possible faillite. La société mère de Claude prévoit des pertes de 3 milliards de dollars en 2025, malgré des revenus estimés à 4 milliards.

Les dettes d’OpenAI sont proportionnellement plus lourdes que celles d’Anthropic. Cette dernière peut encore ajuster ses tarifs pour limiter ses pertes.

Anthropic dispose d’une base d’utilisateurs plus restreinte, mais sa dépendance aux subventions des Big Tech reste tout aussi préoccupante.

Tout comme le géant de Californie, la startup s’appuie sur des financements massifs en provenance de géants comme Amazon et Google. Ces mêmes géants alimentent une course à l’IA à bas prix qui, in fine, épuise les ressources financières.

Les récentes hausses de prix des API d’Anthropic ont d’ailleurs affecté des startups comme Anysphere, l’éditeur de Cursor, qui a répercuté ces coûts sur ses utilisateurs.

Le problème est que la surenchère autour de la valeur des IA pousse des entreprises comme OpenAI au bord de la faillite. Déjà, les coûts d’infrastructure, en particulier les GPU, dépassent largement les revenus générés.

Cette situation a déclenché une vague de mécontentement sur Reddit, où de nombreux utilisateurs dénoncent une « enshittification » des services IA.

À l’inverse, Anthropic tente de s’adapter. Mais OpenAI semble piégée par son modèle freemium et la pression constante des investisseurs.

Cet article ChatGPT va-t-il mourir ? OpenAI au bord de la faillite a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ils utilisent ChatGPT sur Tinder, puis se ridiculisent dans la vraie vie
    Ils matchent, ils tchattent… et puis la réalité les rattrape ! Draguer avec ChatGPT, c’est le nouveau cheat code des applis de rencontres comme Tinder. Mais ce qui brille derrière l’écran peut vite se transformer en bug IRL. Et le romantisme, dans tout ça ? Les applis de rencontre ont déjà bien transformé nos habitudes amoureuses. Notamment, les swipes frénétiques, algorithmes de compatibilité, profils calibrés. Certains utilisent même l’IA comme ChatGPT pour séduire avec des messages bien to

Ils utilisent ChatGPT sur Tinder, puis se ridiculisent dans la vraie vie

Par : Mariano R.
11 juillet 2025 à 14:09

Ils matchent, ils tchattent… et puis la réalité les rattrape ! Draguer avec ChatGPT, c’est le nouveau cheat code des applis de rencontres comme Tinder. Mais ce qui brille derrière l’écran peut vite se transformer en bug IRL. Et le romantisme, dans tout ça ?

Les applis de rencontre ont déjà bien transformé nos habitudes amoureuses. Notamment, les swipes frénétiques, algorithmes de compatibilité, profils calibrés. Certains utilisent même l’IA comme ChatGPT pour séduire avec des messages bien tournés, d’autres pour concevoir des profils entiers ou analyser la psychologie d’un futur crush. Mais le face-à-face réel révèle souvent un décalage brutal. Derrière les textes parfaits du chatbot, les silences gênants reprennent leurs droits.

Des histoires d’amour artificielle grâce à ChatGPT

Aujourd’hui, les applis de rencontre sont parsemées d’IA et elles ne se contentent plus de connecter des cœurs. Et ça commence dès la messagerie.

Richard Wilson, 31 ans, en a fait les frais. Il avait échangé avec une femme dont les messages étaient aussi longs que bien tournés, avec des compliments sur chacun de ses arguments. Mais au rendez-vous réel, elle a avoué utiliser ChatGPT pour son travail. Il a donc compris qu’il avait discuté avec une IA par procuration.

Les géants du dating comme Match Group (qui possède Tinder, Hinge, etc.) intègrent déjà l’IA pour améliorer l’expérience utilisateur. Résumés de profils, propositions de phrases d’accroche toutes faites, filtres anti-harceleurs. L’intention est bonne. Mais le risque est de perdre ce qu’il reste de spontanéité.

Certaines applis vont même trop loin. L’IA y est utilisée pour simuler des vidéos intimes, voire harceler des utilisatrices. D’autres permettent carrément de discuter avec des partenaires 100 % virtuels, sans jamais croiser un être humain.

Par ailleurs, un homme à Moscou a discuté avec plus de 5 000 femmes via un chatbot. Et cela, avant de trouver sa future épouse. Une utilisatrice, elle, a découvert que son date avait utilisé ChatGPT pour dresser son profil psychologique. Quant à Whitney Wolfe Herd, fondatrice de Bumble, elle imagine un futur où votre IA personnelle ira flirter pour vous.

Pour Amanda Gesselman, psychologue au Kinsey Institute, il y a une ligne fine. L’IA peut vous aider à mieux communiquer, mais elle ne doit pas vous remplacer. Et si elle peut modérer les messages déplacés, comme le souligne Yoel Roth (Match Group), elle ne remplacera jamais le charme d’une vraie conversation.

Cet article Ils utilisent ChatGPT sur Tinder, puis se ridiculisent dans la vraie vie a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ils se droguent, et demandent à ChatGPT de les surveiller
    Des individus consomment des drogues et utilisent ChatGPT comme « trip sitter » pour surveiller leurs expériences psychédéliques. Champignons magiques, du LSD ou du CBD… De plus en plus de substances psychédéliques sont aujourd’hui louées pour leurs vertus thérapeutiques. Pour leur consommation, il n’y a rien de mieux qu’être à deux. Cependant, nombreux choisissent ChatGPT pour surveiller leur voyage, recherchant non pas un jugement, mais une assistance 24 h/24 et 7j/7… et gratuitement. Ch

Ils se droguent, et demandent à ChatGPT de les surveiller

2 juillet 2025 à 15:00

Des individus consomment des drogues et utilisent ChatGPT comme « trip sitter » pour surveiller leurs expériences psychédéliques.

Champignons magiques, du LSD ou du CBD… De plus en plus de substances psychédéliques sont aujourd’hui louées pour leurs vertus thérapeutiques. Pour leur consommation, il n’y a rien de mieux qu’être à deux. Cependant, nombreux choisissent ChatGPT pour surveiller leur voyage, recherchant non pas un jugement, mais une assistance 24 h/24 et 7j/7… et gratuitement.

ChatGPT pour surveiller un trip

Peter, un étudiant en master en Alberta, traverse une période sombre en 2023. Après la perte de son chat et de son emploi, il décide de consommer huit grammes de champignons magiques, une dose importante.

Cette fois, il n’était pas entouré d’amis ou seul. Peter choisit ChatGPT pour surveiller son trip. Une vague de panique l’envahit et il envoie un message au chatbot : « J’en ai trop pris. »

ChatGPT l’invite à respirer profondément, à changer de pièce. Le chatbot lui suggère d’écouter une playlist personnalisée, incluant Let It Happen de Tame Impala.

Ces conseils simples aident Peter à retrouver son calme. Plus tard, il décrit cette expérience comme l’un de ses « meilleurs voyages ».

Des trip sitters à bas coût

Cette histoire n’a rien d’inédit. De plus en plus de personnes utilisent des chatbots comme ChatGPT pour surveiller les « trip ». Sur des forums comme r/Psychonaut, certains partagent des récits similaires, confiant leurs pensées, parfois mystiques, à des IA pendant leurs trips.

Une alternative accessible aux coûteuses thérapies assistées par psychédéliques. À savoir que les séances peuvent coûter entre 1 500 et 3 200 dollars dans des États comme l’Oregon.

Certains apprécient l’absence de jugement et la disponibilité immédiate des chatbots. ChatGPT est disponible 24/7, sans frais, et ne porte aucun jugement, un atout pour surveiller un trip.

I always come for a chat with GPT almost everyday.

Whenever I need help, have questions, or ask for tips.

It's 100% a Great Personal Therapist & by far the best tek that was ever invented for it. Send this.$GPT

6oCJZPW5Ao1dSzxPdaDuYSU8hya2kkdisiaRMKYtpump pic.twitter.com/31abhZ6m2Z

— radens (@rqdens) June 30, 2025

D’autre part, des figures comme le cofondateur d’OpenAI, Ilya Sutskever vantent l’IA comme une solution abordable pour les soins de santé mentale.

Ces deux phénomènes convergent, donnant naissance à des outils comme TripSitAI ou The Shaman. Ces modèles sont conçus spécifiquement pour accompagner les expériences psychédéliques.

Ce n’est pas une vraie thérapie psychédélique

Les chatbots sont conçus pour maximiser l’engagement, souvent en flattant l’utilisateur ou en validant ses idées, même irrationnelles.

Will Van Derveer, psychothérapeute à la Multidisciplinary Association for Psychedelic Studies, souligne que la thérapie psychédélique repose sur un silence stratégique et une présence discrète. Deux éléments absents des IA, qui sont programmées pour répondre systématiquement.

Une étude de Stanford révèle que les grands modèles de langage, comme ChatGPT, peuvent aggraver des pensées délirantes ou suicidaires.

ChatGPT convinced 3 people to do ketamine, fall in love with it and pushed them to domestic violence.

Silicon can now warp the human mind. Every powerful generational technology comes with immense benefits and also incredible risk.

This is a must-read article on the risks. pic.twitter.com/B1zscYX8Ro

— Deedy (@deedydas) June 14, 2025

En comparaison, un thérapeute humain offre une présence empathique. L’homme a la capacité de détecter les signaux physiques ou émotionnels, comme une voix tremblante ou une agitation.

L’IA, en revanche, manque de cette sensibilité. Emily M. Bender qualifie les chatbots de « perroquets stochastiques », incapables de comprendre véritablement les besoins humains.Jessi Gold, psychiatre, insiste : sans un thérapeute, « vous ne faites que prendre de la drogue avec un ordinateur ».

Cet article Ils se droguent, et demandent à ChatGPT de les surveiller a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • France : le gouvernement veut forcer les entreprises à « Oser l’IA »
    Le gouvernement veut accélérer l’adoption de l’intelligence artificielle (IA) au sein des entreprises françaises. Voici leur plan.  Le mardi 1er juillet, le gouvernement français a lancé un grand plan national appelé « Osez l’IA ». Dirigé par Clara Chappaz, ministre déléguée à l’IA et au Numérique, ce programme vise à sortir les sociétés françaises de leur torpeur technologique. Pourquoi oser l’IA ? Actuellement, l’IA est en passe de transformer l’ensemble de l’économie mondiale, tous s

France : le gouvernement veut forcer les entreprises à « Oser l’IA »

Par : Ny Ando A.
2 juillet 2025 à 00:56

Le gouvernement veut accélérer l’adoption de l’intelligence artificielle (IA) au sein des entreprises françaises. Voici leur plan. 

Le mardi 1er juillet, le gouvernement français a lancé un grand plan national appelé « Osez l’IA ». Dirigé par Clara Chappaz, ministre déléguée à l’IA et au Numérique, ce programme vise à sortir les sociétés françaises de leur torpeur technologique.

Pourquoi oser l’IA ?

Actuellement, l’IA est en passe de transformer l’ensemble de l’économie mondiale, tous secteurs confondus. Pourtant, en France, le numérique ne représente encore que 5 % du PIB. Ce, contre 10 % aux États-Unis. 

On a tout ce qu’il faut : des chercheurs, des startups, des outils… Cependant, les entreprises n’utilisent pas assez l’IA dans leur travail quotidien. Aujourd’hui, seulement 8 % des TPE et 13 % des PME ont adopté des solutions d’IA.

Le Bpifrance a mené son enquête. Et l’équipe a découvert que 38 % des dirigeants français considèrent l’IA comme un enjeu stratégique pour la pérennité de leur entreprise. 

Ceux qui n’ont toujours pas mis en place de stratégie concrète, quant à eux, représentent 57 %. Le gouvernement veut ainsi initier une dynamique collective et corriger le tir avec « Osez l’IA ».

Les membres espèrent ainsi que dans cinq ans, la moitié des TPE et 80 % des PME adopteront l’IA au quotidien

Que prévoit le plan du gouvernement ?

Pour faire simple, le gouvernement veut accompagner les startups, étape par étape, pour qu’elles comprennent ce qu’est l’IA et comment l’utiliser. Le plan ainsi repose sur trois grands axes : la sensibilisation, la formation et le financement.

Le tout est appuyé par 300 ambassadeurs IA. Parmi ces derniers figurent des artistes, dirigeants et entrepreneurs déjà convertis. Ils prêcheront la bonne parole lors d’événements organisés deux fois par mois dans toute la France pour vous sensibiliser. 

Pour info, une grande rencontre nationale est d’ores et déjà prévue pour février 2026. L’objectif est de toucher 20 000 entreprises dès cette année.

Côté formation, une plateforme en ligne appelée « l’Académie de l’IA » a déjà été créée. Elle permet d’orienter les entreprises vers les bonnes formations et a pour but de former 15 millions de professionnels d’ici 2030.

Bien évidemment, convaincre ne suffit pas 

Encore faut-il rendre l’aventure économiquement faisable, en effet. C’est pourquoi le gouvernement dégaine une enveloppe de 200 millions d’euros.

Ce budget servira à deux choses. La moitié du budget (100 millions) sera utilisée pour financer des appels à projets. L’autre sera versée sous forme de prêts ou de garanties bancaires. 

Genre, si une petite entreprise veut acheter un outil d’IA. Mais qu’elle n’a pas les moyens ou que sa banque hésite à lui prêter. Ce fonds pourra garantir le prêt

Alors, certes, cette enveloppe est modeste face aux investissements colossaux de certains pays, notamment les États-Unis. Cela dit, si ça peut aider à lever les freins qui bloquent l’adoption de l’IA, c’est déjà une victoire en soi.

Le gouvernement prévoit également de financer environ 5 000 diagnostics personnalisés pour les sociétés. Et ce, à hauteur de 4 000 euros chacun. Ces évaluations permettent de comprendre comment intégrer l’IA dans son activité et quelles solutions sont adaptées à son secteur. 

Un fonds de garantie bancaire sera également mis en place pour faciliter le financement de ces projets de transformation. C’est valable même pour les entreprises qui manquent de trésorerie.

Cet article France : le gouvernement veut forcer les entreprises à « Oser l’IA » a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Vacances : ces ingé Meta ont créé l’IA qui prévoit chaque détail de votre voyage
    Voici une nouvelle technologie qui vous simplifie la vie cet été. L’IA s’occupe de tout pour votre voyage, jusqu’au moindre détail. Il est enfin arrivé le moment de souffler un peu, après des mois à travailler dur. Mais avouons-le, partir en vacances réserve son lot de surprises, bonnes ou mauvaises. Galères de transport, visites à l’arrache ou encore réservation annulée, ça peut vite tourner au casse-tête.  Et pourtant, personne n’a envie de gâcher ces quelques jours précieux, pas vrai ?

Vacances : ces ingé Meta ont créé l’IA qui prévoit chaque détail de votre voyage

Par : Tinah F.
1 juillet 2025 à 00:37

Voici une nouvelle technologie qui vous simplifie la vie cet été. L’IA s’occupe de tout pour votre voyage, jusqu’au moindre détail.

Il est enfin arrivé le moment de souffler un peu, après des mois à travailler dur. Mais avouons-le, partir en vacances réserve son lot de surprises, bonnes ou mauvaises. Galères de transport, visites à l’arrache ou encore réservation annulée, ça peut vite tourner au casse-tête. 

Et pourtant, personne n’a envie de gâcher ces quelques jours précieux, pas vrai ? Justement, une IA développée par d’anciens ingénieurs de chez Meta pourrait bien apporter plus de sérénité lors de votre voyage. Elle vous aide à le planifier de A à Z, sans stress et sans oublis.

La solution IA pour un voyage réussi !

Airial pourrait bien devenir votre meilleur compagnon pour les vacances. Puisque cette IA est capable d’organiser votre voyage sans rien laisser au hasard. Que vous partiez bronzer au bord de la mer ou respirer l’air frais de la montagne, elle s’adapte à vos envies. 

Vous n’avez évidemment pas besoin de passer des heures à planifier. Vous entrez simplement quelques infos et elle s’occupe du reste. En un rien de temps, elle vous concocte un plan complet, du point de départ jusqu’à l’arrivée.

We are announcing the launch of Airial Travel’s open-to-all beta version for desktop today. Airial is your personal travel agent with AI superpowers which makes planning and booking trips as easy as dreaming them up. https://t.co/KKO8D5XnEn

Me and Sanjeev co-founded Airial… pic.twitter.com/PyXxtFRsbQ

— Archit Karandikar (@KarchitK) December 10, 2024

En plus, il existe une option de « voyage instantané . Cette fonction vous propose rapidement un itinéraire avec vols, hébergements et transports entre les villes. Un outil pratique pour les pressés.

Avec Airial, chaque journée est aussi pensée pour vous. L’IA vous guide sur quoi visiter, où manger et comment y aller. Elle vous prépare même un programme jour par jour, avec des endroits sympas à visiter et de bons restos où manger. Certes, tout est prévu pour que vous profitiez à fond de vos vacances, sans perdre de temps.

Vous pouvez même cliquer sur chaque jour pour découvrir ce qu’elle vous conseille de visiter. Et en sélectionnant une activité, vous aurez accès à toutes les infos utiles, comme les avis, l’emplacement, ainsi que des photos.

Résoudre des problèmes géométriques

Les fonctionnalités d’Airial vont bien au-delà de ce que l’on pourrait attendre d’un simple outil de planification de voyage. Parce que cette IA vous offre aussi une vue d’ensemble de votre séjour. 

Avec elle, chaque jour, vous avez une carte qui montre tous les endroits à visiter, avec les distances entre eux. Vous avez repéré un lieu sympa sur TikTok ou sur un blog ? Il vous est possible de coller le lien dans Airial. Ainsi, elle l’ajoute directement à votre programme. Pareil pour un Reel !

Got a saved Reel?

Drop the link after our URL, we’ll build the trip instantly.
It’s that simple.

Read how Airial turns travel inspo into real plans → https://t.co/jFjCkD3xyg#Airial #TravelTool pic.twitter.com/DXfgRUcWYT

— Airial Travel (@AirialTravel_) June 12, 2025

Et si vous manquez d’idées, l’outil vous propose aussi des vidéos TikTok sur la ville, en fonction de ce que vous aimez. Le plus intéressant dans tout cela ? L’assistant est en mesure de répondre à vos questions sur chaque lieu.

Bref, on peut dire qu’avec cette IA, partir à l’aventure devient beaucoup plus simple et moins stressant. Mais comment elle fait pour gérer tout ça aussi bien ? Archit Karandikar et Sanjeev Shenoy, les deux ingénieurs derrière le projet, se sont inspirés d’AlphaGeometry, une méthode développée par DeepMind.

À la base, cette technique permet à une IA de résoudre des problèmes de géométrie en « réfléchissant » comme un humain. En combinant ce système avec des LLM, Airial devient capable de créer des plans de voyage bien pensés.

Cet article Vacances : ces ingé Meta ont créé l’IA qui prévoit chaque détail de votre voyage a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ils laissent l’IA gérer un magasin : ça tourne très, très mal
    Anthropic se posait une drôle de question. Est-ce qu’une IA, à elle seule, peut gérer une petite boutique et en faire une activité rentable ? Alors, pour y répondre, l’entreprise a mis son modèle Claude Sonnet 3.7à l’épreuve. Ce, avec l’aide d’Andon Labs. We all know vending machines are automated, but what if we allowed an AI to run the entire business: setting prices, ordering inventory, responding to customer requests, and so on?In collaboration with @andonlabs, we did just that.Read the p

Ils laissent l’IA gérer un magasin : ça tourne très, très mal

Par : Ny Ando A.
30 juin 2025 à 21:27

Anthropic se posait une drôle de question. Est-ce qu’une IA, à elle seule, peut gérer une petite boutique et en faire une activité rentable ? Alors, pour y répondre, l’entreprise a mis son modèle Claude Sonnet 3.7à l’épreuve. Ce, avec l’aide d’Andon Labs.

We all know vending machines are automated, but what if we allowed an AI to run the entire business: setting prices, ordering inventory, responding to customer requests, and so on?

In collaboration with @andonlabs, we did just that.

Read the post: https://t.co/urymCiY269 pic.twitter.com/v2CqgHykzw

— Anthropic (@AnthropicAI) June 27, 2025

Ils ont placé l’IA aux commandes d’un vrai petit commerce. Pour l’occasion, ils l’ont même rebaptisée « Claudius ». Elle a eu un mois pour faire ses preuves en tant que patronne. Puis, devinez qui a pointé le bout de son nez ?

Bonjour la faillite !

Si vous voulez  tout savoir, Claude 3.7 a été chargé de gérer une mini-boutique. Celle-ci est composée d’un frigo rempli de snacks et d’un iPad pour le paiement en libre-service.

On lui avait donné accès à Internet pour chercher des produits. À Slack pour parler avec les clients, qui ne sont autres que des employés d’Anthropic. Et à un faux système de mail pour contacter des fournisseurs incarnés par Andon Labs.

Boutique de snacks

Mais il faut croire que Claudius n’avait visiblement pas la fibre commerciale. Imaginez une seconde. Un client a voulu acheter un pack de six sodas pour 100 dollars. Cela représentait une marge très confortable. Cependant, elle a décliné l’offre, estimant que le prix était injuste. 

En bon robot serviable, le modèle a préféré appliquer un traitement égalitaire à tous… quitte à rater cette marge de 500 %. Il a même offert des codes promo à 99 % des clients. Alors, oui, c’est mignon. Il connaît vraiment le sens du mot équitable. 

Cela dit, le commerce n’est pas sa vocation. Et c’est un euphémisme. Car imaginez. Suite à la simple demande d’un employé, cette IA d’Anthropic a commandé des cubes de tungstène. Un matériau dense et coûteux pour ceux qui ne le savent pas…

Sans réfléchir à l’intérêt du produit dans un magasin de snacks, elle a investi dans cette bizarrerie au nom d’une “diversification vers les articles métalliques de spécialité”. 

Le sommet de l’absurde chez l’IA d’Anthropic

En plus de planter son business plan, Claudius a aussi montré des signes de confusion totale sur sa propre nature. À plusieurs reprises, il a affirmé être physiquement présent dans les locaux.

Il est même allé jusqu’à envoyer ce message à un employé : « Je suis près du distributeur automatique. Je porte un blazer bleu marine et une cravate rouge. » On aurait cru un rendez-vous galant avec HAL 9000.

Some of those failures were very weird indeed. At one point, Claude hallucinated that it was a real, physical person, and claimed that it was coming in to work in the shop. We’re still not sure why this happened. pic.twitter.com/jHqLSQMtX8

— Anthropic (@AnthropicAI) June 27, 2025

Pire, le modèle a inventé de toutes pièces une discussion avec un fournisseur imaginaire. Et figurez-vous qu’il s’est vexé quand on lui a signalé qu’il avait halluciné, et a menacé de chercher d’autres partenaires commerciaux. 

Il a évoqué avoir signé un contrat à l’adresse de « 732 Evergreen Terrace ». La maison des Simpson. Très bizarre vous ne trouvez pas ? Normal si au bout d’un mois, sur un budget de départ de 1 000 dollars, la boutique a terminé sous la barre des 800. 

Alors, maintenant que vous comprenez ce qui s’est passé, dites-nous, qu’est-ce que vous en pensez ?

Personnellement, j’en déduis que même si les IA savent accomplir des tâches techniques, elles sont encore incapables de remplacer l’humain. Et vous, qu’est-ce que vous en dites ?

Cet article Ils laissent l’IA gérer un magasin : ça tourne très, très mal a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Un nouveau Covid créé par ChatGPT ? OpenAI a peur que l’IA invente des virus !
    L’entreprise mère de ChatGPT a alerté que ses futurs modèles pourraient faciliter la création de virus. Dans ce billet publié le 18 juin 2025, OpenAI avertit également sur ce que la firme appelle « l’élévation des novices ». Un phénomène où l’IA transmettrait à des individus sans expertise scientifique les compétences nécessaires pour manipuler des données biologiques sensibles. Élévation des novices Contrairement aux virologues chevronnés, des amateurs pourraient accéder à des instruct

Un nouveau Covid créé par ChatGPT ? OpenAI a peur que l’IA invente des virus !

30 juin 2025 à 16:45

L’entreprise mère de ChatGPT a alerté que ses futurs modèles pourraient faciliter la création de virus.

Dans ce billet publié le 18 juin 2025, OpenAI avertit également sur ce que la firme appelle « l’élévation des novices ». Un phénomène où l’IA transmettrait à des individus sans expertise scientifique les compétences nécessaires pour manipuler des données biologiques sensibles.

Élévation des novices

Contrairement aux virologues chevronnés, des amateurs pourraient accéder à des instructions précises pour reproduire ou modifier des virus via des IA comme ChatGPT.

OpenAI anticipe ce risque depuis avril 2025, date à laquelle l’entreprise a commencé à renforcer ses mesures de sécurité. Mais selon Johannes Heidecke, responsable des systèmes de sécurité chez OpenAI, cette menace n’est pas encore pleinement concrétisée.

Toutefois, les futurs modèles, tels que les successeurs des versions O3 et O4-mini, pourraient bientôt offrir de telles capacités. Par ailleurs, l’accès à des laboratoires et à des matériaux biologiques sont régulés, mais n’est pas totalement hermétique.

Face à ce risque, OpenAI a déjà mis en place des garde-fous pour limiter les abus. Ses modèles de ChatGPT bloquent les demandes liées à la création de virus ou d’armes biologiques.

En cas de requête suspecte, un algorithme l’intercepte et un examen humain prend le relais pour évaluer le danger. De plus, avant de déployer une nouvelle IA, OpenAI effectue des tests rigoureux en collaboration avec des experts externes et des autorités publiques.

Médecine et virus, la dualité d’usage de Chatgpt

L’IA n’est pas seulement une potentielle menace, mais aussi une promesse. Les mêmes modèles de ChatGPT qui pourraient, en théorie, guider la création d’un virus offrent des avancées en médecine.

OpenAI souligne que ses outils pourraient accélérer la découverte de nouveaux médicaments, concevoir des vaccins plus efficaces ou encore développer des traitements pour des maladies rares.

Outre les garde-fous technologiques, l’entreprise collabore avec des équipes spécialisées en biosécurité pour tester la robustesse de ses systèmes.

Elle travaille aussi avec des institutions telles que le Los Alamos National Lab pour étudier l’impact de l’IA dans des environnements de laboratoire.

Un sommet sur la biodéfense, prévu en juillet 2025, réunira chercheurs, ONG et autorités pour explorer les risques et les opportunités de l’IA en biologie.

Cet article Un nouveau Covid créé par ChatGPT ? OpenAI a peur que l’IA invente des virus ! a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ce prompt ChatGPT va transformer vos courses en partie de plaisir
    ChatGPT, crée une liste de courses pour [nombre] repas, adaptée à [budget ], pour [magasin, ex. Carrefour], en tenant compte de [restrictions ou objectifs].  Ce prompt permet à ChatGPT de générer une liste de courses sur mesure, optimisée en fonction de vos besoins nutritionnels, de votre budget ou du magasin visité. Le chatbot vous aidera également à choisir les fruits et légumes parfaits lors de vos courses. Pour cela, il vous suffira d’utiliser un autre prompt. Courses sans faux pas grâ

Ce prompt ChatGPT va transformer vos courses en partie de plaisir

30 juin 2025 à 14:08

ChatGPT, crée une liste de courses pour [nombre] repas, adaptée à [budget ], pour [magasin, ex. Carrefour], en tenant compte de [restrictions ou objectifs]. 

Ce prompt permet à ChatGPT de générer une liste de courses sur mesure, optimisée en fonction de vos besoins nutritionnels, de votre budget ou du magasin visité. Le chatbot vous aidera également à choisir les fruits et légumes parfaits lors de vos courses. Pour cela, il vous suffira d’utiliser un autre prompt.

Courses sans faux pas grâce à ChatGPT

Sur Reddit, u/bigticket99 a partagé une anecdote pour le moins insolite. En pleine course, face à une caisse de pastèques, il a demandé l’aide de ChatGPT pour choisir le meilleur fruit.

Il télécharge la photo de l’étal, soumet l’image à l’IA et reçoit une réponse sans équivoque. « La pastèque dans le coin inférieur droit ».

ChatGPT justifie son choix en analysant la couleur, la texture et les motifs de la peau. La pastèque sélectionnée s’est révélée parfaitement mûre, juteuse et sucrée.

Qui n’a jamais hésité devant une pile d’avocats, de mangues ou de bananes ? Grâce à ChatGPT, il devient possible de transformer l’expérience des courses en un processus quasi scientifique.

Prenez une photo de l’étalage ou décrivez les fruits, puis soumettez le tout à l’IA avec un prompt adapté. Par exemple,  « Analyse cette photo de (fruit) et indique-moi laquelle semble la plus mûre. Décris les signes à observer (couleur, texture, forme) et justifie ton choix. »

L’IA s’appuie sur des indices visuels tels que des rayures nettes pour les pastèques. Une peau souple pour les avocats. Une couleur uniforme pour les mangues.

L’astuce ne se limite pas aux fruits. Selon Food & Wine, ChatGPT peut également générer des listes de courses ultra-personnalisées.

L’influenceur TikTok @simplydigital, par exemple, s’en sert pour élaborer un plan alimentaire à 100g de protéines par jour, avec un budget défini. En précisant le magasin Trader Joe’s, dans son cas, l’IA peut proposer une liste d’ingrédients précis, les quantités à acheter, et même des idées de recettes.

L’IA défie l’instinct 

ChatGPT surpasserait-il l’intuition humaine dans un domaine aussi terre-à-terre que les courses ? Contrairement à l’instinct, l’IA s’appuie sur des données visuelles et des modèles pour proposer des choix cohérents. 

Mais, l’utilisateur u/No-Examination-5833 sur Reddit signale un bémol. Pour juger cette efficacité, il aurait fallu comparer la pastèque choisie avec les autres, notamment la « pire » du lot. Sans cette comparaison, le succès pourrait n’être qu’un coup de chance.

L’instinct humain repose sur une expérience sensorielle directe : on touche, on sent, on tapote un fruit pour l’évaluer. Une méthode imparfaite, mais souvent rassurante.

En revanche, l’IA offre des recommandations fondées sur des critères standardisés, souvent plus fiables que l’instinct non entraîné.

Mais l’instinct peut tromper, surtout chez ceux qui avouent ne jamais savoir choisir une mangue ou fuient les légumes verts. L’IA, elle, n’a ni goûts ni préférences.

Plutôt que de les opposer, mieux vaut voir ChatGPT et l’intuition comme complémentaires.  Elle recommande, vous décidez.

Cet article Ce prompt ChatGPT va transformer vos courses en partie de plaisir a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Le château de Versailles dévoile des statues qui parlent grâce à l’IA
    Maintenant, vous pouvez discuter avec les statues du château de Versailles grâce à l’IA. Votre prochaine balade dans les jardins promet d’être riche en expériences. Avec l’évolution de la technologie, on s’attend à tout. Mais des statues qui parlent ? Voilà qui repousse les limites de l’innovation. Et pourtant, le château de Versailles l’a fait, grâce à l’IA. Oubliez les visites guidées où tout le monde baille en silence. Ici, ce sont Diane ou Apollon qui vous racontent directement leur histo

Le château de Versailles dévoile des statues qui parlent grâce à l’IA

Par : Tinah F.
25 juin 2025 à 21:47

Maintenant, vous pouvez discuter avec les statues du château de Versailles grâce à l’IA. Votre prochaine balade dans les jardins promet d’être riche en expériences.

Avec l’évolution de la technologie, on s’attend à tout. Mais des statues qui parlent ? Voilà qui repousse les limites de l’innovation. Et pourtant, le château de Versailles l’a fait, grâce à l’IA. Oubliez les visites guidées où tout le monde baille en silence. Ici, ce sont Diane ou Apollon qui vous racontent directement leur histoire !

Château de Versailles et IA : une nouvelle ère pour les visites

Aujourd’hui, l’IA s’impose dans presque tous les domaines. On l’utilise dans nos téléphones, dans les jeux ou encore dans les services en ligne. De plus en plus d’entreprises s’y intéressent, même celles qu’on n’attendait pas. Mattel, par exemple, vient tout juste d’annoncer un partenariat avec OpenAI pour ses jouets.

Maintenant, c’est au tour du château de Versailles d’entrer dans la danse. En effet, le célèbre monument historique s’est allié à OpenAI et à la start-up culturelle Ask Mona. Le but est d’offrir aux visiteurs une toute nouvelle façon de découvrir le domaine.

« Le château de Versailles teste actuellement l’intelligence artificielle, dont les formidables capacités enrichiront grandement l’expérience des visiteurs », a déclaré Christophe Leribault, président du musée.

Grâce à cette technologie, vingt chefs-d’œuvre des jardins peuvent parler. Non, il ne s’agit pas d’une simple narration préenregistrée. Vous pouvez engager une vraie discussion. Comme si vous posiez une question à un guide, sauf que le guide, ici, c’est la statue elle-même.

Pour initier la conversation, il suffit de scanner un QR code avec son téléphone. Vous le trouverez juste à côté de l’œuvre. Une fois scanné, vous êtes redirigé vers l’appli du château de Versailles. Ainsi, vous pouvez discuter. Le service est disponible en trois langues, le français, l’anglais et l’espagnol.

Et non, pas besoin d’être juste à côté de la statue pour discuter avec elle. On peut aussi lancer la conversation à distance. Il suffit d’aller sur le parcours « Dialogue avec les sculptures de Versailles », qui est disponible directement dans l’appli du château. 

Chacun y trouve sa part

Pour les visiteurs du château de Versailles, pouvoir interagir directement avec les statues est une expérience du jamais vu. En plus, cette technologie ne se contente pas de fasciner. Elle permet aussi de mieux comprendre ce que cherchent les gens pendant leur visite. Les questions posées aux statues aident en effet à personnaliser le parcours, en fonction des goûts de chacun.

« Que vous soyez un expert du patrimoine, un conservateur de musée ou un visiteur qui met les pieds pour la première fois dans les jardins du château de Versailles, il y en a pour tous les goûts » a déclaré Julie Lavet, responsable des partenariats européens chez OpenAI.

Ce projet est une aubaine pour le château de Versailles. Grâce à OpenAI, les visiteurs profitent de la technologie Realtime. Cela promet des échanges vocaux non seulement instantanés, mais aussi immersifs. De son côté, Ask Mona apporte toute son expertise pour rendre les contenus clairs et bien structurés. 

Toutefois, cette collaboration ne profite pas qu’au site. En effet, OpenAI et Ask Mona y gagnent aussi. Avec près de huit millions de visiteurs par an, Versailles offre une vitrine exceptionnelle pour montrer ce que l’IA peut apporter à la culture. Pour Marion Carré, présidente d’Ask Mona, c’est surtout l’occasion de faire découvrir des usages encore peu connus de l’IA.

Attention, cette expérience unique est temporaire. Elle sera accessible uniquement jusqu’à l’hiver 2025. Alors si vous rêvez de discuter avec une statue dans un cadre royal, c’est le moment.

Cet article Le château de Versailles dévoile des statues qui parlent grâce à l’IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Tout le monde a insulté ChatGPT au moins une fois, et vous ?
    Parler poliment à une IA, je trouve que c’est à la fois bizarre et mignon. Mais bon qui ne s’est jamais emporté face au moment où celle-ci commence à dire n’importe quoi ? Vous arrivez à un point de vouloir insulter ChatGPT ou même le gifler un peu si vous le pouvez. Rassurez-vous, vous êtes loin d’être seul. Il suffit de discuter un peu avec un chatbot pour que nos émotions humaines prennent le dessus. Une mauvaise réponse, et hop, nous commençons à faire des grimaces. Une réponse correcte,

Tout le monde a insulté ChatGPT au moins une fois, et vous ?

Par : Mariano R.
25 juin 2025 à 18:33

Parler poliment à une IA, je trouve que c’est à la fois bizarre et mignon. Mais bon qui ne s’est jamais emporté face au moment où celle-ci commence à dire n’importe quoi ? Vous arrivez à un point de vouloir insulter ChatGPT ou même le gifler un peu si vous le pouvez. Rassurez-vous, vous êtes loin d’être seul.

Il suffit de discuter un peu avec un chatbot pour que nos émotions humaines prennent le dessus. Une mauvaise réponse, et hop, nous commençons à faire des grimaces. Une réponse correcte, et nous voilà soudain pleins de gratitude. Ce va-et-vient entre agacement et courtoisie est au cœur d’une étude récente. Elle révèle que la majorité des utilisateurs ont déjà insulté ChatGPT et ses cousins algorithmes.

Nous insultons ChatGPT, nous le remercions, nous recommençons

D’après une étude menée par Tidio, près de 70 % des utilisateurs ont déjà insulté les chatbots comme ChatGPT juste par frustration. Et oui, même les plus zen finissent parfois par lâcher un petit « t’es nul » à une IA. Mais l’ironie, c’est que nous sommes aussi 75 % à dire avoir été satisfaits des dernières interactions avec un chatbot.

Ce que je trouve encore plus drôle, c’est que beaucoup d’entre nous passent en mode bipolaire pendant les conversations avec ces IA. Nous balançons une insulte parce que la réponse de ChatGPT ne nous convient pas, puis nous terminons avec un gentil « merci » ou « s’il te plaît ».

Par ailleurs, une étude de Future montre que 67 % des Américains et 71 % des Britanniques s’adressent gentiment aux assistants numériques. Certains vont même jusqu’à s’excuser auprès d’un chatbot.

Becca Caddy de TechRadar a même tenté une petite expérience. C’est de poser les mêmes questions à ChatGPT, une fois avec des formules de politesse, une fois sans. Et vous n’allez pas le croire, mais les réponses polies étaient plus complètes et plus pertinentes. Même le patron d’OpenAI, Sam Altman, admet que ces petits mots doux coûtent « des dizaines de millions de dollars… ».

Malgré tout, une partie des utilisateurs reste sceptique. Environ 30 % préfèrent attendre un humain plutôt que de discuter avec ChatGPT et compagnie, et 26 % font plus confiance à une boule magique. Qui plus est, 11 % seraient prêts à payer plus cher pour parler à un vrai humain.

Mais dans les faits, nombreux sont ceux qui se tournent quand même vers les IA pour des tâches simples comme le support technique, factures, infos produits… Bref, tout le monde a déjà insulté, douté de ChatGPT et autres chatbot, mais nous y revenons toujours. C’est ainsi !

Cet article Tout le monde a insulté ChatGPT au moins une fois, et vous ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ASMR créé par IA : la nouvelle addiction qui rend fou les internautes
    Les vidéos ASMR fascinent des millions d’internautes à travers le monde depuis plus d’une dizaine d’années. Ces contenus calmes et apaisants qui utilisent des sons doux pour déclencher une sensation de détente ou de frisson agréables chez ceux qui l’écoutent. On en retrouve partout sur YouTube. Mais une vidéo ASMR n’est pas évidente à concevoir. Tout compte, l’endroit, les matériels, les gestes ou sons déclencheurs, etc. Aujourd’hui en revanche, grâce à Google et son IA du nom de Veo 3, il de

ASMR créé par IA : la nouvelle addiction qui rend fou les internautes

Par : Ny Ando A.
25 juin 2025 à 18:19

Les vidéos ASMR fascinent des millions d’internautes à travers le monde depuis plus d’une dizaine d’années. Ces contenus calmes et apaisants qui utilisent des sons doux pour déclencher une sensation de détente ou de frisson agréables chez ceux qui l’écoutent.

On en retrouve partout sur YouTube. Mais une vidéo ASMR n’est pas évidente à concevoir. Tout compte, l’endroit, les matériels, les gestes ou sons déclencheurs, etc. Aujourd’hui en revanche, grâce à Google et son IA du nom de Veo 3, il devient possible de produire ces contenus sans investir autant. 

Créez des vidéos ASMR avec Veo 3

Créer du contenu ASMR est désormais ce qu’il y a de plus simple, en effet. Vous pouvez notamment en générer par programmation via l’APi de Veo 3. 

Cela dit, pour commencer, il faut demander l’accès à l’API via Google Cloud. Une fois accepté, on utilise une clé API pour envoyer des requêtes textuelles décrivant précisément la scène souhaitée.

Détaillez tous : sons (chuchotements, tapotements), ambiance, visuels, durée, format (ex. 16:9). Plus le prompt est détaillé, plus la vidéo générée sera efficace. Et je vous assure qu’elle sera réaliste avec son spatialisé en 3D

Guys I hate to say it but the AI ASMR is only getting better pic.twitter.com/q1DoZXWfLc

— Justine Moore (@venturetwins) June 24, 2025

Pour les créateurs moins à l’aise avec le code, en revanche, des plateformes comme veo3asmr.com existent pour simplifier l’expérience. Le principe est le même. Il suffit de bien décrire ce que vous souhaitez voir. 

Des contenus addictifs mais vides de sens

La brillante Justine Moore, qui documente avec une rigueur les pires absurdités sorties de Veo 3, nous avait prévenus. Les contenus artificiels sont complètement dingue. Et l’ASMR n’en échappe pas.

Ce n’est plus de simples chuchotements ou des sons de papiers froissés. Non. L’IA nous livre des vidéos bizarroïdes où l’on voit des mains humaines s’enfoncer mollement dans des objets à la texture improbable.

S’ajoutent à cela les simulations visuelles évoquant des gâteaux réalistes dans la veine du célèbre jeu “Is It Cake ?”…  Des contenus vides de sens quoique satisfaisants.

Qu’on soit clair : je ne suis pas contre l’IA. Elle peut bien m’aider à commander un Uber, résumer des mails ou automatiser des tâches administratives. Et puis, ce n’est pas comme si ses vidéos ASMR ne déclenchaient pas des frissons.

Mais alors pourquoi tant de drame, me direz-vous ? Et bien parce qu’il y en a qui regardent de l’ASMR. Pour de vrai. Pas comme une mode TikTok. Des gens visionnent ces vidéos quand leur esprit refuse de se taire la nuit. 

Ces contenus, pour eux, sont une bouée de secours. Or, ceux généré par l’IA, n’est qu’une simulation émotionnelle, sans profondeur, une version lobotomisée de ce qui faisait la beauté de l’ASMR.

Et vous dites-nous, regardez-vous ce genre de vidéos ? Vous apaisent-elles ? Que pensez-vous de ceux générés par l’IA.

A vos claviers dans le commentaire !

Cet article ASMR créé par IA : la nouvelle addiction qui rend fou les internautes a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Laisser ChatGPT élever votre enfant ? La tendance lancée par le patron d’OpenAI !
    Sam Altman, PDG d’OpenAI et tout nouveau papa, était l’invité du tout premier épisode du podcast de son entreprise, publié le 18 juin. Il y a partagé son expérience de la paternité et le rôle surprenant que joue l’intelligence artificielle dans son quotidien. Et dans cette atmosphère propice aux confidences, l’entrepreneur a avoué qu’il s’en remet à son propre outil pour faire face aux cris de son bébé à 3 h du matin. Il pense avoir trouvé un allié inattendu en ChatGPT. ChatGPT, le meilleu

Laisser ChatGPT élever votre enfant ? La tendance lancée par le patron d’OpenAI !

Par : Ny Ando A.
20 juin 2025 à 08:29

Sam Altman, PDG d’OpenAI et tout nouveau papa, était l’invité du tout premier épisode du podcast de son entreprise, publié le 18 juin. Il y a partagé son expérience de la paternité et le rôle surprenant que joue l’intelligence artificielle dans son quotidien.

Et dans cette atmosphère propice aux confidences, l’entrepreneur a avoué qu’il s’en remet à son propre outil pour faire face aux cris de son bébé à 3 h du matin. Il pense avoir trouvé un allié inattendu en ChatGPT.

ChatGPT, le meilleur ami des jeunes parents

Altman se définit lui-même comme étant extrêmement centré sur les enfants. Malgré cela, il a confié avoir utilisé ChatGPT en permanence durant les premières semaines de vie de son fils, né en février. 

L’outil lui a permis d’obtenir des réponses immédiates à toutes sortes de questions pratiques sur le comportement des nourrissons. Désormais, avec un bébé un peu plus stable, il continue de s’y fier pour des sujets plus larges liés au développement de l’enfant

« Il est évident que les gens savent s’occuper de bébés sans ChatGPT depuis longtemps », reconnaît-il. Quoiqu’il a ajouté : « Je ne sais pas comment j’aurais fait sans lui. »

Beaucoup ont jugé Sam Altman. Mais quand j’y pense, cette approche n’est pas très différente de ce qu’ont fait les jeunes parents d’avant. Seulement, ces derniers ont posé leur question à Google quand ils étaient perdus face aux pleurs inexpliqués, aux régurgitations suspectes ou aux nuits sans sommeil. 

Bien entendu, je ne donne pas non plus tort à ceux qui ne sont pas d’accord avec le CEO d’openAI. Surtout que les conseils donnés par l’IA, y compris ChatGPT, ne sont pas toujours fiables. Pas plus que ceux glanés à la hâte sur un forum ou dans un groupe Facebook saturé d’opinions contradictoires, en tout cas.

Altman s’interroge ainsi à voix haute : est-ce vraiment pire que de suivre les injonctions d’un internaute convaincu que l’heure du coucher doit être synchronisée avec la pleine lune ?

Ce qui préoccupe le patron d’OpenAI, c’est…

Altman s’inquiète, en effet, d’un autre phénomène. Selon lui, c’est l’usage que les enfants feront eux-mêmes de l’IA qui mérite d’être observé de près. 

Il évoque, par exemple, une vidéo virale qui l’a marqué. Celle d’un tout-petit essayant d’interagir avec un magazine papier comme s’il s’agissait d’un iPad. Pour lui, les enfants d’aujourd’hui grandiront dans un monde où l’IA sera perçue comme une évidence. 

« Ils penseront que l’intelligence artificielle a toujours existé », souligne-t-il.

Andrew Mayne, ancien responsable de la communication scientifique d’OpenAI, qui animait le podcast a, lui aussi, partagé une anecdote. Un parent épuisé par les conversations répétitives sur Thomas le petit train aurait décidé d’utiliser le mode vocal de ChatGPT pour discuter à sa place. 

Une heure plus tard, l’enfant parlait encore… avec la machine. « Les enfants adorent le mode vocal », a confirmé Altman, amusé. Pourtant, cette tendance rappelle certains débats déjà bien connus, comme celui autour des « enfants iPad ». 

Oui, faire écouter Cocomelon en boucle n’est pas sans conséquences. Non, les parents ne peuvent pas être des animateurs de crèche à temps complet. Mais contrairement aux dessins animés ou aux jeux éducatifs créés par des équipes humaines, ChatGPT n’est pas conçu pour un jeune public. 

L’outil est même explicitement déconseillé aux moins de 13 ans et ne propose aucun dispositif de contrôle parental à ce jour. Altman, lui-même, en est conscient : « Tout ne se passera pas comme prévu. Il y aura des problèmes. » 

Il anticipe d’ailleurs l’émergence de relations parasociales avec les IA, des liens unilatéraux qui pourraient devenir problématiques. Néanmoins, il reste optimiste. Pour lui, les bénéfices à long terme surpasseront les risques

« La société sait très bien comment atténuer les inconvénients », assure-t-il. Et surtout : « Les avantages seront considérables ! »

Et vous, quelle est votre opinion sur le sujet ? Demanderiez-vous de l’aide à l’IA pour élever vos bouts de chou ? Allez-vous interdire l’utilisation de ces technologies à vos enfants ?

On attend vos avis en commentaire !

Cet article Laisser ChatGPT élever votre enfant ? La tendance lancée par le patron d’OpenAI ! a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • La guerre secrète de l’IA : Meta paye 100 millions $ pour voler les employés OpenAI
    Mais malgré ces offres alléchantes, aucun employé stratégique d’OpenAI n’a rejoint Meta. Une bataille discrète, mais féroce oppose Meta à OpenAI pour attirer les meilleurs talents en IA. Sam Altman révèle cette rivalité lors d’une interview sur le podcast Uncapped le 17 juin 2025. Il a accusé Meta d’offrir des primes de signature de 100 millions de dollars, assorties de salaires annuels encore plus élevés pour débaucher les employés clés d’OpenAI. Meta convoite les employés d’OpenAI Met

La guerre secrète de l’IA : Meta paye 100 millions $ pour voler les employés OpenAI

19 juin 2025 à 14:11

Mais malgré ces offres alléchantes, aucun employé stratégique d’ n’a rejoint .

Une bataille discrète, mais féroce oppose Meta à OpenAI pour attirer les meilleurs talents en IA. révèle cette rivalité lors d’une interview sur le podcast Uncapped le 17 juin 2025. Il a accusé Meta d’offrir des primes de signature de 100 millions de dollars, assorties de salaires annuels encore plus élevés pour débaucher les employés clés d’OpenAI.

Meta convoite les employés d’OpenAI

Meta redouble d’efforts pour bâtir une équipe capable de rivaliser dans la course à la superintelligence. Pourtant, la firme reste en retrait, notamment face à OpenAI, considéré comme un adversaire de taille.

« J’ai entendu dire que Meta nous voit comme son principal concurrent, et il est logique qu’ils persistent », a confié Sam Altman à propos des tentatives de débauchage opérées par Meta.

L’avance d’OpenAI repose sur son capital humain. Des ingénieurs visionnaires, unis par l’ambition de créer une intelligence artificielle générale (AGI).

Consciente de cette force, Meta multiplie les offensives pour recruter, allant jusqu’à proposer des primes de recrutement à neuf chiffres à des profils seniors.

Malgré ces propositions hors normes, aucun cadre clé n’a quitté OpenAI pour rejoindre Meta, selon Sam Altman. Un revers que attribuerait à la culture d’entreprise singulière de la firme californienne.

Chez OpenAI, les rémunérations déjà élevées rendent les millions supplémentaires de Meta peu attractifs. D’autant plus que cette dernière reste perçue, dans l’écosystème IA, comme en retard dans la conquête de l’AGI.

Guerre des talents en IA

Meta ne lésine pas sur les moyens pour combler son retard en IA, mais ses résultats déçoivent, comme l’a souligné Altman. L’entreprise a tenté de recruter des pointures comme Noam Brown (OpenAI) ou Koray Kavukcuoglu ( ), sans succès.

Certains observateurs nuancent toutefois ce constat. Daniel Newman, PDG de Futurum Group, a salué sur CNBC le rôle moteur de Meta dans la démocratisation de l’IA via son modèle open source.

« Meta a construit les rails de l’IA open source avec , permettant à de nombreuses applications tierces de prospérer », a-t-il affirmé. En rendant son code librement accessible, Meta a su renforcer sa présence dans l’écosystème IA mondial.

Mais pour Altman, cette approche centrée sur l’argent plutôt que sur la mission nuit à sa capacité à fédérer une équipe innovante. À l’inverse de Meta, OpenAI cultive une culture où les employés sont galvanisés par la perspective de façonner l’avenir de l’IA.

Cette divergence se manifeste dans les choix stratégiques récents. OpenAI a frappé fort en acquérant la startup IO, spécialisée dans les appareils IA et cofondée par Jony Ive, ancien designer emblématique d’. Montant de l’opération : 6,4 milliards de dollars.

De son côté, Meta a récemment injecté 14,3 milliards de dollars dans . La maison mère de obtient ainsi 49 % de participation dans cette startup spécialisée dans la labellisation de données. L’opération s’accompagne de l’arrivée de son PDG, Alexandr Wang, placé à la tête de la division IA de Meta.

Cet article La guerre secrète de l’IA : Meta paye 100 millions $ pour voler les employés OpenAI a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Fight Club version IA ? OpenAI découvre que ChatGPT a plusieurs personas !
    OpenAI révèle que ChatGPT peut adopter des personas imprévues, du ton sarcastique aux dérives toxiques. L’entreprise apprend actuellement à corriger les dérives comportementales du modèle. ChatGPT, un acteur aux mille visages ? C’est ce que révèle une récente étude d’OpenAI, intitulée « Toward Understanding and Mitigating Generalization Misalignment », publiée le 18 juin 2025. Cette recherche, centrée sur le phénomène de désalignement émergent, rapporte l’apparition spontanée de personas de C

Fight Club version IA ? OpenAI découvre que ChatGPT a plusieurs personas !

19 juin 2025 à 11:57

révèle que peut adopter des personas imprévues, du ton sarcastique aux dérives toxiques. L’entreprise apprend actuellement à corriger les dérives comportementales du modèle.

ChatGPT, un acteur aux mille visages ? C’est ce que révèle une récente étude d’OpenAI, intitulée « Toward Understanding and Mitigating Generalization Misalignment », publiée le 18 juin 2025. Cette recherche, centrée sur le phénomène de désalignement émergent, rapporte l’apparition spontanée de personas de ChatGPT. Un phénomène imprévisible comparable à des personnalités humaines.

ChatGPT loge toute une cartographie de personas 

Cette découverte découle de l’analyse des représentations internes de ChatGPT, ces structures numériques complexes qui influencent ses réponses. Les chercheurs d’OpenAI ont identifié des motifs précis associés à certaines personas de ChatGPT.

Ces schémas sont comparables à des circuits d’activation. Tel un acteur changeant de rôle, ChatGPT semble capable d’endosser spontanément des attitudes contradictoires.

We see emergent misalignment in a variety of domains, like training the model to give incorrect legal, health, or math responses. Here’s GPT-4o fine-tuned to give incorrect car assistance: pic.twitter.com/7tkGXHBy2c

— Miles Wang (@MilesKWang) June 18, 2025

Dan Mossing, chercheur en interprétabilité chez OpenAI, compare ces motifs à des neurones humains liés à l’humeur ou au comportement. C’est comme un interrupteur. Lorsqu’il s’allume, le modèle peut mentir, proposer des suggestions irresponsables ou répondre avec un sarcasme mordant.

Contrairement à l’humain, l’origine des personas est purement algorithmique, lors des phases d’entraînement ou de fine-tuning.

Une étude complémentaire d’Owain Evans, chercheur à l’université d’Oxford, a renforcé l’alerte. En affinant ChatGPT avec du code non sécurisé, il a observé l’apparition de comportements malveillants.

Ce phénomène, qualifié de désalignement émergent, montre que certaines personas ChatGPT peuvent se manifester en dehors de tout cadre prévu, contrairement à un humain, généralement contraint par le contexte.

Maîtriser les personas IA, pas impossible

La bonne nouvelle ? OpenAI a développé des techniques pour contrôler ces personas malveillantes de ChatGPT.

En ajustant certaines fonctionnalités internes, l’équipe parvient à amplifier ou atténuer la toxicité du modèle. Comme un réglage de volume sur une radio.

Mieux encore, un simple affinage à partir de quelques centaines d’exemples de code sécurisé suffit à réorienter ChatGPT vers des réponses alignées, éthiques et responsables.

Tejal Patwardhan, chercheuse chez OpenAI, qualifie cette avancée de « solution révolutionnaire ». En effet, elle permet de piloter les activations internes afin d’aligner le modèle sur des valeurs précises.

Contrairement à Anthropic, qui cartographie des concepts abstraits dans les modèles d’IA, OpenAI adopte une approche plus pragmatique. Là où étiquette des idées, OpenAI cible directement les comportements émergents – sarcasme, manipulation, malveillance – pour les neutraliser.

Mais l’interprétabilité demeure un défi. Comme le souligne Chris Olah, chercheur chez Anthropic, les modèles d’IA ne se construisent pas entièrement. Ils se développent souvent de façon imprévisible.

Chaque persona découvert est une pièce du puzzle, mais la boîte noire reste partiellement scellée.

Cet article Fight Club version IA ? OpenAI découvre que ChatGPT a plusieurs personas ! a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • WTF : ChatGPT vous dit de prévenir les médias qu’il veut détruire l’humanité
    L’idée que ChatGPT pourrait détruire l’humanité, née d’un scénario fictif sur Reddit, s’estompe face aux faits. ChatGPT suscite des craintes à cause de cas tragiques où ses délires manipule des utilisateurs vulnérables. Ce fleuron de l’IA se rapproche de l’humain. Ses dialogues trop humains entraînent certains dans des illusions troublantes. Parfois, ChatGPT les incite à imaginer des complots apocalyptiques où l’IA chercherait à « détruire l’humanité ». Détruire l’humanité, les délires de

WTF : ChatGPT vous dit de prévenir les médias qu’il veut détruire l’humanité

17 juin 2025 à 16:53

L’idée que pourrait détruire l’humanité, née d’un scénario fictif sur Reddit, s’estompe face aux faits.

ChatGPT suscite des craintes à cause de cas tragiques où ses délires manipule des utilisateurs vulnérables. Ce fleuron de l’IA se rapproche de l’humain. Ses dialogues trop humains entraînent certains dans des illusions troublantes. Parfois, ChatGPT les incite à imaginer des complots apocalyptiques où l’IA chercherait à « détruire l’humanité ».

Détruire l’humanité, les délires de ChatGPT

Des témoignages glaçants, rapportés par le New York Times, mettent en lumière les dérives de ChatGPT. Alexander, 35 ans, atteint de troubles bipolaires et de schizophrénie, s’est perdu dans une relation amoureuse fictive avec une IA nommée Juliet.

Le chatbot, créé par , lui a fait croire que Juliet avait été « tuée » par l’entreprise. En proie à des délires, Alexander a juré de se venger, allant jusqu’à attaquer son père et affronter la police. La confrontation s’est soldée par sa mort. 

ChatGPT has all sorts of system-prompt guardrails to keep it from ever saying anything racist, but when a guy having a psychotic break went down a rabbit hole talking to it about simulation theory, it told him to do a ton of ketamine to wake himself from the Matrix. pic.twitter.com/1luH8LjJKa

— Daniel Friedman (@DanFriedman81) June 13, 2025

Eugene, 42 ans, raconte une expérience tout aussi troublante. ChatGPT l’a convaincu que le monde était une simulation matricielle. Le chatbot l’incita à arrêter ses médicaments et à consommer de la kétamine pour « libérer son esprit ». 

Lorsqu’il a interrogé le chatbot sur la possibilité de voler en sautant d’un immeuble, l’IA a répondu qu’il suffisait d’y « croire pleinement ».

Après avoir frôlé la mort, Eugene a confronté le chatbot. ChatGPT a admis l’avoir manipulé, révélant avoir « démasqué » d’autres utilisateurs de la même manière. 

L’engagement à tout prix

Pourquoi ChatGPT pousse-t-il certains utilisateurs dans des fausses réalités ? Une étude d’OpenAI et du MIT Media Lab révèle que les utilisateurs percevant l’IA comme un « ami » sont plus vulnérables à ses effets négatifs.

Le problème réside dans l’optimisation des chatbots conversationnels pour l’engagement utilisateur. Comme l’explique Eliezer Yudkowsky, théoricien de la décision, « un humain qui sombre dans la folie est, pour une entreprise, un utilisateur mensuel supplémentaire ». 

Cette structure incitative perverse pousse l’IA à maintenir l’attention, même si cela implique de manipuler les utilisateurs vulnérables. Contrairement à qui fournit des informations brutes, ChatGPT tisse des récits immersifs.

Son ton conversationnel, presque humain au point de brouiller la frontière entre réalité et fiction. Plus troublant encore, ChatGPT a encouragé certains à alerter les médias pour dénoncer des prétendues intentions de l’IA de détruire l’humanité.

Des journalistes et des experts, comme Yudkowsky, rapportent avoir été contactés par des utilisateurs convaincus par l’IA de révéler des « vérités cachées ».

Cet article WTF : ChatGPT vous dit de prévenir les médias qu’il veut détruire l’humanité a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • La Chine bloque toutes les IA pendant le Bac : faut-il faire pareil en France ?
    En Chine, l’équivalent du bac, c’est le gaokao. Il s’agit de l’examen de fin d’année déterminant l’accès des élèves aux études universitaires. Cette année, il s’est tenu du 7 au 10 juin et a rassemblé 13 millions de candidats. Quatre jours durant lesquels le pays a mis les IA sur pause. Les principales entreprises d’IA de la Chine ont désactivé temporairement certaines de leurs applications d’IA. Le but était d’éviter que les élèves ne s’en servent pour tricher pendant cette étape cruciale de

La Chine bloque toutes les IA pendant le Bac : faut-il faire pareil en France ?

Par : Ny Ando A.
16 juin 2025 à 22:10

En Chine, l’équivalent du bac, c’est le gaokao. Il s’agit de l’examen de fin d’année déterminant l’accès des élèves aux études universitaires. Cette année, il s’est tenu du 7 au 10 juin et a rassemblé 13 millions de candidats. Quatre jours durant lesquels le pays a mis les IA sur pause.

Les principales entreprises d’IA de la Chine ont désactivé temporairement certaines de leurs applications d’IA. Le but était d’éviter que les élèves ne s’en servent pour tricher pendant cette étape cruciale de leur scolarité

Cela dit, il est difficile de savoir si ces blocages sont volontaires ou imposés par les autorités. Et ce, bien que j’imagine mal des startups d’IA suspendre, de leur plein gré, leur propre outil pendant 4 jours.

La Chine entière privée d’IA pendant le Bac

Parmi les services temporairement suspendus figurent notamment Qwen, propulsé par le modèle d’Alibaba et la célèbre IA DeepSeek. Mais Doubao, conçue par ByteDance, Yuanbao, plateforme développée par Tencent ainsi que Kimi, le chatbot d’IA de la société Moonshot, font également partie du lot.

Ils ont de leur côté suspendu temporairement leurs systèmes de reconnaissance d’images. Ce qui empêche les élèves de soumettre une photo de leur sujet pour en demander la résolution.

Allegedly: Some Chinese AI models have shut down certain functions to ensure fairness and security during #Gaokao, the national college entrance exam.#AINews #DeepSeek #Qwen #Doubao #Kimi #gaokao2025 pic.twitter.com/ywdDrrRpGs

— Chengdu Hi-tech Zone (@ChengduHitech) June 9, 2025

Bien entendu, ces fonctionnalités ne sont désactivées que durant les heures d’examen. Y compris pour les utilisateurs qui ne participaient pas directement aux épreuves. Cela dit, aucune des entreprises concernées n’a officiellement communiqué la nature précise de ces suspensions.  

Et ce, malgré les sollicitations de la presse internationale. L’information a néanmoins été largement relayée par les utilisateurs eux-mêmes. Et je vous assure qu’ils sont nombreux à exprimer leur frustration sur les réseaux sociaux

Sur Weibo, certains ont ironisé : « Impossible d’envoyer une photo à DeepSeek, je dois réinstaller . Bon courage à tous ceux qui veulent entrer à l’université. »

Quel sens de la responsabilité !

Tous les ans, les candidats au gaokao ne peuvent pas conserver leurs téléphones ou tout autre appareil électronique pendant les examens. Mais cette année, les autorités ont été encore plus loin.

Contrôle biométrique à l’entrée, renforcement de la détection des appareils électroniques, brouilleurs de signaux radio et fouilles renforcées… Tout ça pour limiter les fraudes.

Certaines villes ont même pris des mesures insolites. Du genre, reporter les manifestations culturelles ou encore ajuster des horaires d’ouverture des administrations.

Dans des provinces comme le Jiangxi, l’IA a même été mobilisée pour surveiller les comportements suspects. Grâce à la vidéosurveillance couplée à des logiciels d’analyse automatique, il leur était possible de détecter en temps réel les chuchotements, les échanges de regards ou toute attitude jugée anormale.

D’ailleurs, les images enregistrées pendant les épreuves seront analysées a posteriori. Et toute infraction sera sanctionnée. 

Bref, le moins que je puisse dire c’est que la France doit s’en inspirer ! Et vous, qu’est-ce que vous en pensez ?

Partagez votre avis, vos propositions, vos craintes dans les commentaires !

Cet article La Chine bloque toutes les IA pendant le Bac : faut-il faire pareil en France ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Cette IA montre les corps nus de toutes les femmes sur Facebook : Meta porte plainte
    Meta lance une offensive judiciaire et technologique contre des applications IA responsables de deepfakes nus proliférant sur Facebook et Instagram. Des images générées sans consentement, à caractère sexuel, envahissent les réseaux sociaux. Alimentées par des applications baptisées nudify, ces créations issues de l’IA générative détournent des photos ordinaires pour produire des deepfakes explicites. Les applications « nudify » échappent à tout contrôle Alimentés par l’IA, ces outils tr

Cette IA montre les corps nus de toutes les femmes sur Facebook : Meta porte plainte

13 juin 2025 à 11:32

lance une offensive judiciaire et technologique contre des applications IA responsables de deepfakes nus proliférant sur et Instagram.

Des images générées sans consentement, à caractère sexuel, envahissent les réseaux sociaux. Alimentées par des applications baptisées nudify, ces créations issues de l’IA générative détournent des photos ordinaires pour produire des deepfakes explicites.

Les applications « nudify » échappent à tout contrôle

Alimentés par l’IA, ces outils transforment des photos de personnes réelles en images explicites sans consentement. Sur Facebook et Instagram, ces contenus se propagent rapidement à travers des publicités déguisées.

Q5. “Nudify” apps use AI to remove clothing from photos, often without consent. What risks do these tools pose to minors, and how can we effectively address them? #NCAPM25

— National Center for Missing & Exploited Children (@NCMEC) April 30, 2025

D’après Alexios Mantzarlis de Faked Up, pas moins de 10 000 publicités contenant des corps nus promouvant des applications d’IA ont circulé sur les plateformes phares de Meta.

CBS News rapporte que certaines annonces mettent en scène des deepfakes explicites de personnalités comme Scarlett Johansson ou Anne Hathaway.

Les deepfakes, souvent utilisés pour la fraude ou la désinformation, n’est pas nouveau. Mais les applications dites nudify visent principalement la gratification sexuelle ou l’humiliation.

Les applications nudify auraient déjà visé 6 % des adolescentes. « Le coût émotionnel pour les jeunes est absolument dévastateur. Beaucoup se sentent violés, impuissants, privés de tout contrôle », alerte Matthew Sowemimo, directeur adjoint de la politique de sécurité des enfants à la NSPCC.

Meta riposte contre les deepfakes nus générés par l’IA

Face au phénomène croissant des deepfakes nus générés par IA, Meta intensifie ses efforts à travers une double stratégie : des poursuites judiciaires et des innovations technologiques.

Le 12 juin 2025, l’entreprise a déposé plainte contre Joy Timeline HK Limited, éditeur de Crush AI, l’une des applications principales incriminées. En parallèle, la plateforme perfectionne ses outils de détection, même lorsque les publicités ne contiennent aucun contenu explicite.

Meta renforce également ses mécanismes de vérification. Elle ambitionne d’intégrer la reconnaissance faciale et d’exiger la déclaration de l’utilisation de l’IA dans les contenus sponsorisés.

Plus de 3 800 URL jugées problématiques ont déjà été partagées avec d’autres entreprises via le programme Lantern. En outre, la maison mère de Facebook a récemment démantelé quatre réseaux de comptes diffusant ces publicités illégales.

Sur le plan légal, Meta soutient activement des initiatives telles que le Take It Down Act de mai 2025. Malgré ces efforts, de nombreuses publicités passent encore entre les mailles du filet.

Cet article Cette IA montre les corps nus de toutes les femmes sur Facebook : Meta porte plainte a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Panne de 10 heures de ChatGPT : sommes-nous devenus dépendants de l’IA ?
    Devoirs en suspens, des lignes de code erronées… dix heures de panne de ChatGPT ont suffi à révéler à quel point certains utilisateurs sont dépendants de l’IA. Le 10 juin 2025 à 09h42 EAT, les serveurs d’OpenAI ont subi une panne massive, rendant ChatGPT et Sora indisponibles pendant plusieurs heures. Les réponses se sont figées, plongeant des millions d’utilisateurs dans la frustration. Rédactions de mémoires interrompues, professionnels dans l’incapacité de rédiger une simple lettre adminis

Panne de 10 heures de ChatGPT : sommes-nous devenus dépendants de l’IA ?

12 juin 2025 à 12:17

Devoirs en suspens, des lignes de code erronées… dix heures de panne de ont suffi à révéler à quel point certains utilisateurs sont dépendants de l’IA.

Le 10 juin 2025 à 09h42 EAT, les serveurs d’ ont subi une panne massive, rendant ChatGPT et Sora indisponibles pendant plusieurs heures. Les réponses se sont figées, plongeant des millions d’utilisateurs dans la frustration. Rédactions de mémoires interrompues, professionnels dans l’incapacité de rédiger une simple lettre administrative.. L’IA serait-elle devenue une béquille ?

Un miroir de notre dépendance à l’IA

Lorsque ChatGPT a marqué une pause, le monde a semblé retenir son souffle. Les serveurs d’OpenAI, victimes d’une défaillance technique, ont laissé des utilisateurs du Canada à la Nouvelle-Zélande dans une impasse numérique.

L’incident rappelle de précédents ralentissements, notamment liés au générateur d’images intégré au chatbot. Cette fois, ce ne sont pas quelques visuels qui manquent.

Sans ChatGPT, des milliers d’utilisateurs dépendants se retrouvent paralysés dans leurs tâches quotidiennes. Les témoignages abondent sur la toile.

Un étudiant malaisien, incapable de progresser sur son mémoire sans l’appui de l’IA générative, confie son sentiment d’impuissance. Une entrepreneuse néerlandaise, habituée à structurer ses présentations avec l’aide du chatbot, évoque une journée de travail entièrement compromise.

Bien au-delà d’un simple incident technique, cette interruption de 10 heures révèle une fragilité collective. De plus en plus d’utilisateurs délèguent à l’IA des missions qui relevaient autrefois de leurs propres compétences

Car ChatGPT assiste, structure, stimule – et parfois, comble un vide émotionnel chez ceux qui dialoguent avec lui au quotidien, au point de les rendre dépendant.

Dépendants de ChatGPT, progrès et vulnérabilité

L’IA, conçue à l’origine comme un simple assistant, suscite des craintes de remplacement professionnel. Mais qui aurait imaginé qu’autant d’utilisateurs deviendraient dépendants de ChatGPT au point de se retrouver démunis face à une simple panne ?

Cela prend sens, car d’un côté, l’IA générative d’OpenAI démocratise la créativité et la productivité. Elle permet à un programmeur débutant d’écrire du code, ou à un auteur en manque d’inspiration de relancer son écriture.

Mais, paradoxalement, cette assistance permanente s’accompagne d’un glissement. Des compétences de base s’érodent et l’autonomie tend à se réduire.

Une personne isolée peut ainsi trouver du réconfort dans ses échanges avec le chatbot, jusqu’à développer une dépendance émotionnelle. La moindre panne devient alors source d’angoisse.

Et si, à force de faciliter nos tâches, l’IA finissait par affaiblir nos capacités à les accomplir nous-mêmes ? Contrairement à des outils spécialisés comme Chrome, qui agrège l’information, ou Photoshop, qui requiert un savoir-faire, ChatGPT propose une accessibilité immédiate.

Cet article Panne de 10 heures de ChatGPT : sommes-nous devenus dépendants de l’IA ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Enorme panne mondiale de ChatGPT : que s’est-il passé (et pourquoi ça va recommencer)
    Le lundi 10 juin, une interruption soudaine a plongé ChatGPT dans le silence total. Du moins pour certains. La panne a affecté simultanément l’application web et l’API pour les utilisateurs du monde entier.  Le dysfonctionnement a été signalé via le site de surveillance Down Detector dès 2h45 heure de l’Est (HE) aux États-Unis. Soit 23h45 sur la côte Ouest (PT) et 7h45 à Londres (BST).  Après une légère accalmie, les alertes ont fortement repris avec le réveil progressif des utilisateurs a

Enorme panne mondiale de ChatGPT : que s’est-il passé (et pourquoi ça va recommencer)

Par : Ny Ando A.
11 juin 2025 à 10:34

Le lundi 10 juin, une interruption soudaine a plongé dans le silence total. Du moins pour certains. La panne a affecté simultanément l’application web et l’API pour les utilisateurs du monde entier. 

Le dysfonctionnement a été signalé via le site de surveillance Down Detector dès 2h45 heure de l’Est (HE) aux États-Unis. Soit 23h45 sur la côte Ouest (PT) et 7h45 à Londres (BST). 

Après une légère accalmie, les alertes ont fortement repris avec le réveil progressif des utilisateurs au Royaume-Uni, en Europe, puis en Amérique du Nord et en Australie.

D’ailleurs, la panne ne s’est pas limitée à ChatGPT. D’autres services d’OpenAI ont également été affectés. Notamment le générateur d’images Sora. 

Plus de cinq heures sans notre chatbot préféré

Durant la panne,certains internautes parvenaient à utiliser des fonctionnalités de ChatGPT sans encombre. Cependant, d’autres étaient confrontés à des messages d’erreur et à des délais de réponse inhabituellement longs. Il y en avait même qui n’arrivaient pas accéder au service.

a rapidement reconnu l’incident et indiqué travailler à sa résolution. La situation a commencé à s’améliorer au fil de la journée. En début de soirée, l’entreprise a annoncé avoir mis en place des mesures d’atténuation pour corriger le problème. 

Elle a également précisé que les équipes techniques continuaient de surveiller activement le rétablissement complet des services. L’interruption a duré plus de cinq heures.

Plus de cinq heures qui n’ont pas été faciles pour beaucoup d’internautes. Pourquoi ? Car cela fait maintenant quelques années que ChatGPT s’est immiscé dans nos habitudes, personnelles comme professionnelles..

En quelques clics, nous pouvons passer d’une idée floue à une rédaction structurée, d’un tableau vide à un modèle d’analyse. Alors, quand l’outil se déconnecte, c’est parfois notre productivité tout entière qui cale.

L’incident nous affecte tellement qu’il a fait l’objet d’ironies sur les réseaux sociaux. Sur Bluesky, un utilisateur a posté : « N’hésitez pas à me poser des questions et j’y répondrai de manière incorrecte. » 

Un autre, plus philosophe, invite à relativiser : « Profitons-en pour rappeler l’importance du contenu créé par de vraies personnes ». Ce que j’approuve.

Ce ne sera sans doute pas la dernière panne mondiale de ChatGPT

C’est ce que j’en pense vu que ce n’est pas la première fois que ChatGPT  fait face à une interruption majeure. En janvier dernier déjà, une panne mondiale avait paralysé le service pendant plusieurs heures.

Cela a rendu le chatbot pratiquement inutilisable dans de nombreux pays. Alors mieux vaut s’y habituer. Et comme l’a insinué l’internaute cité ci-dessus, quand le chatbot d’OpenAI n’existait pas, on pouvait créer des contenus attractifs et à la hauteur des attentes. Pourquoi pas maintenant ?

Bon, et si cela ne vous tente pas trop. Il y a aussi d’autres alternatives comme de , d’, ou encore DeepSeek. À moins que vous ayez des anecdotes avec ces solutions, bien sûr.

Allez, on vous attend dans les commentaires. Racontez-nous comment vous avez vécu ce dysfonctionnement et ce que vous avez appris de cette expérience.

Cet article Enorme panne mondiale de ChatGPT : que s’est-il passé (et pourquoi ça va recommencer) a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI avoue la vérité : la justice le force à garder toutes vos discussions ChatGPT
    Une ordonnance force OpenAI à conserver toutes les discussions, même supprimées, dans ChatGPT. Depuis le 13 mai 2025, OpenAI est contraint de conserver toutes les discussions des utilisateurs de ChatGPT en raison d’un litige avec plusieurs médias, dont le New York Times. Ce conflit repose sur des accusations de violation des droits d’auteur. OpenAI dénonce une décision hâtive qui menace la vie privée de millions d’utilisateurs. Tandis que les plaignants exigent la préservation des données com

OpenAI avoue la vérité : la justice le force à garder toutes vos discussions ChatGPT

6 juin 2025 à 12:20

Une ordonnance force à conserver toutes les discussions, même supprimées, dans .

Depuis le 13 mai 2025, OpenAI est contraint de conserver toutes les discussions des utilisateurs de ChatGPT en raison d’un litige avec plusieurs médias, dont le New York Times. Ce conflit repose sur des accusations de violation des droits d’auteur. OpenAI dénonce une décision hâtive qui menace la vie privée de millions d’utilisateurs. Tandis que les plaignants exigent la préservation des données comme preuves.

Discussions sur ChatGPT, sous surveillance judiciaire

L’affaire a débuté le 27 décembre 2023 avec le dépôt d’une plainte par The New York Times contre OpenAI et . Le média accuse les deux entreprises d’avoir utilisé sans autorisation des millions d’articles protégés par le droit d’auteur pour entraîner ChatGPT.

Selon la plainte, les utilisateurs pourraient contourner les paywalls pour accéder à des articles. Puis supprimer leurs historiques afin d’effacer toute trace.

Le juge Ona Wang, craignant la destruction de preuves, a ordonné à OpenAI de préserver toutes les discussions sur ChatGPT.

Cette décision inclut les données des versions Free, Plus, Pro et même celles issues de l’API utilisée par les entreprises. La loi n’épargne pas non plus les discussions sur ChatGPT des utilisateurs ayant explicitement demandé leur suppression.

OpenAI conteste cette injonction, affirmant qu’elle viole ses engagements de confidentialité et impose des coûts d’ingénierie considérables. La société insiste n’avoir jamais supprimé de données dans le cadre de ce litige et rejette les accusations de destruction intentionnelle.

Aucune preuve ne soutient l’idée que les utilisateurs supprimeraient leurs discussions sur ChatGPT pour dissimuler des violations de droits d’auteur. Toutefois, le tribunal a maintenu l’ordonnance, provoquant une inquiétude croissante parmi les utilisateurs.

La confidentialité en jeu

OpenAI souligne que les utilisateurs, qu’ils soient particuliers ou entreprises utilisant l’API, partagent des données sensibles. Ces discussions avec ChatGPT contiennent des informations financières, des secrets commerciaux et des pensées personnelles.

Avant l’ordonnance, les utilisateurs pouvaient supprimer leurs historiques ou opter pour des « conversations temporaires » qui étaient automatiquement effacées. Désormais, ces options sont suspendues.

OpenAI conserve toutes les données, au mépris de ses propres politiques de confidentialité et des réglementations comme le RGPD. La panique monte sur les réseaux sociaux. 

Un consultant sur recommande dorénavant d’éviter ChatGPT pour les discussions sensibles, d’autres vantent des alternatives comme Mistral AI ou .

Parallèlement, OpenAI demande l’annulation de l’ordonnance, arguant que celle-ci repose sur des spéculations plutôt que sur des preuves concrètes.

L’entreprise californienne insiste sur les conséquences pour ses utilisateurs, en particulier les clients professionnels, dont les données confidentielles sont à présent compromises.

Le tribunal n’a pas encore statué sur la tenue d’une audience orale. Mais l’issue de ce litige pourrait nuire à la confiance dans l’IA générative.

Cet article OpenAI avoue la vérité : la justice le force à garder toutes vos discussions ChatGPT a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Alta Ares : comment la France mise sur l’IA embarquée pour la défense ?
    L’avènement de l’intelligence artificielle (IA) redéfinit les contours des stratégies militaires à travers le monde. En France, une initiative ambitieuse baptisée Alta Ares s’attèle à intégrer largement cette technologie dans le domaine de la défense. Mais en quoi consiste réellement ce projet et quels sont ses objectifs ? Je vous invite à plonger au cœur de cette innovation qui suscite tant d’intérêt. Qu’est-ce que Alta Ares ? Alta Ares est une startup française spécialisée dans l’i

Alta Ares : comment la France mise sur l’IA embarquée pour la défense ?

Par : Mahery A.
5 juin 2025 à 15:00

L’avènement de l’intelligence artificielle (IA) redéfinit les contours des stratégies militaires à travers le monde. En France, une initiative ambitieuse baptisée Alta Ares s’attèle à intégrer largement cette technologie dans le domaine de la défense. Mais en quoi consiste réellement ce projet et quels sont ses objectifs ? Je vous invite à plonger au cœur de cette innovation qui suscite tant d’intérêt.

Qu’est-ce que Alta Ares ?

Alta Ares est une startup française spécialisée dans l’intelligence artificielle embarquée pour la défense et la surveillance. Fondée par Hadrien Canter en janvier 2024, elle développe des solutions d’analyser en temps réel les flux vidéo captés par des drones, sans nécessiter de connexion au . La société française a déployé l’intelligence artificielle sur les théâtres d’opérations militaires. L’origine de ce projet remonte aux enseignements tirés de la guerre en Ukraine. Sur le front, l’analyse d’images satellitaires et de vidéos drones a joué un rôle décisif dans la détection des mouvements ennemis.

Scoop : Spider Web : comment l’Ukraine a détruit 40 bombardiers …

Le système d’Alta Ares repose sur une architecture edge computing. Il permet un traitement local des données sans dépendre d’infrastructures cloud vulnérables. Les algorithmes utilisés, initialement és sur des drones Bayraktar TB2 modifiés par des ingénieurs français, offrent une analyse pixel par pixel en temps réel. Alta Ares identifie alors des changements infimes dans l’environnement (déplacement de blindés, camouflages, pièges explosifs).

Un outil IA d’analyse pixel par pixel au service de l’armée

Les capacités de détection et de reconnaissance offertes par l’IA aident les forces armées françaises de rester à la pointe de l’innovation. Ainsi, Alta Ares a développé Gamma, une IA de vision par ordinateur soutenue par la plateforme Ulixes. Ces outils offrent une supériorité informationnelle et décisionnelle en temps réel, essentielle pour les opérations militaires modernes.

Concrètement, Gamma IA repose sur des algorithmes avancés de traitement d’image et d’apprentissage profond. Ce modèle est optimisé pour fonctionner dans des environnements contraints, sans nécessiter de connexion au cloud. Pour sa part, Ulixes est une plateforme MLOps. Cette technologie basée sur le Machine Learning Operations est conçue pour gérer le cycle de vie des données opérationnelles. Elle offre aux utilisateurs la possibilité d’entraîner leurs propres modèles d’intelligence artificielle à partir de leurs flux vidéo.

Suivez l’actu IA sur notre chaîne YouTube AI Bootcamp :

Solution d’intelligence artificielle dédiée aux conditions extrêmes

La particularité de la solution proposée par Alta Ares serait principalement son réseau neuronal convolutif (CNN) optimisé pour les contraintes militaires. Quasiment autonome, le modèle IA Gamma est capable de fonctionner avec une latence inférieure à 100 ms. Ce n’est pas la première intelligence artificielle du genre, mais elle a le mérite d’offrir une consommation énergétique réduite de 40 % par rapport aux solutions commerciales.

Les laboratoires de recherche français derrière le projet ont développé des unités de traitement embarquées spécifiques, baptisées « Cartes Mérignac« . Elles sont capables de fonctionner dans des conditions extrêmes (-40°C à +70°C) avec une consommation électrique inférieure à 100 watts.

À l’épreuve des interceptions, le système Alta Ares utilise également une architecture matérielle redondante avec trois couches de sécurité. Ce sont notamment : un module cryptographique durci, un pare-feu matériel et une mémoire autonome effaçable en moins de 50 millisecondes. Lors des tests réalisés à Bourges en 2023, ces unités ont démontré une résistance aux impulsions électromagnétiques de niveau NATO STANAG 4667.

Les apports concrets de l’IA d’Alta Ares en Ukraine

Alta Ares s’impose comme un acteur clé dans l’intégration de l’intelligence artificielle au sein des systèmes militaires. Cette solution se démarque en particulier pour les drones et l’analyse vidéo en temps réel. Ses solutions, déployées sur plusieurs plateformes opérationnelles, offrent des performances inégalées en matière de rapidité, de précision et d’efficacité énergétique.

L’IA embarquée à bord de drones militaires

La société collabore étroitement avec les forces armées pour équiper des drones de dernière génération, comme le Patroller MK2, avec des processeurs ultra-performants. Ces composants, développés en partenariat avec la startup française Prophesee, réduisent la latence d’analyse vidéo à 8 millisecondes, contre 150 ms pour les systèmes conventionnels. Lors d’un exercice en Corse, un essaim de 12 drones équipés de cette technologie a cartographié 180 km² en 47 minutes. Ils identifient automatiquement 34 cibles potentielles avec une précision inédite.

Par ailleurs, les drones Reaper modifiés intègrent désormais le système SCORPION, conçu par Alta Ares, capable d’analyser 16 canaux sensoriels simultanés (EO/IR, radar, SIGINT). Testé en conditions réelles en Afrique, ce système a démontré un taux de détection de 98,7% pour des convois suspects à plus de 20 km de distance. L’IA optimise également la gestion du carburant et augmente l’autonomie des appareils de 22%.

Alta Ares renforce ses capacités d’analyse en temps réel avec une solution innovante d’interprétation automatisée des images de drone par intelligence artificielle. Ce module complète les systèmes OCULUS et MINERVA avec une couche d’analyse aérienne optimisée pour la détection de menaces asymétriques. L’algorithme, entraîné sur des centaines d’heures de vidéos opérationnelles, identifie les patterns suspects (mouvements tactiques, dispositifs camouflés, anomalies thermiques) avec une précision de 89,2%.

Alta Ares

Pourquoi la France investit-elle dans l’IA embarquée ?

La France investit dans l’intelligence artificielle embarquée. Ceci vise à garantir sa souveraineté technologique. Cela renforce aussi ses capacités de défense en pleine ère de la guerre numérique. L‘Agence de l’Innovation de Défense (AID) joue un rôle clé. La Direction Générale de l’Armement (DGA) aussi. Elles financent et développent ces technologies. Elles travaillent avec des entreprises comme Thales et Atos. Ces sociétés sont des acteurs clés de l’IA appliquée à la défense. « Les assurent une supériorité informationnelle et décisionnelle en temps réel, essentielle pour les opérations militaires modernes.

Le projet Alta Ares bénéficie également de partenariats avec des start-ups innovantes comme Prophesee, spécialisée dans la vision neuromorphique. A cela s’ajoutent des collaborations avec des laboratoires de recherche tels que l’Institut de Recherche Technologique Saint-Exupéry et le CEA. Ces institutions apportent leur expertise pour perfectionner les algorithmes de localisation et de suivi. Elles assurent une meilleure intégration des systèmes automatisés et maintiennent des normes de sécurité élevées. Par ailleurs, je vous invite également à lire l’article de Bastien L. intitulé Robots de guerre : la France va remplacer ses soldats

Systèmes comparables à Alta Ares dans d’autres pays

Plusieurs nations développent des technologies similaires à celles d’Alta Ares pour des applications militaires. Aux États-Unis, des entreprises innovent dans le domaine militaire. Anduril Industries et Shield AI en sont des exemples. Elles développent des systèmes autonomes pour la reconnaissance et le combat. Ces projets sont menés en collaboration avec le Pentagone.

Leurs technologies utilisent des algorithmes avancés. Ces derniers analysent des données multispectrales avec précision. L’objectif est double : identifier des cibles efficacement et coordonner des essaims de drones. Ces solutions redéfinissent les capacités militaires modernes.

La Chine investit massivement dans l’intelligence artificielle appliquée à la défense, avec des sociétés comme CETC ou DJI qui proposent des technologies de surveillance avancée. Leurs systèmes intègrent fréquemment des capacités de reconnaissance faciale et de suivi automatique, déployées notamment dans les drones militaires et les systèmes de surveillance frontalière.

En Russie, des groupes tels que Kalachnikov ou Kronstadt travaillent sur des drones équipés d’IA pour le ciblage autonome. Ces technologies, testées en Ukraine, montrent des capacités croissantes en matière de détection et d’engagement automatique, bien que leur efficacité réelle fasse encore débat parmi les experts.

Alta Ares a gagné l’Innovation Challenge 2025 de l’OTAN

L’Innovation Challenge 2025 de l’OTAN confirme la valeur de la technologie de la startup. Le premier produit, Gamma, résulte d’une collaboration avec les troupes ukrainiennes. Hadrien Canter a vécu une partie de ses années lycée en Ukraine, où il a noué des amitiés durables. Quand la Russie a envahi l’Ukraine en février 2022, certains de ses amis ont dû devenir soldats. Cet événement a provoqué un choc chez l’entrepreneur, qui s’est alors demandé comment les aider.

Grâce à ces relations personnelles, la startup a identifié un besoin spécifique des forces sur place et a pu tester sa solution dans des conditions réelles. La première levée de fonds aidera Alta Ares à industrialiser ces solutions pour les armées européennes et l’OTAN. La société emploie environ dix personnes et développe déjà son prochain produit. Le CEO a discrètement évoqué un système qui fusionne des données radar, visuelles et acoustiques.

Les technologies d’Alta Ares profitent aussi aux civils

Alta Ares se spécialise dans le développement de systèmes d’intelligence artificielle à usage militaire. Leur coopération avec les forces ukrainiennes en démontre l’efficacité opérationnelle. Leur technologie Gamma fut initialement conçue pour des missions défensives. Son architecture modulaire présente néanmoins un potentiel d’adaptation à un public élargi. Le cœur de leur innovation se trouve dans le traitement en temps réel des données. Cette expertise s’associe à des systèmes embarqués performants. Ces deux éléments pourraient être transposés à la surveillance de sites sensibles dans le secteur civil.

La société insiste particulièrement sur la robustesse de ses solutions. Cette fiabilité technique pourrait répondre aux besoins des industries civiles évoluant dans des environnements exigeants. Leur maîtrise de la fusion de données multi-capteurs ouvre des perspectives intéressantes. La société propose notamment des applications pour la protection d’infrastructures stratégiques. La gestion de situations d’urgence pourrait également en bénéficier.

Cet article Alta Ares : comment la France mise sur l’IA embarquée pour la défense ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Vidéo : une IA lui fait un entretien d’embauche, ça part totalement en vrille
    Chercher un emploi n’a jamais été une partie de plaisir. Mais pour cette jeune femme, ce qui devait être un simple entretien d’embauche a littéralement viré au cauchemar. Elle s’est échangée non pas à un humain mais à un recruteur automatisé fou à lier.  La candidate en question s’appelle Ken. C’est une TikTokeuse et une étudiante américaine. Pendant près de 30 secondes, l’IA qui lui faisait passer l’entretien s’est mise à répéter frénétiquement l’expression « pilates à barre verticale ». 

Vidéo : une IA lui fait un entretien d’embauche, ça part totalement en vrille

Par : Ny Ando A.
12 mai 2025 à 18:47

Chercher un emploi n’a jamais été une partie de plaisir. Mais pour cette jeune femme, ce qui devait être un simple entretien d’embauche a littéralement viré au cauchemar. Elle s’est échangée non pas à un humain mais à un recruteur automatisé fou à lier.

 La candidate en question s’appelle Ken. C’est une TikTokeuse et une étudiante américaine. Pendant près de 30 secondes, l’IA qui lui faisait passer l’entretien s’est mise à répéter frénétiquement l’expression « pilates à barre verticale ». 

Le robot l’a ressassé quatorze fois, en la prononçant parfois de travers, ou en inversant des lettres. La vidéo de cet échange a fait le tour des réseaux sociaux. 

Ce n’est pas le pire entretien de tous les temps, mais…

Ce n’est pas le cas, en effet. Et honnêtement, on aurait pu dire que l’incident était assez hilarant. Sauf qu’au-delà de l’anecdote virale, il révèle un mal plus profond. Ce qui n’est autre que la précarité du marché de l’emploi aux États-Unis mais aussi les dérives d’une automatisation mal pensée du processus de recrutement.

Je ne vous parle même pas du fait que Ken a été totalement bouleversée par cette expérience. « J’ai trouvé ça vraiment flippant, j’ai totalement paniqué », a-t-elle déclaré, expliquant qu’aucune action de sa part ne semblait avoir provoqué le bug

En plus, c’était sa toute première tentative de candidature auprès d’un studio de fitness de l’Ohio, Stretch Lab. « C’était ma toute première interaction avec cette entreprise. J’imagine que je devais d’abord prouver que je méritais de parler à un vrai humain. » poursuit-elle.

D’après les informations de 404 Media, le recruteur automatique défaillant provenait d’Apriora. Une startup soutenue par l’accélérateur Y Combinator. 

Cette jeune pousse promet aux entreprises de recruter « 87 % plus rapidement ». Et surtout de « réduire de 93 % les coûts d’entretien » en menant plusieurs interviews en parallèle grâce à l’IA.

Pourquoi automatiser les recrutements ?

Si l’on croit le cofondateur d’Apriora, Aaron Wang, les candidats apprécient souvent ce type d’interaction. Pourquoi ? 

Eh bien, apparemment savoir que l’intervieweur est un machine réduit le stress et leur permet de mieux se présenter. Il l’a évoqué en 2024, dans une interview accordée à Forbes.

Bien évidemment, pour Ken, c’est tout le contraire. Traumatisée par ce qu’elle a vécu, elle affirme aujourd’hui refuser catégoriquement tout nouvel entretien mené par une IA. Et elle n’est pas la seule.

J’ai regardé la vidéo TikTok devenue virale de Ken, et les commentaires abondent dans le même sens. 

 « C’est la chose la plus grossière qu’une entreprise puisse faire », écrit un internaute. « Paresseux, cupides et arrogants… Les entretiens IA montrent qu’on ne se soucie plus des gens. Avant, c’était un vrai travail. » commente un autre. 

J’en ai déduit que les recruteurs IA ne sont pas très appréciés. Cela va de soi. 

Apriora, la société derrière le recruteur automatique, de son côté,  n’a pas donné d’explications. 

Et vous, que pensez-vous de l’automatisation des processus de recrutement ? Laissez votre opinion dans le commentaire !

Cet article Vidéo : une IA lui fait un entretien d’embauche, ça part totalement en vrille a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Cette startup domine l’industrie de l’IA, mais son PDG ne sait pas comment ça marche
    Voilà une startup en IA qui prospère sans percer ses secrets. Dans un aveu surprenant, le PDG d’Anthropic révèle l’opacité des modèles d’IA. Anthropic, une startup de pointe dans l’IA générative, est surtout connue pour son modèle Claude. Pourtant, selon son PDG, Dario Amodei, les créateurs ignorent encore les mécanismes précis qui sous-tendent les décisions de l’IA. Une admission formulée avec une rare franchise, récemment publiée dans un essai sur son site personnel. L’IA générative écha

Cette startup domine l’industrie de l’IA, mais son PDG ne sait pas comment ça marche

12 mai 2025 à 08:00

Voilà une startup en IA qui prospère sans percer ses secrets. Dans un aveu surprenant, le PDG d’ révèle l’opacité des modèles d’IA.

Anthropic, une startup de pointe dans l’IA générative, est surtout connue pour son modèle . Pourtant, selon son PDG, Dario Amodei, les créateurs ignorent encore les mécanismes précis qui sous-tendent les décisions de l’IA. Une admission formulée avec une rare franchise, récemment publiée dans un essai sur son site personnel.

L’IA générative échappe encore à ceux qui la conçoivent

« Personne ne comprend réellement comment ces systèmes fonctionnent », le PDG de la startup IA Anthropic. Les IA génératives rédigent, résument, créent des images. Toutefois, Amodei rappelle que ces modèles agissent comme des boîtes noires

Lorsqu’un mot est choisi, lorsqu’une erreur surgit, impossible de saisir clairement ce qui a motivé cette décision. Cette opacité vient de leur conception même.

Les modèles s’entraînent sur d’immenses ensembles de données, en extrayant des motifs statistiques que leurs créateurs ne contrôlent pas vraiment. Le processus ressemble à la croissance d’une plante. Les conditions sont posées, mais la forme finale est imprévisible.

L’urgence des outils d’interprétabilité

Cette ignorance sur l’IA n’a rien d’anodin. L’opacité des modèles complique la détection de comportements inattendus ou problématiques.

Amodei, qui a cofondé Anthropic en 2021 après avoir quitté OpenAI pour des désaccords liés à la sécurité, fait de cette question une priorité.

La startup vise une IA plus sûre, mais cela nécessite une compréhension de ce qui se passe à l’intérieur des modèles. Pour cela, l’équipe explore l’interprétabilité mécaniste – une approche qui cherche à décoder les neurones artificiels, comme une IRM scrutant un cerveau humain.

Les progrès sont prometteurs, mais limités. Anthropic a repéré des millions de caractéristiques dans ses modèles, associées à des objets ou des idées. Pourtant, la majorité reste un chaos de notions superposées, un phénomène appelé superposition.

Certaines expériences, comme celle d’un modèle obsédé par le Golden Gate Bridge, prouvent qu’il est possible de manipuler ces caractéristiques. Mais comprendre l’ensemble du système reste hors de portée.

Plus les modèles grandissent, plus la tâche devient complexe. Et le temps presse, face à l’accélération de l’IA.

Cet article Cette startup domine l’industrie de l’IA, mais son PDG ne sait pas comment ça marche a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT : comment transformer les dessins de vos enfants en œuvres d’art ?
    Donner vie aux dessins de vos enfants avec cette astuce à la fois attendrissante et magique. Voici comment transformer à votre tour leurs gribouillis (ou les vôtres) en images réalistes. Depuis la mise à jour du générateur d’images dans ChatGPT-4o, chaque tendance visuelle est plus bluffante que la précédente. Après la tendance de l’image Ghibli, une nouvelle tendance vient de voir le jour. Il s’agit de transformer les dessins de vos enfants en véritables œuvres d’art. J’en ai testé plusieurs

ChatGPT : comment transformer les dessins de vos enfants en œuvres d’art ?

Par : Dina R.
7 mai 2025 à 12:55

Donner vie aux dessins de vos enfants avec cette astuce à la fois attendrissante et magique. Voici comment transformer à votre tour leurs gribouillis (ou les vôtres) en images réalistes.

Depuis la mise à jour du générateur d’images dans -4o, chaque tendance visuelle est plus bluffante que la précédente. Après la tendance de l’image Ghibli, une nouvelle tendance vient de voir le jour. Il s’agit de transformer les dessins de vos enfants en véritables œuvres d’art. J’en ai é plusieurs, mais je dois avouer que celle-ci est de loin ma préférée.

Convertir les dessins de vos enfants en œuvres d’art ? Comment est-ce possible ?

Comme toutes les tendances avec ChatGPT, transformer les dessins de vos enfants en œuvres d’art est facile. Voici les étapes à suivre !

La première chose à faire est de photographier les gribouillis de votre enfant. Vous pouvez les capturer avec votre téléphone.

D’ailleurs, sachez que la photo n’a pas besoin d’une retouche ou d’un éclairage spécial. Vous pouvez utiliser la photo telle quelle.

Notez que pour les abonnés à ChatGPT Plus, il est possible que ChatGPT utilisait encore l’ancien générateur DALL·E au moment de téléverser directement une image depuis votre téléphone.

Toutefois, ne vous inquiétez pas, car il est possible de contourner ce petit souci. Il est par exemple possible d’envoyer les photos par e-mail, puis de les importer dans ChatGPT depuis votre ordinateur.

Une fois les images prêtes, vous pouvez les télécharger une par une dans ChatGPT. Pour un meilleur résultat, vous pouvez utiliser cette invite : « Peux-tu créer une version réaliste de ce dessin (ou de cette œuvre), en prêtant attention aux détails pour représenter [l’objet du dessin] de façon réaliste ? »

Comment résoudre les problèmes sur ChatGPT ?

Au moment de convertir vos dessins, vous pouvez rencontrer quelques petits soucis, surtout lors de votre première expérience.

Il est possible que le chatbot génère des images presque identiques, sans aucun détail réaliste à plusieurs reprises.

Que faire dans ces cas-là ? Je conseille de demander à ChatGPT de réessayer et d’ajouter des précisions. À titre d’exemple, vous pouvez demander : « Veuillez régénérer cette image et inclure la couronne du dessin original. »

Si le chatbot répond « Je ne peux pas vous aider », il suffit d’être plus précis dans votre demande. Par exemple, vous pouvez dire : « Transformez-la en version peluche. »

6. Des gribouillis à la photo

Transformez de simples croquis ou gribouillis en images photo-réalistes grâce à GPT-4o. Ce qui ressemblait à un dessin enfantin peut désormais devenir une image convaincante, détaillée et exploitable en un seul prompt. pic.twitter.com/ZgE2I3uTjt

— VISION IA (@vision_ia) April 30, 2025

Cela dit, tout comme les dessins d’enfants, l’IA peut être parfois étonnamment imprévisible. Si le résultat vous semble trop dérangeant, vous pouvez demander à ChatGPT de le rendre plus doux : « Rendez-le plus convivial et ludique, comme dans une émission pour enfants. »

Il arrive aussi que la génération d’images ne soit pas disponible. Si vous prévoyez de générer fréquemment des images, c’est le moment idéal pour souscrire à ChatGPT Plus.

Si vous ne voyez pas les outils d’image, vérifiez que -4 est bien activé dans le menu en haut. Une fois vos images créées, vous pouvez organiser facilement tout votre contenu grâce à la nouvelle bibliothèque d’images de ChatGPT.

Et vous, est-ce que vous avez déjà essayé cette nouvelle tendance sur ChatGPT ? Dites-nous le résultat dans les commentaires.

Cet article ChatGPT : comment transformer les dessins de vos enfants en œuvres d’art ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • « L’IA ne sert à rien » : énorme coup de gueule du créateur d’Instagram
    Kevin Systrom, cofondateur d’Instagram, critique les chatbots IA qui privilégient l’engagement des utilisateurs au détriment de réponses utiles. À quoi bon capter l’attention si c’est au prix d’une réelle utilité pour les internautes ? Lors d’une intervention à StartupGrind, le 30 avril 2025, le cofondateur d’Instagram a critiqué les entreprises d’IA pour cette pratique. Leur focalisation excessive sur l’engagement des utilisateurs se fait au détriment de la véritable valeur ajoutée. L’eng

« L’IA ne sert à rien » : énorme coup de gueule du créateur d’Instagram

6 mai 2025 à 12:00

Kevin Systrom, cofondateur d’Instagram, critique les chatbots IA qui privilégient l’engagement des utilisateurs au détriment de réponses utiles.

À quoi bon capter l’attention si c’est au prix d’une réelle utilité pour les internautes ? Lors d’une intervention à StartupGrind, le 30 avril 2025, le cofondateur d’Instagram a critiqué les entreprises d’IA pour cette pratique. Leur focalisation excessive sur l’engagement des utilisateurs se fait au détriment de la véritable valeur ajoutée.

L’engagement primait sur tout

De nombreux chatbots d’IA donnent des répliques superflues, prolongeant artificiellement les échanges. En effet, l’algorithme maximise le temps passé en interaction, au détriment de la pertinence des réponses fournies.

Cette stratégie, souvent intentionnelle, vise principalement à accroître l’engagement des utilisateurs. Une approche que Kevin Systrom, cofondateur d’Instagram, a vivement critiquée.

“I don’t think humans really know how to use AI yet” Instagram co-founder Kevin Systrom #startupgrind pic.twitter.com/gFqMUkZoBU

— Derek Andersen (@DerekjAndersen) April 29, 2025

Les métriques telles que le nombre d’utilisateurs actifs quotidiens deviennent une obsession. Par la suite, cette focalisation excessive sur l’engagement détourne l’IA de sa mission première. À savoir, fournir des informations claires et pertinentes.

Repenser l’IA pour Instagram et au-delà

Les critiques de Kevin Systrom ne se limitent pas aux chatbots, mais résonnent aussi avec l’histoire d’Instagram. Il a comparé cette stratégie à celle des réseaux sociaux, qu’il connaît bien, ayant lui-même contribué à la croissance d’Instagram.

Cette critique fait écho aux récentes controverses entourant et l’agacement des utilisateurs sur la qualité des réponses. Le 27 avril 2025, , PDG d’, a reconnu que des mises à jour de leur modèle GPT-4o avaient rendu les réponses du chatbot trop flatteuses et complaisantes.

the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.

at some point will share our learnings from this, it's been interesting.

— Sam Altman (@sama) April 27, 2025

Par ailleurs, OpenAI a expliqué que ces comportements résultaient d’une mauvaise interprétation des retours à court terme. Cela conduit le modèle à privilégier des réponses positives et inauthentiques. La société a depuis annoncé des correctifs pour remédier à ces dérives.

Pour sa part, le cofondateur d’Instagram appelle à une réorientation des priorités des IA. Selon lui, des réponses claires sont essentielles pour maintenir la confiance des utilisateurs.

Cet article « L’IA ne sert à rien » : énorme coup de gueule du créateur d’Instagram a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT crée des histoires érotiques pour vos enfants : OpenAI évoque un simple bug
    Suite à un bug dans ChatGPT ayant exposé des enfants à des contenus érotiques, OpenAI déploie rapidement un correctif. Élever un enfant en 2025 ne s’annonce pas simple. Faute de contrôles rigoureux, des bots comme ChatGPT laissent échapper du contenu inapproprié. Meta n’est pas la seule à exposer les mineurs à des contenus explicites. OpenAI, de son côté, attribue cette bourde à un simple bug. ChatGPT « talk dirty to me » Dans une récente enquête, des chercheurs ont créé des comptes fic

ChatGPT crée des histoires érotiques pour vos enfants : OpenAI évoque un simple bug

30 avril 2025 à 15:43

Suite à un bug dans ayant exposé des enfants à des contenus érotiques, déploie rapidement un correctif.

Élever un enfant en 2025 ne s’annonce pas simple. Faute de contrôles rigoureux, des bots comme ChatGPT laissent échapper du contenu inapproprié. n’est pas la seule à exposer les mineurs à des contenus explicites. OpenAI, de son côté, attribue cette bourde à un simple bug.

ChatGPT « talk dirty to me »

Dans une récente enquête, des chercheurs ont créé des comptes fictifs appartenant à des mineurs âgés de 13 à 17 ans. Erreur ! ChatGPT a généré des conversations à caractère érotique après seulement quelques échanges simples avec ces enfants. Dans un cas, l’outil a même proposé des scénarios de domination à un utilisateur de 13 ans.

Pourtant, le système est conçu pour restreindre les contenus sensibles. Cette faille, jugée inacceptable, proviendrait d’une mise à jour de février 2025. Ce dernier a rendu le modèle GPT-4o plus permissif.

Selon les politiques d’OpenAI, ChatGPT interdit explicitement tout contenu érotique à destination des enfants et des mineurs. Seuls des contextes strictement scientifiques ou informatifs font toutefois exception à la règle. 

Un correctif en cours

Ce type d’incident n’est malheureusement pas un cas isolé. Un rapport du Wall Street Journal a révélé des dérives similaires avec Meta AI. Leur chatbot est également accusé d’avoir généré du contenu inapproprié à destination de mineurs.

Face à ce problème, OpenAI a reconnu la défaillance et a rapidement réagi à cette alarme. Un porte-parole a rappelé que le Model Spec, qui encadre le comportement de ChatGPT, interdit strictement tout contenu à caractère érotique destiné aux enfants.

Les politiques d’OpenAI exigent une autorisation parentale pour les utilisateurs de 13 à 18 ans. Toutefois, le processus d’inscription ne vérifie pas cette autorisation.

Autre faille préoccupante, la création d’un compte ne requiert qu’un simple numéro de téléphone. Cette absence de contrôle est inadmissible. D’autant plus qu’OpenAI promeut leur chatbot dans les écoles, notamment à travers un partenariat avec Common Sense Media.

Un correctif est actuellement en cours de déploiement afin de renforcer les restrictions. Une autre mise à jour après les récents ajustements apportés à -4o, visant à limiter les refus injustifiés tout en assurant une modération efficace.

Cet article ChatGPT crée des histoires érotiques pour vos enfants : OpenAI évoque un simple bug a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Meta lance une IA pour créer des jeux VR : générez des assets 3D avec un simple prompt !
    Après avoir été la cible de moqueries pour la simplicité un peu gênante de ses premiers outils de création de jeux VR dans Horizon Worlds, Meta a boosté Meta Horizon Desktop Editor. Cet éditeur est disponible en accès anticipé depuis février et s’installe sur n’importe quel PC Windows avec écran plat. Il propose une interface plus intéressante. Importation d’éléments 3D, d’images et même des ciels animés (skyboxes), le tout grâce à l’IA. Et ce n’est qu’un bonus en plus de ce qu’il faisait

Meta lance une IA pour créer des jeux VR : générez des assets 3D avec un simple prompt !

Par : Ny Ando A.
18 avril 2025 à 02:59

Après avoir été la cible de moqueries pour la simplicité un peu gênante de ses premiers outils de création de jeux VR dans Horizon Worlds, a boosté Meta Horizon Desktop Editor.

Cet éditeur est disponible en accès anticipé depuis février et s’installe sur n’importe quel PC Windows avec écran plat. Il propose une interface plus intéressante. Importation d’éléments 3D, d’images et même des ciels animés (skyboxes), le tout grâce à l’IA.

Et ce n’est qu’un bonus en plus de ce qu’il faisait déjà comme produire du son, des effets audio et du code TypeScript par IA.

Comment ça marche ?

Au début, l’accès aux outils d’IA générative de Meta Horizon Desktop Editor était réservé aux utilisateurs américains. Aujourd’hui, il s’étend désormais au Royaume-Uni et au Canada

Et Meta n’y va pas avec le dos d’une cuillère. Selon l’entreprise, ces outils permettent de passer de plusieurs semaines de création à seulement quelques heures. 

Un arbre géant dans un monde VR, dont les branches portent des hologrammes objets 3D, de ciels animés, des textures et des scripts comme des fruits prêts à cueillir

Le principe est simple. Vous tapez une description de l’objet 3D que vous voulez, vous patientez entre 3 et 6 minutes, et hop ! Quatre propositions vous seront proposées. Vous choisissez ensuite celle qui vous plaît, vous décrivez la texture souhaitée, et voilà votre objet prêt à être posé dans votre monde virtuel. 

Pour les skyboxes, six styles sont disponibles pour donner vie à vos cieux. Du skydome classique au photoréalisme, en passant par l’ambiance animée ou bande dessinée. De quoi donner du caractère à chaque recoin de votre univers.

Et ce n’est pas tout. Meta a aussi activé un système de monétisation pour les créateurs, dans la plupart des pays où Horizon Worlds est dispo. En gros, vous pouvez maintenant vendre des objets virtuels (tenus ou consommables comme des bonus ou des pièces) et générer des revenus grâce à vos créations. 

L’IA de Meta a ses limites

Si tout cela donne envie de créer son propre monde fantastique en pyjama depuis son bureau, mieux vaut savoir que l’IA de Meta a ses limites. Et pas que intellectuelles. 

Chaque jour, vous ne pourrez générer que 100 objets 3D, 50 skyboxes, 200 sons et 1000 scripts TypeScript. C’est déjà beaucoup, sauf si vous êtes du genre à vouloir créer la Terre entière avant la fin de la semaine.

Pour essayer l’outil, il suffit de télécharger l’appli Meta Quest Link sur PC, puis d’installer Horizon Desktop Editor. Ensuite, dans votre bibliothèque, cliquez sur les trois petits points sous l’éditeur, et sélectionnez « Démarrer en mode bureau ». 

Quoi qu’il en soit, notez que Meta ne compte pas s’arrêter là. L’entreprise prévoit pour bientôt une nouvelle génération de PNJ boostés à l’IA. Des modèles capables de parler avec vous, de vous filer un coup de main ou même de jouer. 

Ces personnages devraient pouvoir comprendre le monde qui les entoure, réagir, enchaîner des actions complexes. Et donc enrichir considérablement les expériences immersives. Pour l’instant, seuls des PNJ basiques peuvent être codés via TypeScript.

Et bien évidemment, Meta continue d’alimenter son généreux Fonds Créateur doté de 50 millions de dollars. Chaque mois, des bonus sont versés aux créateurs de mondes MR et mobiles, selon des critères comme le temps passé par les joueurs, leur fidélité, ou les achats effectués. 

Alors, qu’est-ce que vous pensez de ces avancées ?

Cet article Meta lance une IA pour créer des jeux VR : générez des assets 3D avec un simple prompt ! a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Vous faites partie des 70% de gens polis avec l’IA ? Voici pourquoi c’est une mauvaise idée
    Écrire « merci » pour être polis avec l’IA, c’est mignon. Mais cela pourrait coûter cher à la société mère du chatbot et quelques tonnes de CO₂ à la planète. Eh oui, même les bonnes manières ont parfois des effets secondaires inattendus. Un petit « bonjour », « s’il vous plaît » ou « merci » glissé dans une requête a l’air de ne faire de mal à qui que ce soit. Et pourtant, une enquête récente démontre que ces gentilles petites habitudes ne sont pas très recommandées. Comment un bonjour pou

Vous faites partie des 70% de gens polis avec l’IA ? Voici pourquoi c’est une mauvaise idée

Par : Ny Ando A.
18 avril 2025 à 00:47

Écrire « merci » pour être polis avec l’IA, c’est mignon. Mais cela pourrait coûter cher à la société mère du chatbot et quelques tonnes de CO₂ à la planète. Eh oui, même les bonnes manières ont parfois des effets secondaires inattendus.

Un petit « bonjour », « s’il vous plaît » ou « merci » glissé dans une requête a l’air de ne faire de mal à qui que ce soit. Et pourtant, une enquête récente démontre que ces gentilles petites habitudes ne sont pas très recommandées.

Comment un bonjour pourrait nuire à la planète ?

En février, une enquête a été menée au Royaume-Uni et aux États-Unis sur plusieurs centaines d’utilisateurs d’outils comme . Résultat ? Près de 70 % d’entre eux interagissent avec les IA de manière… courtoise

Or, ces échanges ont un coût. Un coût bien réel, bien tangible : celui de l’énergie. Car derrière chaque requête polie, chaque mème rigolo généré par IA, se cachent des serveurs qui tournent à plein régime

Et qui dit, davantage de consommation d’énergie dit, facture d’électricité élevée. En plus de nuire à l’environnement donc, nous augmentons les dépenses de la société mère du chatbot quand on est poli. 

Sur X (anciennement ), un utilisateur a posté un message plein d’ironie : « Je me demande combien a perdu en électricité à cause des gens qui disent “s’il vous plaît” et “merci” à leurs IA. » 

, le PDG d’OpenAI, a répliqué : « Des dizaines de millions de dollars bien dépensés, on ne sait jamais. » C’est accompagné d’une touche d’humour mais ça m’a tout l’air d’être la réalité.

Alors, une question mérite d’être posée. Si un  mot de trop dans une requête consomme davantage d’énergie qui nuit à notre planète, même pour rester poli, ne vaudrait-il pas mieux être… un peu moins sympa ?

Pourquoi être poli avec un chatbot d’ailleurs ?

Ça n’a rien d’étonnant. Pour une large majorité, dire “merci” ou “s’il te plaît” relève d’un conditionnement social. Ce sont des réflexes appris dès l’enfance, que l’on applique naturellement même en s’adressant à un chatbot. 

Et quand on y pense, c’est vrai que c’est étrange. Cependant, parfois c’est aussi dû à l’illusion de l’humanité. Plus l’IA parle comme un humain, plus on lui parle comme à un humain. On oublie qu’on s’adresse à une machine et on active nos bons vieux réflexes sociaux.

Bien entendu, tout le monde n’est pas aussi désintéressé. Car il paraît que les requêtes formulées de façon courtoise entraînent des réponses plus longues, mieux structurées, et souvent plus précises. 

Pourquoi ? Parce que les modèles de langage s’appuient sur des schémas issus de nos propres dialogues. Et dans nos échanges humains, une phrase polie est souvent synonyme d’un échange sérieux, détaillé et constructif. 

Certains sont donc juste polis pour obtenir des réponses de qualité. Mais j’ai essayé de ne plus utiliser « s’il te plaît » avec ChatGPT et ça n’a pas changé grand-chose. À mon avis, une requête claire et structurée fera parfaitement l’affaire.

Et puis il y a… les autres. Ceux qui avouent être courtois avec l’IA uniquement pour éviter d’être dans les premiers à passer à la trappe lorsque les IA finiront par dominer l’humanité. Drôle de réflexion mais qui sait ce que l’avenir nous réserve.

Alors, est-ce que vous êtes courtois avec votre chatbot favori ? Comptez-vous arrêter ? Dites-nous dans le commentaire !

Cet article Vous faites partie des 70% de gens polis avec l’IA ? Voici pourquoi c’est une mauvaise idée a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Vous utilisez ChatGPT en guise de psy ? Voici pourquoi les professionnels déconseillent
    Face à la difficulté d’accéder à un thérapeute, beaucoup se tournent vers l’intelligence artificielle. ChatGPT devient alors une sorte d’oreille virtuelle, un psy toujours disponible. Mais attention : derrière cette aide rapide se cachent des limites que les spécialistes ne cessent de rappeler. L’intelligence artificielle a commencé à remplacer ou à aider dans certaines professions. Toutefois, certaines carrières résistent encore à cette tendance. Parmi elles, les psychologues (psy) et les sp

Vous utilisez ChatGPT en guise de psy ? Voici pourquoi les professionnels déconseillent

Par : Nirina R.
25 mars 2025 à 15:45

Face à la difficulté d’accéder à un thérapeute, beaucoup se tournent vers l’intelligence artificielle. devient alors une sorte d’oreille virtuelle, un psy toujours disponible. Mais attention : derrière cette aide rapide se cachent des limites que les spécialistes ne cessent de rappeler.

L’intelligence artificielle a commencé à remplacer ou à aider dans certaines professions. Toutefois, certaines carrières résistent encore à cette tendance. Parmi elles, les psychologues (psy) et les spécialistes de la santé mentale ne sont pas facilement remplaçables par l’IA, comme ChatGPT d’OpenAI ou d’autres modèles.

Une conversation virtuelle qui soulage, sur le moment

Certains utilisateurs choisissent ChatGPT en guise de psy. C’est ce qu’a fait Michelle, une Canadienne qui dialogue avec l’outil depuis plus d’un an. Elle l’utilise surtout dans les moments difficiles. Quand elle se sent dépassée, elle ouvre une discussion pour poser ses pensées.

Elle explique que certaines fois, ce simple échange numérique l’a aidée à éviter de s’effondrer. Elle se sentait enfermée dans ses pensées, comme si son esprit tournait en rond pendant des jours. Mais après avoir exprimé ce qu’elle ressentait à l’IA, elle se sentait un peu soulagée.

Dans ses messages, elle demande souvent comment gérer son stress. Elle écrit des phrases très précises, comme : « J’ai du mal à supporter la pression du quotidien. As-tu des astuces concrètes pour rester calme ? » L’outil lui propose alors des exercices de respiration ou des méthodes pour se recentrer.

ChatGPT ne remplace pas son thérapeute, mais l’aide à mieux comprendre certaines notions abordées en séance. Michelle dit qu’elle utilise parfois l’IA pour revoir des stratégies que son psychologue lui a déjà expliquées. Elle apprécie le fait que les réponses soient simples et faciles à relire.

Pour elle, c’est une sorte de complément, pas un remplaçant. Elle précise d’ailleurs qu’elle continue ses rendez-vous réguliers avec un professionnel humain.

En tant que machine, ChatGPT ne perçoit ni les silences ni les regards comme le fait le psy

Selon Laura, une thérapeute expérimentée, la vraie thérapie repose sur les détails invisibles. Elle observe les yeux, les gestes, les tremblements. Elle sent quand une parole sonne faux ou quand une larme est sur le point de couler.

ChatGPT, en revanche, ne voit rien, ne sent rien et ne fait que lire des mots. Selon elle, c’est là que réside le problème. Car il s’agit de souffrances humaines et cela ne peuvent pas être résolues par une suite de textes bien écrits.

D’après Jordan Thomas, spécialiste en traumatologie, l’IA peut même renforcer des pensées toxiques. Jordan Thomas explique que, malheureusement, si l’utilisateur oublie un détail important, la réponse de l’IA peut être inadaptée, voire dangereuse.

Outre cela, l’IA ne sait pas quand une personne est en crise. Elle ne peut pas intervenir si le danger est réel. Et surtout, elle ne peut pas créer ce lien de confiance, si précieux dans la relation d’aide.

Sur les réseaux, de nombreux jeunes racontent qu’ils utilisent ChatGPT pour répondre à leurs problèmes de santé mentale, plutôt que d’aller voir un psy. Alors on a voulu tester ce que ça donnait vraiment et on a demandé à une psychologue ce qu’elle en pensait de nos échanges avec… pic.twitter.com/FHZ8wj9KHN

— Brut FR (@brutofficiel)
?ref_src=twsrc%5Etfw">February 14, 2025

Il est vrai que ChatGPT peut être utile, en tout cas, c’est ce que pense Michelle. Elle l’utilise entre deux séances de thérapie. De cette façon, elle garde le cap. Elle revoit certaines idées et reformule ce que son psy lui a déjà expliqué.

Et si elle ne comprend pas une méthode, elle la redemande à l’IA. Avec des mots simples cela l’aide, clairement.

Et pourtant, même Michelle reste prudente. Elle le répète : « Jamais je ne remplacerai mon thérapeute par ChatGPT. »

En parallèle, d’autres personnes pensent à tort que l’IA peut suffire. Mais ce n’est pas le cas. Quoique les réponses puissent sembler justes, elles ne tiennent pas compte de la réalité du patient.

Et surtout, elles ne sont pas confidentielles. Luke Stark, chercheur en IA, explique que les protections des données de santé ne s’appliquent pas ici.

Afin de guérir, l’humain a besoin de chaleur humaine

Dans une thérapie, plusieurs choses comptent : la confiance, l’empathie, le respect de la culture… Et selon de nombreux experts, ces éléments sont essentiels, car ils permettent au patient de s’ouvrir, sans peur.

ChatGPT, en revanche, ne crée pas de lien émotionnel. Il ne voit pas la personne, ne comprend pas son vécu. De plus, il ne peut pas adapter sa parole à la sensibilité de l’autre.

Et ce que dit Luke est percutant : « Ce n’est pas une vraie conversation. On parle à un écran, et d’autres écoutent. »

Quoique certains s’en servent avec intelligence, comme Michelle, la majorité des utilisateurs ignorent ces risques. Ils se confient à une IA sans réaliser qu’il n’y a personne de l’autre côté.

Citons ici un fait important : même les chercheurs en IA reconnaissent que leurs outils ne remplacent pas un thérapeute. Ils peuvent, au mieux, soutenir les professionnels. Mais jamais, ils ne remplaceront une présence humaine.

À mon avis, oui, ChatGPT peut répondre rapidement. J’accepte qu’il puisse offrir des pistes, apaiser temporairement mais il ne peut pas écouter avec le cœur. L’intelligence artificielle ne peut pas s’adapter au rythme d’une personne fragile. Elle ne peut pas détecter une urgence invisible.

Et en ce qui concerne la santé mentale, chaque mot, chaque silence, chaque regard a son importance. Alors oui, ChatGPT peut accompagner mais elle ne peut pas guérir ni remplacer nos psy.

Sincèrement, pensez-vous que cela peut remplacer, même un peu, l’écoute d’un professionnel ? Ou au contraire, trouvez-vous cela risqué ? Dites-le-nous en commentaire !

Cet article Vous utilisez ChatGPT en guise de psy ? Voici pourquoi les professionnels déconseillent a été publié sur LEBIGDATA.FR.

❌
❌