Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

OpenAI signe un deal avec Google Cloud : toute l’industrie prise par surprise

Alors qu’on pensait le duo soudé comme un vieux câble HDMI, voilà que entre dans la partie. Le monde de l’IA ne s’attendait pas à cet accord surprise.

OpenAI vient de faire un pas inattendu et va utiliser les serveurs de pour faire tourner ses modèles d’IA. Mais pourquoi ce revirement ? Parce que la demande en puissance de calcul explose, que atteint ses limites, et que les besoins techniques dictent souvent les choix avant la loyauté.

L’accord est signé, OpenAI s’allie à Google Cloud

Depuis plusieurs années, Microsoft Azure était le fournisseur cloud quasi exclusif d’OpenAI. Mais en coulisses, les choses ont bougé. D’après Reuters, les discussions avec Google duraient depuis des mois, bloquées jusqu’ici par l’accord d’exclusivité avec Microsoft. Ce frein a donc sauté.

En mai, l’accord a été signé. Google Cloud va désormais fournir à OpenAI une puissance de calcul supplémentaire. C’est un carburant essentiel pour entraîner ses modèles toujours plus gourmands. Apparemment, OpenAI aurait atteint un chiffre d’affaires annuel de 10 milliards de dollars.

Alors, les ennemis deviennent-ils partenaires ? Nous savons tous que Google et OpenAI sont en concurrence frontale. Notamment avec et Gemini d’un côté, ChatGPT de l’autre. Pourtant, quand il s’agit de calcul, même les rivaux trouvent une entente. Ainsi, ce deal montre bien que dans l’IA, la collaboration passe parfois avant la compétition.

🚨BREAKING: OpenAI has partnered with Google in a new cloud deal to access additional compute power, despite being AI competitors. pic.twitter.com/PaMRFbQFhf

— Investing Broz (@InvestingBroz) June 10, 2025

En plus, Google y gagne aussi, car sa plateforme cloud, boostée par ses propres TPU (Tensor Processing Units), attire des clients exigeants comme , … et maintenant OpenAI. Avec 43 milliards de dollars générés par Google Cloud en 2024, je trouve le pari plutôt payant.

Par ailleurs, avec cet accord, OpenAI ne dépendra plus d’un seul fournisseur. L’entreprise a aussi d’autres gros projets dans les tuyaux. Par exemple, le partenariat à 500 milliards de dollars avec et SoftBank (projet Stargate), un accord avec CoreWeave, et même sa propre puce maison en développement. OpenAI veut avoir la main sur toute sa chaîne technique.

Cet article OpenAI signe un deal avec Google Cloud : toute l’industrie prise par surprise a été publié sur LEBIGDATA.FR.

Microsoft dévoile Dragon Copilot : l’IA qui va assister votre médecin !

Lundi, le 3 mars, a officiellement annoncé son nouvel assistant IA destiné au secteur de la santé, Dragon . Avec cette nouvelle technologie, la firme de Redmond promet de libérer les soignants de la paperasse pour qu’ils puissent enfin se consacrer à ce qui compte vraiment : leurs patients.

L’objectif de Microsoft n’est autre que d’alléger le fardeau administratif des cliniciens tout en optimisant la gestion des dossiers médicaux. Envie d’en savoir plus sur ce Dragon Copilot ? Suivez-moi.

Qu’est-ce que Dragon Copilot a à offrir ?

Dragon Copilot est le fruit de la collaboration entre Microsoft et Nuance, sa filiale spécialisée dans la reconnaissance vocale. Pour votre information, la firme l’a acquise en 2021.

Cette assistant IA combine les capacités vocales de Dragon Medical One (DMO) et la technologie d’IA ambiante de DAX Copilot. Cela permet au système d’écouter les échanges lors des consultations, de prendre des notes cliniques en temps réel et même de résumer des conversations médicales dans plusieurs langues.

Puisque le but est d’assister les professionnels de santé, Dragon Copilot automatise aussi les tâches administratives. Lettres de recommandation, ordres médicaux, synthèses post-visite, tout est pris en charge.

Mieux encore, l’IA intégrée permet également d’effectuer des recherches médicales fiables. Bref, je dois avouer que cet assistant IA a un avenir prometteur devant lui. Pourquoi ?

Il suffit de voir les technologies qui le constituent. Dragon Medical One, par exemple, a déjà contribué à la documentation de milliards de dossiers médicaux.

Quant à DAX Copilot, rien que le mois dernier, il a accompagné plus de trois millions de conversations cliniques dans 600 organisations de santé.

Et la technologie Nuance, elle aussi intégrée à Dragon Copilot, contribue à la  réduction de l’épuisement professionnel. Les professionnels qui l’utilisent l’ont bien confirmé d’après Joe Petro, vice-président de Microsoft Health and Life Sciences Solutions and Platforms. 

D’ailleurs, 93 % des patients interrogés ont aussi déclaré avoir vécu une meilleure expérience globale lors de leurs consultations grâce à Nuance.

Qu’est-ce que cela implique pour la sécurité des patients ?

En effet, cette incursion de l’IA dans le domaine médical ne se fait pas sans soulever des questions. 

La gestion des données sensibles est un enjeu majeur. Sans parler des risques liés aux erreurs potentielles des modèles, qui peuvent parfois produire des informations inexactes

Certes, Microsoft assure que Dragon Copilot respecte les normes les plus strictes en matière de confidentialité. RGPD en Europe et la loi HIPAA aux États-Unis

La firme insiste aussi sur le fait que sa technologie repose sur des données sécurisées et intègre des garanties cliniques et réglementaires spécifiques aux soins de santé. 

Elle affirme s’engager à développer une IA responsable dès sa conception, afin d’assurer des résultats précis et fiables pour les cliniciens et leurs patients.

Mais cela n’empêche le doute de planer. Je me demande, d’ailleurs, si les données médicales des patients ne serviront-elles pas, d’une manière ou d’une autre, à entraîner des modèles d’IA.

D’autant plus que Microsoft n’est pas le seul à investir le domaine de l’IA médicale. D’autres géants de la tech, comme , développent aussi leurs propres solutions. Un récent billet de révèle, par exemple, comment les entreprises de santé utilisent leurs outils d’IA pour anticiper les risques médicaux. 

Bref, le lancement de Dragon Copilot est prévu dès le mois de mai aux États-Unis et au Canada. Ce, avant une expansion progressive au Royaume-Uni, en Allemagne, en France et aux Pays-Bas. 

D’autres marchés clés devraient également suivre dans un avenir proche.

Cet article Microsoft dévoile Dragon Copilot : l’IA qui va assister votre médecin ! a été publié sur LEBIGDATA.FR.

Google lance l’IA Gemini Code Assist : voici comment l’utiliser pour coder vos applis !

lève le voile sur Code Assist, votre tout nouveau compagnon de codage boosté à l’IA. Et le meilleur dans tout ça ? Il est gratuit. 

Avec cette version de Gemini Code Assist, les développeurs du monde entier peuvent désormais accéder à une aide puissante et sophistiquée sans débourser un centime. 

Étudiants, freelances, startups, ou simples curieux du code, réjouissez-vous car votre nouveau copilote virtuel vient d’entrer en scène !

Un assistant IA  pour coder sans limites… enfin, presque

Gemini Code Assist repose sur le modèle d’IA Gemini 2.0 de Google, et le moins que je puisse dire, c’est que c’est une véritable machine à coder.

Besoin de générer un bloc de code en quelques secondes ? De recevoir des suggestions en temps réel ? Ou même d’obtenir une explication claire sur une erreur qui vous fait perdre du temps depuis des heures ? Gemini Code Assist est là pour ça.

L’outil s’intègre facilement aux environnements les plus populaires comme Visual Studio Code, JetBrains et GitHub et Firebase (en version limitée). 

Et bonne nouvelle ! Il prend en charge tous les langages de programmation du domaine public. Python, JavaScript, Java, C++, Go… vous avez l’embarras du choix. 

Que vous envisagiez de construire une simple application mobile ou un système complexe, Gemini Code Assist semble prêt à tout encaisser.

Mieux encore ! Cette version gratuite vous offre un large quota d’utilisation proposé. Alors que certains concurrents, comme GitHub , limitent leurs utilisateurs à 2 000 complétions par mois, Gemini Code Assist pousse la barre très haut.

Vous avez jusqu’à 180 000 complétions mensuelles, avec une limite quotidienne fixée à 6 000 complétions et 240 chats. Bref, vous avez largement de quoi coder du matin jusqu’au soir, sept jours sur sept, sans voir s’afficher un vilain message de quota dépassé.

Comment installer et exploiter Gemini Code Assist dans votre IDE préféré ?

Rien de plus simple ! Commencez par ouvrir votre IDE, que ce soit Visual Studio Code, JetBrains ou un autre compatible. 

Prenons l’exemple de Visual Studio Code. Une fois votre éditeur lancé, accédez à l’onglet Extensions dans la barre latérale gauche — ou utilisez le raccourci Ctrl + + X

Tapez « Gemini Code Assist » dans la barre de recherche, sélectionnez le plugin officiel de Google et cliquez sur Installer. Une fois l’installation terminée, une nouvelle icône Gemini apparaîtra sur le côté gauche de votre écran. 

Ensuite, il ne vous reste plus qu’à vous connecter avec votre compte Google pour activer les suggestions intelligentes pour coder comme à votre habitude. L’application est prête à intervenir à la moindre sollicitation. 

Pour ceux qui souhaitent aller plus loin, la version payante (dès 20 $ par mois) offre des fonctionnalités supplémentaires. Parmi elles, l’accès à Google , la génération d’images par IA, ou encore une intégration poussée avec les applications Google comme Docs, Sheets et Gmail. 

Mais honnêtement, je crois que pour démarrer et apprendre, la version gratuite est déjà un formidable terrain de jeu.

Côté sécurité, Google assure que les données collectées via la version gratuite — comme les requêtes, le code généré et les feedbacks — sont anonymisées et stockées pour une durée maximale de 18 mois. 

Si cela vous dérange, vous avez la possibilité de désactiver cette collecte via les paramètres. Une prudence de bon aloi, surtout si vous jonglez avec des projets sensibles.

Gemini Code Assist vous tend la main, mais serez-vous prêt à lui laisser le clavier ? Pas entièrement , j’espère !

Si vous avez déjà demandé l’aide d’une IA pour coder, racontez dans le commentaire votre meilleure expérience.

Cet article Google lance l’IA Gemini Code Assist : voici comment l’utiliser pour coder vos applis ! a été publié sur LEBIGDATA.FR.

Elon Musk va utiliser l’IA Grok 3 pour créer des jeux vidéo ultra réalistes !

À peine quelques jours après le lancement officiel de Grok 3, a déjà en tête un projet visant à intégrer cette IA dans les jeux vidéo.

Elon Musk et son entreprise viennent d’annoncer une initiative audacieuse : créer un studio de jeux vidéo basé sur l’IA 3. L’objectif est clair : concevoir des jeux aux graphismes photoréalistes en utilisant la puissance de l’intelligence artificielle.

Elon Musk veut créer un studio de jeux basé sur l’IA Grok 3

Lors de la présentation du tout nouveau Grok 3, Elon Musk a révélé son intention de fonder un studio de jeux IA chez xAI. Il a même envisagé de le nommer Epic Games avant de réaliser que ce nom était déjà pris. Pour le moment, l’équipe est composée de 9 membres, dont Musk lui-même.

Notons que les capacités de Grok 3 ont déjà été mises à l’épreuve. Les développeurs ont démontré que cette IA pouvait générer une version simplifiée de Tetris en utilisant Python.

En plus, un utilisateur a également é Grok 3 pour coder une version du jeu Bubble Trouble en 2D. L’IA a réussi à intégrer des éléments physiques, des collisions et une interface utilisateur fonctionnelle. Cependant, elle ne parvient pas encore à reproduire des effets sonores rétro avec précision.

i re-created my favorite childhood game with @grok: bubble trouble

the game is filled with bouncing bubbles that behave with realistic physics—they bounce off walls and, when hit by the player's projectile, split into smaller bubbles. you win when they disappear.

prompt below pic.twitter.com/tIkF8BD1Kl

— Mickey Friedman (@mickeyxfriedman) February 18, 2025

Elon Musk ne veut pas simplement créer des jeux basiques. Il cherche à intégrer des graphismes photoréalistes dans les jeux générés par Grok 3. Lors de l’émission, il a affirmé que l’IA pourrait améliorer la résolution graphique des jeux en effectuant un simple appel à son modèle.

Cette technologie pourrait fonctionner comme le DLSS Super Resolution de ou le FidelityFX Super Resolution d’AMD. En effet, ces derniers améliorent la qualité d’affichage en temps réel.

Cependant, il n’a pas précisé si cette amélioration serait uniquement appliquée aux jeux créés par Grok 3 ou si elle pourrait s’étendre à d’autres titres existants. Actuellement, Grok 3 excelle dans la création de jeux 2D simples.

Cette fois-ci, Musk veut aller encore plus loin…

Plutôt que de créer des outils pour les développeurs, Musk veut un studio à part entière, entièrement piloté par l’intelligence artificielle. De plus, il veut accélérer la recherche pour permettre à l’IA de dépasser ses limites actuelles.

Elon Musk's vision with xAI's Gaming Studio is set to revolutionize gaming. Can't wait to see what innovative games come out of this! 🎮📷 #xAI #Grok3 #GROK pic.twitter.com/anqssDgh6e

— Innoworkspro (@innoworkspro) February 18, 2025

Pour ceux qui ne connaissent pas encore, Grok 3 a été entraîné avec une puissance de calcul titanesque. Il utilise 100 000 GPU Nvidia H100, intégrés au Colossus Supercluster de Memphis. Cette infrastructure, en constante évolution, pourrait atteindre plus d’un million de GPU dans les années à venir.

Je vous rappelle aussi que l’idée d’utiliser une IA pour créer des jeux vidéo n’est pas nouvelle. De grandes entreprises, comme Capcom utilise déjà l’intelligence artificielle pour générer des ressources d’arrière-plan.

Grâce à , le studio exploite des outils comme Pro, Gemini Flash, Imagen et Vertex AI pour enrichir ses créations. Musk, de son côté, a l’intention de pousser les choses plus loin.

Alors, que pensez-vous de l’idée d’Elon Musk de créer des jeux vidéo ultra-réalistes avec Grok 3 ? Ce projet vous enthousiasme-t-il ou vous laisse-t-il sceptique ? Dites-nous en commentaire ce que vous en pensez !

Cet article Elon Musk va utiliser l’IA Grok 3 pour créer des jeux vidéo ultra réalistes ! a été publié sur LEBIGDATA.FR.

25% du code déjà écrit par l’IA : la révélation choquante de Google

a révélé que l’IA génère désormais 25 % de son nouveau code. Une illustration du fait qu’elle joue un rôle essentiel dans ses opérations. Dévoilée lors des récents résultats financiers d’Alphabet, cette réalité suscite un mélange de fascination et d’inquiétude dans le monde de la technologie.

Lors de la présentation des résultats financiers du troisième trimestre 2024, , PDG de Google, a souligné l’importance grandissante de l’IA pour les opérations de l’entreprise. 

Qu’est-ce que l’IA représente pour Google

Alphabet, la société mère de Google, affiche actuellement un chiffre d’affaires impressionnant de 88,3 milliards de dollars. Les 76,5 milliards proviennent des services Google, marquant une croissance annuelle de 13 %. 

se distingue également avec une progression notable : ses revenus ont grimpé de 34 %, atteignant 11,4 milliards de dollars. D’après Pichai, l’IA a joué un rôle clé dans ces résultats. 

L’IA s’infiltre dans presque tous les services Google. Sur le moteur de recherche, elle propose des fonctionnalités personnalisées. Dans Google Meet, elle transcrit automatiquement les discussions. 

YouTube, quant à lui, utilise des outils génératifs pour assister les créateurs dans la création de résumés et de titres percutants. Sur le Pixel 9, le dernier smartphone de Google, des fonctions IA enrichissent l’expérience utilisateur et rencontrent un certain succès. 

Ces innovations renforcent l’engagement des utilisateurs, attirant aussi de nouveaux clients, notamment vers Google .

Contrairement à , qui s’associe avec OpenAI, Google développe son IA en interne. La réorganisation des équipes IA du groupe s’inscrit dans cette stratégie, comme le montre le transfert de l’application à , sa filiale spécialisée. 

Google envisage ainsi l’IA comme un axe stratégique fondamental pour ses opérations, bien que chaque création automatisée reste contrôlée par des experts humains.

Le fait que l’IA écrit 25% du code de Google n’étonne pas

« Aujourd’hui, plus d’un quart de tout le nouveau code de Google est généré par l’IA, puis validé par des ingénieurs », affirme Pichai. Pas étonnant vu que l’IA optimise la productivité des équipes de Google, permettant de développer du code bien plus rapidement. 

Toutefois, utiliser l’IA pour écrire du code n’a rien de révolutionnaire. Nous avons tous déjà eu recours à cet outil  pour accomplir une tâche ou apprendre un concept. Mais voir un tel acteur s’en remettre à l’IA pour un quart de son code intrigue et inquiète. 

Bien sûr, l’IA n’a pas de conscience, et chaque ligne de code doit être minutieusement vérifiée par des développeurs chevronnés. Toutefois, pour les programmeurs en herbe, cette évolution peut apparaître comme une menace.

D’ailleurs, des enjeux de sécurité et d’éthique entourent le code produit par l’IA. Google doit garantir que l’intégration de l’IA dans ses processus respecte des normes strictes et réponde aux exigences des régulateurs.

Les résultats prouvent l’efficacité de la stratégie IA de Google. Cependant face aux menaces de suppressions d’emplois, je me demande si cette avancée vaut le prix à payer pour les développeurs. Qu’en pensez-vous ?

Cet article 25% du code déjà écrit par l’IA : la révélation choquante de Google a été publié sur LEBIGDATA.FR.

Devoteam mise sur l’IA pour atteindre 2 milliards d’euros en 2028

Devoteam a dévoilé son nouveau plan stratégique « AMPLIFY », une initiative ambitieuse pour renforcer sa position dans le domaine de l’intelligence artificielle (IA). Ce plan s’étend jusqu’à 2028. Il vise à doubler le chiffre d’affaires de l’entreprise pour atteindre 2 milliards d’euros, dont 50 % seront générés par des projets liés à l’IA. Devoteam prévoit également de former l’intégralité de ses employés à l’IA générative.

Un plan pour doubler le chiffre d’affaires

Le 10 octobre 2024, Devoteam a annoncé son plan « AMPLIFY », un projet à long terme qui s’étendra jusqu’en 2028. L’objectif de cette initiative est donc de renforcer la position de l’entreprise en tant que leader des technologies guidées par l’IA. « Nous avons construit une position en EMEA de leader du , de la Data et de la Cybersécurité.« , a déclaré Stanislas de Bentzmann, co-fondateur et Président de Devoteam.

Devoteam vise à doubler son chiffre d’affaires en quatre ans pour atteindre 2 milliards d’euros en 2028. Parmi cet objectif, 50 % du revenu devrait provenir de projets liés à l’IA. En 2023, seulement 5 % des services de l’entreprise étaient liés à l’IA. Ce pourcentage devrait atteindre 20 % en 2024 et 50 % en 2028. Cet objectif sera atteint grâce à une combinaison de croissance organique et d’acquisitions stratégiques.

La formation, un pilier du plan AMPLIFY

L’une des priorités du plan « AMPLIFY » est la formation. Devoteam s’engage à former 100 % de ses 11 000 collaborateurs à l’IA générative. Cet effort de formation a pour but de renforcer l’adoption des nouvelles technologies par l’entreprise. Devoteam peut ainsi conserver son leadership en matière de transformation technologique.

Cette démarche s’inscrit dans la vision de Devoteam de devenir une « learning company« . Dans ce cas de figure, les employés sont en constante formation et certification. « L’IA ne doit pas seulement être performante, elle doit être déployée de manière éthique« , souligne Devoteam. Elle met un point d’honneur à garantir la transparence et la responsabilité dans ses projets IA.

Des partenariats stratégiques pour soutenir la transformation IA

Pour renforcer son expertise, Devoteam s’appuie sur des partenariats avec les géants de la technologie. Citons entre autres AWS, Google Cloud, Microsoft Azure et . Ces collaborations permettent à l’entreprise de rester à l’avant-garde de l’IA et d’accompagner ses clients dans leurs projets de transformation numérique.

Ces partenariats stratégiques sont renforcés par des projets concrets. Il y a, par exemple, celui réalisé pour La Poste portugaise, avec le premier chatbot transactionnel sur Azure. Il y a aussi la chaîne hôtelière européenne Strawberry, où un assistant a été développé pour 20 000 employés. Ces exemples montrent l’étendue des capacités de Devoteam à intégrer l’IA dans des secteurs variés.

Article basé sur un reçu par la rédaction.

Cet article Devoteam mise sur l’IA pour atteindre 2 milliards d’euros en 2028 a été publié sur LEBIGDATA.FR.

La « marraine de l’IA » va vous permettre de créer votre propre monde

Fei-Fei Li, la marraine de l’IA, montre une startup qui a pour mission principale d’enseigner aux systèmes d’IA une connaissance approfondie de la réalité physique.

World Labs vient de voir le jour. Il s’agit d’une startup cofondée par Fei-Fei Li, connu également sous le surnom de « marraine de l’IA ». Cette entreprise a été développée, car Fei-Fei Li pense qu’il est possible de créer des mondes entiers grâce à la physique et la logique ainsi que les détails florissants de notre réalité physique.

La marraine de l’IA : Qui est réellement Fei-Fei Li ?

Fei-Fei Li est une informaticienne à Stanford, mais elle a mis en pause ce poste pour pouvoir cofonder World Labs. Quand elle a immigré aux États-Unis à l’âge de 16 ans, elle n’avait aucune connaissance de l’anglais. Néanmoins, après avoir surmonté de nombreux obstacles, elle est devenue l’une des figures emblématiques de la technologie de l’IA.

Avant de devenir cofondatrice de cette startup, elle a occupé le poste de directrice du Stanford AI Lab. Elle était également responsable scientifique de l’IA et de l’apprentissage automatique chez Google Cloud.

L’année dernière, elle a publié un livre qui associe les mémoires et l’histoire d’amour avec l’IA, intitulé The Worlds I See. D’après Fei-Fei Li, ce livre est construit comme une double hélice, mélangeant sa quête personnelle et la trajectoire de l’IA.

The Godmother of AI Wants Everyone to Be a World Builder https://t.co/beYA9yBDuH #GonzaloLaw

— Gonzalo Law (@GonzaloLawPLLC) September 13, 2024

« Nous continuons à nous voir à travers le reflet de qui nous sommes », explique Li. « Une partie de ce reflet est la technologie elle-même. Le monde le plus difficile à voir, c’est nous-mêmes. » Aujourd’hui, elle pourrait créer des mondes que personne n’a encore vu auparavant.

Rappelons aussi qu’il y a une dizaine d’années, Li a contribuée à ce que l’IA puisse prendre un tournant grâce à la création d’ImageNet. Il s’agit d’une base de données sur mesure d’images numériques. Cette dernière a aidé les réseaux neuronaux à devenir beaucoup plus intelligents.

Créer votre propre mode avec Worlds Lab, la première entreprise d’intelligence spatiale 

Pour que l’IA puisse développer des mondes réels comme des simulations réalistes ou d’un monde entièrement imaginaire, les modèles d’apprentissage profond actuel ont besoin d’un coup de pouce.

On peut désormais composer notre monde rêvé sous forme d’invites si on a l’habitude de le faire avec de la prose. Notons qu’il est possible de se promener dedans et de le restituer.

« Le monde physique des ordinateurs est vu par des caméras, et le cerveau de l’ordinateur derrière les caméras », déclare Li. « Transformer cette vision en raisonnement, en génération et en interaction éventuelle implique de comprendre la structure physique, la dynamique physique du monde physique. Et cette technologie s’appelle l’intelligence spatiale. »

C’est d’ailleurs pour cette raison que World Labs se considère comme une société d’intelligence spatiale. Sa principale mission consistera à déterminer si ce terme pourrait devenir une révolution ou juste une blague.

Li a eu l’idée de fonder une entreprise au début de l’année 2023, après avoir dîner avec Martin Casado, un pionnier des réseaux virtuels. Il est même devenu un associé chez Andreessen Horowitz. C’est une société de capital-risque qui s’est fait un nom pour son adoption quasi salvatrice de l’IA.

Casado est persuadé que l’intelligence spatiale deviendra le moteur du changement. À terme, a-t-il déclaré « vous pourriez prendre votre livre préféré, le jeter dans un modèle, puis entrer littéralement dedans et le regarder se dérouler en temps réel, de manière immersive ».

De ce fait, pour y parvenir, Li et Casado sont convaincus que la meilleure chose à faire est de passer à de grands modèles linguistiques à de grands modèles mondiaux.

Cet article La « marraine de l’IA » va vous permettre de créer votre propre monde a été publié sur LEBIGDATA.FR.

PME : Yakadata rassemble IA et Data pour des résultats concrets

Yakadata révolutionne l'usage de l'IA et de la Data pour les PME et mise sur l'humain et des solutions sur mesure. Face à la montée des défaillances d'entreprises, la start-up se positionne comme un partenaire clé pour une transformation numérique accessible et efficace.

Une approche humaine et sur mesure

Alors que les PME luttent pour rester compétitives, l'IA et la Data s'imposent comme des leviers essentiels pour améliorer les performances et réduire les coûts. Cependant, les offres actuelles, souvent standardisées, ne répondent pas aux besoins spécifiques des petites et moyennes entreprises. Yakadata se distingue avec une approche unique, centrée sur l'humain, qui vise à simplifier la transformation numérique des PME et à  maîtriser les budgets.

Yakadata se démarque par une approche fondée sur la compréhension des besoins des collaborateurs des PME. « Avec Yakadata, c'est l'IA et la Data qui se mettent au service des PME… et non l'inverse ! », explique Jean-François Deldon, le fondateur. L'équipe place les employés au cœur du processus de transformation. Elle commence par identifier les difficultés rencontrées et propose, après; des solutions sur mesure. Plutôt que d'imposer des technologies complexes, Yakadata privilégie des améliorations concrètes et visibles rapidement par les utilisateurs. Cette approche permet de fédérer les équipes autour des projets d'innovation et crée une dynamique positive et pérenne.

Services adaptés aux PME

Yakadata propose un accompagnement complet et flexible pour répondre aux différents stades de maturité des projets des PME. Les conférences et ateliers stratégiques, qui va d'une heure à une journée, permettent aux entreprises de découvrir concrètement les opportunités offertes par l'IA et la Data. Ces sessions incluent des démonstrations et des ateliers pratiques pour mieux comprendre les technologies et identifier les applications pertinentes.

Les formations sur l'IA, accessibles même sans connaissances préalables en informatique, aident les participants à maîtriser les fondamentaux de l'IA. Ils peuvent par la suite intégrer ces technologies dans leur environnement professionnel. En parallèle, Yakadata collabore avec les PME pour identifier les cas d'usage les plus pertinents. Cela se fait à travers des échanges avec les employés, des prototypes et des tests sur les données internes. Ces diagnostics sont éligibles au programme IA Booster 2030 de Bpifrance. Cela ouvre ainsi l'accès à des subventions.

Pour le suivi de projet et l'accompagnement technique, Yakadata s'associe à des partenaires pour aider les PME à mettre en œuvre des projets d'automatisation, de gestion de données ou d'intelligence artificielle. Il veille à proposer des solutions adaptées aux besoins et à la maturité des équipes.

Une vision inspirée et pragmatique

Fondée par Jean-François Deldon, ancien leader de la transformation digitale chez Michelin, Yakadata s'appuie sur une solide expertise en IA et en gestion de la data. « Je voulais sortir du cadre des grands groupes parfois difficiles à faire bouger », confie-t-il. Après un passage par l'incubateur Michelin, Jean-François a décidé de se lancer dans l'entrepreneuriat pour apporter son savoir-faire aux PME. En moins d'un an, Yakadata a déjà accompagné une quinzaine de PME à travers la France. L'équipe a l'ambition de continuer à développer des formats innovants et accessibles.

Yakadata ne se contente pas d'apporter des solutions techniques, elle s'efforce de créer un impact durable. Elle implique activement les employés et adapte ses interventions à la réalité du terrain. Grâce à une approche humaine et pragmatique, Yakadata transforme la manière dont les PME abordent l'IA et la Data. Il offre ainsi des perspectives nouvelles pour gagner en compétitivité dans un contexte économique toujours plus exigeant.

Article basé sur un presse reçu par la rédaction.

Cet article PME : Yakadata rassemble IA et Data pour des résultats concrets a été publié sur LEBIGDATA.FR.

SentinelOne et Google Cloud s’unissent pour renforcer la cybersécurité des entreprises avec l’IA

SentinelOne s'allie à pour offrir une cybersécurité révolutionnaire, alimentée par l'intelligence artificielle (IA). Cette collaboration promet de transformer la façon dont les entreprises se protègent des menaces numériques, grâce à une combinaison unique de technologies avancées.

Une alliance stratégique renforcée pour une sécurité maximale

SentinelOne, leader mondial de la sécurité autonome, vient d'annoncer un renforcement de son partenariat avec Google Cloud. Avec l'intégration de sa protection avancée des endpoints à l'expertise en renseignement sur les menaces de , les deux géants de la technologie promettent de fournir des solutions de cybersécurité plus performantes pour les entreprises. Ce partenariat stratégique s'appuie sur les succès passés. De plus, il ouvre la voie à une nouvelle ère de protection autonome renforcée par l'IA.

« Google Cloud s'associe à d'autres leaders du marché pour aider nos clients à réduire l'impact des cybermenaces sur leur activité et à assurer la sécurité des environnements informatiques d'aujourd'hui en leur proposant des solutions hautement adaptables et basées sur l'intelligence artificielle », a déclaré Sandra Joyce, vice-présidente de Google Threat Intelligence​.

Des résultats concrets pour les entreprises

L'objectif de cette collaboration est clair : offrir une cybersécurité plus robuste et plus rapide. Grâce aux combinaisons des capacités de SentinelOne à celles de Google Cloud, les entreprises pourront bénéficier de télémétrie dynamique et d'IA générative pour des résultats optimisés en matière de sécurité. En outre, les données télémétriques partagées permettront de fournir les informations les plus complètes sur les menaces émergentes.

Grâce à cette alliance, les plateformes autonomes Singularity et Singularity de SentinelOne seront renforcées par les modèles Google 1.5 Pro et Flash. Cela garantira une protection accrue contre les menaces les plus récentes. Cela renforce la posture de sécurité des entreprises.

Ric Smith, Chief Technology and Product Officer de SentinelOne, souligne : « La consolidation de notre collaboration nous permet de combiner les meilleurs services de sécurité et de renseignement sur les menaces avec la plateforme la plus avancée de protection basée sur l'IA afin de garantir une cybersécurité à la vitesse de la machine »​.

Un engagement commun pour l'avenir

Cette collaboration ne se limite pas aux technologies. SentinelOne et Google Cloud ont également l'intention de mieux informer la communauté sur les dernières avancées en matière de cybersécurité. Les deux entreprises prendront la parole conjointement lors de plusieurs conférences majeures. C'est notamment le cas lors de la conférence Black Hat en septembre et la conférence SentinelOne OneCon en octobre.

Vous l'aurez compris ! Le partenariat entre SentinelOne et Google Cloud marque un tournant dans la manière dont les entreprises abordent la cybersécurité. Ces deux leaders technologiques ouvrent la voie à une protection plus rapide, plus intelligente et plus complète. Ils montrent qu'ils sont capables et aptes à répondre aux exigences d'un monde numérique en constante évolution.

Article basé sur un reçu par la rédaction.

Cet article SentinelOne et Google Cloud s’unissent pour renforcer la cybersécurité des entreprises avec l’IA a été publié sur LEBIGDATA.FR.

Google Translate ne peut pas rivaliser avec le nouveau modèle DeepL. Testez-le d’abord !

DeepL, célèbre pour ses traductions précises, a récemment présenté un nouveau modèle linguistique impressionnant. Ce dernier dépasse largement les performances de Translate et même de d'. L'innovation promet des traductions plus précises et des interactions plus naturelles.

Le nouveau modèle DeepL propose de nombreuses applications. Il peut être utilisé pour traduire des documents importants et pour faire des recherches académiques. C'est également un excellent outil de communication pour les voyageurs. En fait, DeepL facilite la compréhension des langues étrangères pour tout le monde.

Le succès de DeepL repose sur sa technologie avancée. Son nouveau modèle utilise l'apprentissage profond afin d'améliorer les traductions. Dans ce contexte, il apprend constamment de nouvelles langues et expressions. Cette capacité d'apprentissage continu le rend très précis. En somme, DeepL combine l'intelligence artificielle avec la linguistique humaine pour des résultats exceptionnels.

Google Translate et ChatGPT surpassés

Google Translate est un outil rapide et accessible. Toutefois, ses traductions manquent souvent de précision. De son côté, ChatGPT d'OpenAI est une plateforme de conversation polyvalent. Il est connu pour ses réponses naturelles. En revanche, DeepL se concentre sur la qualité. Il est en mesure de faire des traductions plus naturelles et plus fluides.

Lancement du nouveau modèle linguistique de DeepL

DeepL a rendu son nouveau modèle accessible à tous. Il est disponible en ligne et en application mobile. Les entreprises ont également la possibilité d'intégrer cet outil dans leurs systèmes. Le but étant de permettre aux utilisateurs d'accéder facilement aux traductions de haute qualité. Il convient de noter que l'interface utilisateur de DeepL est simple et intuitive.

Comparatif des coûts : DeepL vs Google Translate

Lorsqu'il s'agit de choisir une solution de traduction, le coût est un facteur essentiel pour les utilisateurs. DeepL propose une version gratuite qui offre des fonctionnalités de base, mais pour accéder à des outils plus avancés comme la traduction de documents et l'utilisation illimitée, il faut opter pour DeepL Pro. Les abonnements varient de 6,99 € par mois pour un usage personnel à des plans plus coûteux pour les entreprises.

En comparaison, Google Translate reste entièrement gratuit, ce qui en fait une option accessible pour tous, mais ses performances sont souvent inférieures en termes de précision. Ses fonctionnalités avancées, comme l'API Translation, peuvent coûter jusqu'à 20 € par million de caractères traduits.

D'autres plateformes, comme Translator, adoptent également une approche freemium, avec des services gratuits limités et des options payantes pour les utilisateurs professionnels. Les prix varient généralement selon l'utilisation, allant de quelques centimes par traduction à des forfaits mensuels.

En termes de rapport qualité-prix, DeepL se distingue par la qualité supérieure de ses traductions. Si son coût peut sembler plus élevé que celui de Google Translate, il reste compétitif face à d'autres solutions premium comme SDL Trados ou Systran, qui s'adressent principalement aux grandes entreprises et nécessitent des investissements plus conséquents. Pour les utilisateurs exigeant précision et fluidité, DeepL offre un compromis convaincant entre coût et performance.

L'avenir de la traduction

Les utilisateurs de DeepL sont impressionnés par les nouvelles capacités. Les critiques sont très positives. Ceux qui l'ont déjà utilisé mettent un point d'honneur sur la précision et la fluidité des traductions. Beaucoup ont abandonné Google Translate et ChatGPT au profit de DeepL.

Lancement du nouveau modèle linguistique de DeepL

DeepL ne s'arrête pas là. Il continue d'innover et d'améliorer son modèle. Le concepteur vise la place de leader mondial de la traduction. Il prévoit d'ajouter encore plus de langues et de fonctionnalités. De ce fait, les utilisateurs peuvent s'attendre à des améliorations continues.

Cet article Google Translate ne peut pas rivaliser avec le nouveau modèle DeepL. Testez-le d’abord ! a été publié sur LEBIGDATA.FR.

Python : tout savoir sur le principal langage Big Data et Machine Learning

Python est le langage de programmation le plus utilisé dans le domaine du Machine Learning, du et de la Data Science. Découvrez tout ce que vous savoir à son sujet : définition, avantages, cas d'usage…

Créé en 1991, le langage de programmation Python apparu à l'époque comme une façon d'automatiser les éléments les plus ennuyeux de l'écriture de scripts ou de réaliser rapidement des prototypes d'applications.

Depuis quelques années, toutefois, ce langage de programmation s'est hissé parmi les plus utilisés dans le domaine du développement de logiciels, de gestion d'infrastructure et d'analyse de données. Il s'agit d'un élément moteur de l'explosion du Big Data.

Langage Python : qu'est-ce que c'est ?

Python est un langage de programmation open source créé par le programmeur Guido van Rossum en 1991. Il tire son nom de l'émission Monty Python's Flying Circus. Il s'agit d'un langage de programmation interprété, qui ne nécessite pas d'être compilé pour fonctionner.

En tant que langage de programmation de haut niveau, Python permet aux programmeurs de se focaliser sur ce qu'ils font plutôt que sur la façon dont ils le font. Ainsi, écrire des progammes prend moins de temps que dans un autre langage. Il s'agit d'un langage idéal pour les débutants.

Python : ses origines

Vers le milieu des années 80, un Néerlandais nommé Guido van Rossum travaillait sur un projet éducatif. Celui-ci consistait à créer un langage pour les nouveaux codeurs, appelé ABC. Au cours de sa participation à cette initiative, Guido s'est intéressé à la conception des langages. Il a alors commencé à travailler sur Python.

Par ailleurs, il a pris des décisions inhabituelles qui ont permis à ce langage de se démarquer de l'esprit du temps de l'époque. A cet effet, il a décidé de rendre l'indentation significative. Certains critiques pensent que cela rendrait le langage difficile à utiliser. Mais cette caractéristique explique en partie pourquoi Python est à la fois lisible et populaire. Le style et la lisibilité du code sont améliorés grâce à la façon dont le langage peut être écrit.

Une grande partie de sa conception consiste à encourager les développeurs à prendre de bonnes décisions. Si l'indentation fait partie intégrante de Python, beaucoup d'autres choses ne le sont pas. Pour écrire un bon code, il faut donc être un codeur responsable. Contrairement à Java, Python veille à ce que le code ne soit pas réprimandé si une variable ou une fonction porte un nom particulier. En outre, inutile de définir un type.

Les concepts de base sur Python

Points-virgules

Premièrement, Python n'utilise pas de point-virgule pour terminer les lignes, contrairement à la plupart des langages de programmation. Une nouvelle ligne est suffisante pour que l'interpréteur détecte une nouvelle commande.

Indentation

La plupart des langages utilisent des accolades pour définir la portée d'un bloc de code, mais l'interpréteur de Python le détermine simplement par une indentation. Cela signifie qu'il faut être particulièrement prudent avec les espaces blancs dans le code, ce qui peut interrompre le fonctionnement de l'application. 

Commentaires

Pour commenter quelque chose dans votre code, il suffit d'utiliser le dièse #. 

Variables

Avec python, il est possible de stocker et de manipuler des données dans un programme. Une variable stocke une donnée telle qu'un nombre, un nom d'utilisateur, un mot de passe, etc. Pour créer (déclarer) une variable, il suffit d'utiliser le symbole =.

Types

Pour stocker des données en Python, il faut utiliser des variables. Or, avec chaque variable, il y aura un type de données. Les chaînes de caractères, les entiers, les booléens et les listes sont des exemples de types de données.

  • Un type booléen ne peut contenir que la valeur Vrai ou Faux.
  • Un nombre entier fait partie des trois types numériques, y compris les flottants et les complexes. Un nombre entier est un nombre entier positif ou négatif.
  • Une chaîne de caractères est l'un des types de données les plus courants.

Opérateurs

Les opérateurs sont des symboles qui peuvent être utilisés dans les valeurs et les variables pour effectuer des comparaisons et des opérations mathématiques.

Opérateurs de comparaison :

  • == : égal ! = : non égal
  • < : inférieur à
  • <= : inférieur ou égal à Opérateurs arithmétiques :
  • + : addition
  • — : soustraction
  • * : multiplication
  • / : division
  • ** : exponentiation
  • % : modulus, donne le reste d'une division.

Langage Python : quels sont les principaux avantages ?

python avantages

Le langage Python doit sa popularité à plusieurs avantages qui profitent aussi bien aux débutants qu'aux experts.

Simple à utiliser et à comprendre

Pour les nouveaux arrivants, Python est simple à comprendre et à utiliser. Il s'agit d'un langage de programmation très développé dont la syntaxe est proche de l'anglais. Grâce à ces facteurs, le langage est simple à adapter. En raison de sa simplicité, les principes fondamentaux de Python peuvent être mis en œuvre plus rapidement que ceux d'autres langages de programmation.

Gratuit et Open-Source

Python est distribué sous une licence open-source approuvée par l'Open-Source Initiative (OSI). Par conséquent, les utilisateurs peuvent travailler dessus et le distribuer. Les utilisateurs peuvent télécharger le code source, le modifier et même distribuer leur version de Python. Les entreprises qui souhaitent modifier un comportement spécifique et construire leur version en bénéficieront.

Langage interprété

Il s'agit d'un langage interprété, ce qui signifie que le code est implémenté ligne par ligne. C'est l'une des caractéristiques qui le rendent simple à utiliser. En cas d'erreur, il arrête le processus et signale le problème. Python n'affiche qu'une seule erreur, même si le programme en comporte plusieurs. Cela facilite le débogage.

Bibliothèque étendue

Python comprend un grand nombre de bibliothèques que l'utilisateur peut utiliser. La bibliothèque standard de Python est immense et comprend presque toutes les fonctions imaginables. Des communautés importantes et solidaires, ainsi que le parrainage d'entreprises, y ont contribué. Lorsqu'ils travaillent avec Python, les utilisateurs n'ont pas besoin d'utiliser des bibliothèques externes.

Portabilité

De nombreux autres langages, y compris C/C++, exigent que l'utilisateur modifie son code pour s'exécuter sur différentes plates-formes. Python, au contraire, n'est pas équivalent aux autres langages de programmation. Il ne doit être écrit qu'une seule fois et peut ensuite être exécuté partout. Cependant, l'utilisateur doit éviter d'impliquer des fonctionnalités dépendantes du système.

Communauté de soutien

Python est un langage de programmation créé il y a de nombreuses années et dispose d'une grande communauté qui peut aider les programmeurs de tous niveaux d'expérience, des débutants aux spécialistes. La communauté de Python a contribué à sa croissance rapide par rapport à d'autres langages. Le langage de programmation Python est fourni avec de nombreux guides, des vidéos d'instruction et une documentation très compréhensible pour aider les développeurs à apprendre le langage plus rapidement et plus efficacement.

Inconvénients de Python

Bien que les avantages du langage de programmation Python soient plus importants, il existe quelques inconvénients qu'il convient de connaître. 

Faible vitesse

Les points forts peuvent parfois déboucher sur des points faibles. En voici un exemple. Il parait que Python fait partie des langages interprétés avec un typage dynamique. Cependant, cela signifie que le code s'exécute ligne par ligne, ce qui le rend plus lent. La nature dynamique de Python explique principalement sa lenteur, car un travail supplémentaire doit être effectué pendant le processus d'exécution. Il s'agit d'une des raisons pour lesquelles Python n'est pas utilisé lorsque la vitesse est un aspect important d'un programme donné.

Consommation de mémoire inefficace

Pour offrir une certaine simplicité aux programmeurs et aux développeurs, Python doit faire quelques compromis. Ce langage utilise une quantité énorme de mémoire, ce qui constitue un inconvénient surtout lorsqu'il faut développer une application en privilégiant l'optimisation de la mémoire.

Peu efficace dans la programmation pour les appareils mobiles

Les développeurs utilisent généralement Python pour la programmation côté serveur, et non pour les applications mobiles ou la programmation côté client. Cela s'explique par le fait que Python a une puissance de traitement lente et une efficacité limitée en termes de mémoire par rapport à d'autres langages de programmation.

Formation et outils Python

Python est un langage facile à apprendre, grâce à un fort soutien communautaire et à une syntaxe qui privilégie la lisibilité. Certains cours en ligne proposent d'enseigner la programmation Python aux utilisateurs en six semaines.

Python propose également des outils et des modules d'apprentissage. Les utilisateurs pourront se familiariser avec la version actuelle, notamment :

  • Python 3.0, qui date de 2008, reste la dernière version. Contrairement aux mises à jour précédentes, Python 3 présentait une compatibilité avancée et des changements de style de codage. 
  • Integrated Development and Learning Environment (IDLE) représente l'environnement de développement standard de Python. Il permet d'accéder au mode interactif de Python par le biais de la fenêtre du shell Python. 
  • Python Launcher permet aux développeurs d'exécuter des scripts Python depuis le bureau. 
  • Anaconda est une distribution open source de premier plan pour les langages de programmation Python et R. Elle comprend plus de 300 bibliothèques intégrées développées par les développeurs.

Python 2 vs Python 3 : les différences

Il existe deux versions de Python : Python 2 et Python 3. Il existe de nombreuses différences entre ces deux versions. Python 2 représente l'ancienne version, qui continuera à être supportée et donc à recevoir des mises à jour officielles jusqu'en 2020. Après cette date, elle continuera probablement à exister de manière non-officielle.

Python 3 est la version actuelle du langage. Elle apporte de nombreuses nouvelles fonctionnalités très utiles, comme un meilleur contrôle de la concurrence et un interpréteur plus efficace. Cependant, l'adoption de Python 3 a longtemps été ralentie par le manque de bibliothèques tierces supportées. Beaucoup d'entre elles n'étaient compatibles qu'avec Python 2, ce qui rendait la transition compliquée. Toutefois, ce problème a été presque résolu et il existe peu de raisons valables de continuer à utiliser Python 2.

Le langage Python pour le Big Data et le Machine Learning

python big data machine learning

Python sert principalement à la création de scripts et à l'automatisation. En effet, ce langage permet d'automatiser les interactions avec les navigateurs web ou les interfaces graphiques d'applications.

Cependant, le scripting et l'automatisation sont loin d'être les seules utilisations de ce langage. Il permet également la programmation d'applications, la création de services web ou d'API REST, ou encore la métaprogrammation et la génération de code.

Par ailleurs, ce langage peut également être utilisé dans le domaine de la science des données et du Machine Learning. Avec l'essor de l'analyse des données dans toutes les industries, ce domaine devient l'un de ses principaux cas d'utilisation.

La grande majorité des bibliothèques utilisées pour la science des données ou le Machine Learning ont des interfaces Python. Ainsi, ce langage est devenu l'interface de commande de haut niveau la plus populaire pour les bibliothèques de Machine Learning et autres algorithmes numériques. De nombreux ouvrages d'initiation sont disponibles sur le Web.

Enfin, des entreprises spécialisées dans la robotique comme Aldebaran utilisent ce langage pour programmer leurs robots. La société rachetée par Softbank a choisi ce langage de programmation pour faciliter la conception d'applications par des sociétés tierces et des amateurs.

Python est-il adapté aux débutants ?

Python peut être considéré comme adapté aux débutants. En effet, ce langage de programmation privilégie la lisibilité, ce qui le rend plus facile à comprendre et à utiliser. Sa syntaxe présente des similitudes avec la langue anglaise. De ce fait, il permet aux programmeurs novices de se lancer facilement dans le monde du développement.

Python est également un langage flexible et dynamiquement typé. Cela signifie que les règles ne sont pas strictement définies, ce qui le rend plus intuitif. Il s'agit également d'un langage plus indulgent, capable de fonctionner avec un certain niveau d'erreurs.

En fait, la facilité d'utilisation était l'un des principes fondateurs de Python lors de sa création en 1989 par Guido van Rossum (et de sa publication ultérieure en 1991). L'objectif initial de Python était de faciliter la programmation, en mettant l'accent sur la lisibilité du code. Il peut fonctionner sur diverses plates-formes telles que Windows, Linux et Mac OS, et c'est un logiciel libre.

Un débutant aura besoin d'environ 6 à 8 semaines pour apprendre les bases de Python. Il faut ce temps pour apprendre à comprendre la plupart des lignes de code en Python. Il faudrait beaucoup plus de temps pour apprendre Python afin de lancer une nouvelle carrière de développeur Python.

Pourquoi les Data Scientists utilisent Python ?

Python est le langage le plus utilisé pour la Data Science. Pour cause, ce langage est simple, lisible, propre, flexible et compatible avec de nombreuses plateformes. Ses nombreuses bibliothèques, telles que TensorFlow, Scipy et Numpy permettent d'effectuer une large variété de tâches.

Ainsi, selon un sondage mené en 2013 par O'Reilly, 40% des Data Scientists utilisent Python au quotidien. Sa syntaxe très simple le rend utilisable par des personnes n'ayant pas forcément de background en ingénierie.

Il permet le prototypage rapide, et le code peut être exécuté n'importe où : Windows, macOS, UNIX, Linux… sa flexibilité permet de prendre en charge le développement de modèles de Machine Learning, le forage de données, la classification et bien d'autres tâches plus rapidement que les autres langage.

Des bibliothèques comme Scrapy et BeautifulSoup permettent d'extraire des données depuis internet, tandis que Seaborn et Matplotlib aident à la Data Visualization. De leur côté, Tensorflow, Keras et Theano permettent le développement de modèles de Deep Learning, et Scikit-Learn aide au développement d'algorithmes de Machine Learning.

Python et Big Data : top des meilleures bibliothèques et packages

python bibliotheques big data

Si le Python s'est érigé comme le meilleur langage de programmation pour le Big Data, c'est grâce à ses différents packages et bibliothèques de science des données. Voici les plus populaires.

Pandas

Pandas fait partie des bibliothèques de science des données les plus populaires. Elle a été développée par des data scientists habitués à R et Python. Désormais, il est utilisé par un grand nombre de scientifiques et d'analystes.

Pandas offre de nombreuses fonctionnalités natives utiles. En particulier, elle permet de lire des données provenant de nombreuses sources, de créer de grands cadres de données à partir de ces sources. Sans oublier qu'elle offre la possibilité d'effectuer des analyses agrégées en fonction des questions auxquelles vous souhaitez répondre.

Des fonctions de visualisation vous permettent également de générer des graphiques à partir des résultats des analyses, ou de les exporter vers Excel. Il peut également être utilisé pour manipuler des tableaux numériques et des séries chronologiques.

Agate

Plus récente que Pandas, Agate est également une bibliothèque Python conçue pour résoudre des problèmes d'analyse de données. Elle propose notamment des fonctionnalités d'analyse et de comparaison de tableaux Excel, ou encore d'effectuer des calculs statistiques sur une base de données.

Dans l'ensemble, il est plus facile d'apprendre à maîtriser Agate que Pandas. De pluus, ses fonctionnalités de visualisation de données permettent de visualiser facilement et rapidement les résultats des analyses.

Bokeh

Bokeh est un outil idéal pour créer des visualisations d'ensembles de données. Il peut être utilisé en conjonction avec Agate, Pandas et d'autres bibliothèques d'analyse de données.

Il peut aussi s'utiliser avec Pyton pur. Cet outil vous permet de créer d'excellents graphiques et visualisations sans avoir à coder de manière intensive.

NumPy

NumPy fait partie des packages utilisés pour les calculs scientifiques en Python. Il convient parfaitement aux opérations liées à l'algèbre linéaire, aux transformées de Fourier ou au calcul de nombres aléatoires.

Il peut être utilisé comme un conteneur de données générique multidimensionnel. De plus, il s'intègre facilement à de nombreuses bases de données différentes.

Scipy

Scipy est une bibliothèque pour les calculs techniques et scientifiques. Elle regroupe des modules pour les tâches de science des données et d'ingénierie telles que l'algèbre, l'interpolation, le FFT, ou le traitement de signaux et d'images.

Scikit-learn

Scikit-learn est très utile pour les algorithmes de classification, de régression ou de clustering tels que les forêts d'arbres décisionnels, le gradient boosting, ou encore les k-moyennes.

Cette bibliothèque de Machine Learning pour Python se révèle complémentaire pour les autres bibliothèques telles que NumPy et SciPy.

PyBrain

PyBrain est en réalité l'acronyme de Python-Based Reinforcement Learning, Artificial Intelligence, and Neural Network Library. Comme son nom le suggère, il s'agit donc d'une bibliothèque offrant des algorithmes simples mais puissants pour les tâches de Machine Learning.

On peut aussi l'utiliser pour tester et comparer des algorithmes en utilisant une variété d'environnements prédéfinis.

TensorFlow

Développé par Brain, TensorFlow est une bibliothèque de Machine Learning. Ses graphiques de data flow et son architecture flexible permettent d'effectuer des opérations et des calculs de données à l'aide d'une API unique sur de multiples CPU ou GPU depuis un PC, un serveur ou même un appareil mobile.

Parmi les autres bibliothèques Python, on peut aussi citer Cython qui permet de convertir du code pour l'exécuter dans un environnement C afin de réduire le runtime. De même, PyMySQL permet de connecter une base de données MySQL, d'extraire des données et d'exécuter des requêtes. BeautifulSoup permet de lire des données XML et HTML. Enfin, le notebook iPython permet la programmation interactive.

Apprendre le Python avec OpenClassrooms

Si vous souhaitez apprendre le langage Python progressivement et gratuitement, une solution adaptée aux débutants est le cours d'initiation proposé par OpenClassrooms.

Ce cours se décompose en cinq parties. Après une introduction complète sur le Python, vous apprendrez à maîtriser la programmation orientée objet côté utilisateur, puis côté développeur. Vous découvrirez ensuite la bibliothèque standard, puis le cours se conclus par quelques annexes additionnelles.

L'avantage de la solution OpenClassrooms est qu'elle est gratuite, accessible aux débutants, et qu'elle permet de progresser à son rythme. De plus, une fois la formation achevée, vous pourrez recevoir une certification reconnue par les professionnels à condition de réussir les exercices de .

Quelques ressources pour apprendre le langage python tout seul

Plusieurs personnes ont mis en ligne des PDF ou des vidéos d'apprentissage de Python pour les débutants. Si vous êtes plutôt du genre autodidacte, ces ressources sont peut-être faites pour vous.  Pour celles et ceux qui apprécient le format vidéo, Dominique Liard a publié sur YouTube une série de vidéo pour apprendre Python.

M1 : Python compatible nativement avec macOS 11

En décembre 2020, les développeurs de Core Python ont relaxé la version 3.9.1 du langage Python. Il s'agit de la première version nativement compatible avec macOS 11 Big Sur, sur la nouvelle puce M1 d'Apple basée sur Arm.

Les équipes de Core Python ont mis au point un installeur expérimental appelé macos11.0. Grâce à Xcode 11, il est possible de créer des binaires Universal 2 fonctionnant sur les puces Apple Silicon.

Les binaires peuvent être développées sur des versions actuelles de macOS, et déployées sur d'anciennes versions du systèmes d'exploitation. C'est donc un soulagement pour les Data Scientists, suite à la décision d'Apple de changer d'architecture.

Google Atheris : un outil open source pour trouver les bugs de Python

Les experts en sécurité de Google ont  » open-sourcé  » l'outil Atheris. Celui-ci permet de trouver des bugs de sécurité et des vulnérabilités dans le code Python afin de les corriger avant qu'il ne soit trop tard.

Cet outil repose sur la technique du  » fuzzing « . Ce concept consiste à nourrir une application à l'aide d'une large quantité de données aléatoires, et d'analyser le résultat pour détecter d'éventuels crashes ou anomalies. Les développeurs peuvent alors rechercher les bugs dans le code de l'application.

Ce nouvel outil rejoint la liste des différents  » fuzzers  » déployés par Google en open-source depuis 2013 : OSS-Fuzz, Syzkaller, ClusterFuzz, Fuzzilli ou encore BrokenType. Toutefois, ces précédentes solutions permettaient de découvrir des bugs dans les applications en C ou C++.

Alors que Python est désormais le 3ème langage le plus utilisé selon l'index TIOBE, Google répond à une demande de plus en plus importante avec Atheris. L'outil, initialement développé lors d'un hackaton interne en octobre 2020, permet le fuzzing du code en Python 2.7 et 3.3+ ou des extensions natives créées avec CPython. .

Il est toutefois conseillé de l'utiliser avec le code en Python 3.8 ou supérieur, car les nouvelles fonctionnalités du langage permettent à Atheris de trouver davantage de bugs. Le code Atheris est disponible sur GitHub ou PyPi.

Python reste le langage de programmation le plus populaire

python 2021 populaire

Les langages de programmation se multiplient. Par conséquent, il devient difficile pour les développeurs de choisir celui qu'ils doivent apprendre pour faire évoluer leur carrière.

À travers son rapport « Where Programming, Ops, AI, and the Cloud are Headed in 2021 », O'Reilly révèle les langages les plus populaires à l'aube de 2021. Les analystes ont dressé leurs bilans à partir des données issues des formations en ligne, des formations partenaires et des événements virtuels d'O'Reilly.

Python reste le langage le plus demandé même en 2022. En effet, l'intérêt des développeurs pour Python est en hausse de 27 % par rapport à l'année 2021. Cet engouement est dû en grande partie aux nombreux avantages de Python pour le Machine Learning. En effet, l'utilisation de la bibliothèque scikit-learn a connu une hausse de 11 %. Quant au framework PyTorch, utilisé pour le Deep Learning, a vu son adoption augmenter de 159 %.

D'autres langages gagnent en popularité

L'utilisation de JavaScript a grimpé de 40 %, tandis que celle du C a augmenté de 12 % et celle du C++ de 10 %. Certains langages moins utilisés connaissent également une croissance, tels que Go, Rust, Ruby et Dart.

En effet, Rust peut devenir le langage de choix pour la programmation de systèmes. En particulier pour la création de nouveaux systèmes d'exploitation et d'outils pour les opérations de computing. De même, Go s'est imposé comme un langage clé pour la programmation concurrente.

Une autre tendance identifiée par O'Reilly concerne l'adoption de la programmation « low-code » ou « no-code ». Cette approche permet aux utilisateurs ne possédant pas de compétences en codage informatique de créer des applications à l'aide d'outils intuitifs et d'interfaces graphiques.

Néanmoins, les développeurs professionnels ne risquent pas de se retrouver au chômage. En fait, les nouveaux langages, bibliothèques et outils utilisés pour ce type de programmation vont toujours exiger des développeurs expérimentés.

Intelligence artificielle et machine learning

L'intérêt des développeurs pour l'IA a bondi de 64 %, contre 14 % pour le ML. Quant au traitement du langage naturel, il enregistre une hausse de 21 %. La plateforme la plus populaire pour le Machine Learning est TensorFlow, avec un gain d'intérêt de 6 % par rapport à 2022.

Cloud Computing

En outre, de plus en plus de développeurs souhaitent apprendre à utiliser le cloud computing. En une année, l'intérêt pour AWS a augmenté de 5 %. Certes, le cloud d' reste le plus populaire, mais l'augmentation de l'intérêt pour a explosé à 136 %.

Du côté de , l'augmentation atteint 84 %. Cette tendance montre que de plus en plus d'entreprises migrent leurs données et applications vers le Cloud. Enfin, l'adoption de la formation en ligne a augmenté de 96 %.

Python : deux vulnérabilités permettant l'exécution de code à distance corrigées par la PSF

python vulnérabilité

Début 2021, l'on a découvert deux vulnérabilités affectant les versions actuelles de Python. La faille  » CVE-2021-3177 «  impactait le buffer et pouvait mener à l'exécution de code à distance dans les applications Python.

Fort heureusement, dans un billet publié sur son blog, la PSF précise que l'exécution de code à distance requiert de nombreuses conditions. Néanmoins, cette vulnérabilité permet de lancer des attaques de type DDoS. Un cyberattaquant pourrait submerger le buffer afin de faire crasher une application. La seconde vulnérabilité, CVE-2021-23336, permettait d'empoisonner le cache web.

Suite à la découverte de ces failles, la fondation Python a corrigé les deux bugs avec la relaxe de Python 3.8.8 et 3.9.2. Il est donc important de mettre à jour la version de Python que vous utilisez afin de supprimer cette menace de sécurité.

Python va dépasser Java et C dans le TIOBE Index pour la première fois

Chaque mois, TIOBE publie un classement des langages de programmation les plus utilisés. Au fil du temps, ce classement mensuel permet d'observer les tendances dans le domaine du coding.

Le système de notation, en pourcentage, se base notamment sur le volume de recherches effectuées sur Bing, Amazon, YouTube, Wikipedia, Google, Yahoo et Baidu pour chaque langage de programmation.

En juin 2021, le langage C occupe le sommet du classement avec une note de 12,54%. Toutefois, cette note représente une baisse de 4,65% par rapport à juin 2020.

Or, Python est en seconde position avec une note de 11,84%. L'écart entre ces deux langages n'est donc plus que de 0,7%. La note de Python a augmenté de 3,48% au cours des douze derniers mois.

On retrouve ensuite Java en troisième place avec une note de 11,54%, soit 4,56% de moins qu'en juin 2020. A l'époque, Java était en seconde position.

Selon Paul Jansen, CEO de TIOBE Software, Python atteindra très bientôt la première place du classement. Cette ascension pourrait survenir en juillet 2021, alors que l'index TIOBE lui-même fêtera ses 20 ans.

Pendant ces deux décennies, C et Java a accaparé la première place. Le dominance de Python représenterait donc un tournant historique dans l'histoire de l'informatique

Le reste du classement reste inchangé depuis juin 2020 de la quatrième à la huitième place : C++, C#, Visual Basic, JavaScript et PHP. En neuvième position, Assembly reçoit une note de 2,05%. C'est une hausse à hauteur de 1,09% par rapport à juin 2020, lorsque ce langage était en 14ème place.

SQL clôture le top 10 avec une note de 1,88%. Ceci représente une augmentation de 0,15% par rapport à juin 2020.

En dehors du top 10, Classic Visual Basic a gagné huit place en un an. Le numéro 12, Groovy, a gagné 19 places et le numéro 17, Fortran, a pris 20 positions. En revanche, R et Swift ont perdu cinq places chacun et tombent en position 14 et 16 respectivement. MATLAB a clôturé le top 20 qui a perdu quatre places et Go qui en a perdu huit.

Parmi les langages prometteurs pour le futur, on compte Dart, Kotlin, Julia, Rust, TypeScript et Elixir. Pour l'heure, ces récents langages sont encore loin du sommet et n'ont pas vraiment bougé dans le classement au cours de l'année passée.

Python et JavaScript ont les plus grosses communautés de développeurs selon SlashData

Au fil des six premiers mois de 2021, la communauté mondiale des développeurs a profité d'une croissance effrénée. C'est ce que met en lumière un rapport publié par SlashData.

Selon cette étude, on dénombre à l'heure actuelle 24,3 millions de développeurs dans le monde au premier trimestre 2021. C'est une augmentation d'environ 14% par rapport aux 21,3 millions recensés en octobre 2020.

En six mois, JavaScript a attiré environ 1,4 million de nouveaux développeurs. Avec 13,8 millions de développeurs, ce langage jouit de la plus large communauté. Il a aussi profité de la plus forte croissance, avec 4,5 millions de développeurs supplémentaires entre le T4 2017 et le T1 2021. Même dans les secteurs où il ne s'agit pas du langage de prédilection, comme la Data Science, environ un quart des développeurs utilise JavaScript.

slashdata python

En seconde position, on retrouve Python avec une communauté de 10,1 millions de développeurs. Cette communauté se développe à un rythme de 20%, ce qui représente le taux de croissance le plus haut parmi tous les langages de programmation.

Selon le rapport, la popularité de Python est en grande partie liée à l'essor de la Data Science et du Machine Learning. En effet, près de 70% des Data Scientists et des développeurs en Machine Learning utilisent Python. En comparaison, seuls 17% utilisent R.

Au classement des plus grandes communautés, on retrouve ensuite Java avec 9,4 millions de développeurs, C/C++ à 7,3 millions, et C# à 6,5 millions. Le langage Kotlin d'Android dépasse iOS Swift de peu, avec respectivement 2,6 millions et 2,5 millions de développeurs.

Python 4.0 pourrait ne jamais voir le jour, selon son créateur

guido van rossum

Selon Guido Van Rossum, le créateur de Python, la version 4 du langage pourrait ne jamais voir le jour. Ceci résulte principalement des nombreuses difficultés rencontrées lors de la migration de Python 2.0 à Python 3.0 en 2008.

Interrogé à ce sujet lors d'une interview accordée à Reactor, M. Van Rossum a expliqué que ni lui ni l'équipe centrale de développeurs Python n'étaient motivés par la publication d'une version 4.0. Cela s'explique par les nombreux revers rencontrés lors de la précédente mise à jour majeure.

Puisque Python 3 n'est pas compatible avec Python, les développeurs qui ont créé des dépendances de bibliothèques logicielles basées sur Python 2 n'ont pas pu les mettre à niveau vers Python. Une longue période de migration s'en est suivie, qui a duré plusieurs années et a laissé un souvenir amer au créateur du langage. Pour rappel, le cycle de vie de Python 2 a pris fin en avril 2020 avec la version 2.7.18.

La seule raison pour laquelle Python 4.0 verrait le jour serait un changement majeur en termes de compatibilité avec le C. La mise à jour serait alors indispensable.

En dehors de cela, Python continuera à suivre un calendrier de sortie annuel strict. Les versions 3.x continueront jusqu'à 3.99, puis un autre chiffre sera ajouté après la virgule si nécessaire.

Python pourrait devenir 5 fois plus rapide d'ici 5 ans

python vitesse

Malgré ses nombreuses qualités, l'un des principaux points faibles de Python est sa lenteur. En comparaison avec C++ ou Java, ce langage interprété à haut niveau d'abstraction est nettement moins rapide.

Les choses pourraient toutefois changer au fil des prochaines versions. Lors du Python Language Summit, Guido Van Rossum, créateur du langage, a annoncé que la vitesse serait doublée avec la version 3.11 attendue pour octobre 2022.

Et ce n'est qu'un début. Une nouvelle version sera déployée chaque année, et la vitesse actuelle devrait être multipliée par cinq d'ici cinq ans.

Dans une présentation postée sur GitHub, Van Rossum explique comment il compte parvenir à cette prouesse. Un interpréteur adaptatif, une optimisation du frame stack, et une prise en charge d'exception  » zero overhead  » comptent parmi les pistes envisagées.

D'autres changements sont à prévoir, comme une ABI (Application Binary Interface) ou un générateur de code automatique pour continuer à accélérer Python. Ainsi, la vitesse semble désormais la priorité absolue pour les créateurs de Python.

Source : openclassrooms.com

Cet article Python : tout savoir sur le principal langage Big Data et Machine Learning a été publié sur LEBIGDATA.FR.

Meta lance l’IA Llama 3 ! Découvrez sa puissance, et le secret pour l’utiliser en France !

Meta hausse le ton dans la guerre de l'IA ! La firme de lance enfin Llama 3, sa nouvelle IA open source qui s'assoit à la table de -4 Turbo, 3 Opus et Gemini Ultra selon les premiers tests ! Découvrez tout ce qu'il faut savoir sur ce puissant LLM, et sur son chatbot Meta.ai !

Il y a quelques jours, Meta et OpenAI annonçaient chacun de leur côté le lancement imminent de leurs nouvelles IA, beaucoup plus puissantes et capables de raisonner.

C'est désormais chose faite pour l'entreprise de Zuckerberg : la nouvelle IA Llama 3 vient d'être lancée, un peu moins d'un an après la V2 sortie en juillet 2023.

Plus précisément, Llama 3 est une famille de modèles et les deux premiers sont disponibles. On ignore pour l'instant la date de lancement des autres…

Introducing Meta Llama 3: the most capable openly available LLM to date.

Today we're releasing 8B & 70B models that deliver on new capabilities such as improved reasoning and set a new state-of-the-art for models of their sizes.

Today's release includes the first two Llama 3… pic.twitter.com/Q80lVTeS7m

— AI at Meta (@AIatMeta) April 18, 2024

Le premier est Llama 3 8B, avec 8 milliards de paramètres, et Llama 3 70B, avec 70 milliards de paramètres. En comparaison avec Llama 2 8B et Llama 2 70B, Meta promet un bond dans les performances malgré le même nombre de paramètres.

Pour rappel, la quantité de paramètres d'un modèle IA détermine ses performances pour une tâche spécifique comme l'analyse ou la génération de texte.

Afin d'atteindre un tel niveau, la firme a entraîné ses nouveaux modèles sur deux clusters de 24 000 GPU construits spécialement pour l'occasion.

Et toujours d'après Meta, cette troisième génération ne se contente pas de surpasser la deuxième : elle rivalise avec les meilleures IA génératives disponibles à l'heure actuelle.

Que vaut Llama 3 face à Claude 3, GPT-4 et Gemini ?

Pour le prouver, elle souligne ses scores sur plusieurs benchmarks populaires comme MMLU pour mesurer la connaissance, ARC pour l'acquisition de compétences, et DROP pour le raisonnement sur du texte.

Ainsi, Llama 3 8B dépasse déjà d'autres modèles ouverts comme l'IA française Mistral 7B ou le Gemma 7B de Google sur au moins neuf benchmarks : MMLU, ARC, DROP, GPQA pour la science, HumanEval pour le code, GSM-8K et MATH pour les maths, AGIEval ou encore BIG-Bench Hard pour le sens commun.

Toutefois, il convient de noter que Mistral 7B et Gemma 7B datent déjà de la fin 2023. Néanmoins, Llama 3 70B quant à lui rivalise avec les meilleures IA comme Gemini 1.5 Pro : la dernière version de l'IA de Google.

Elle la surpasse même sur MMLU, HumanEval et GSM-8K. Et même si elle ne dépasse pas Claude 3 Opus, le meilleur modèle d'Anthropic, elle bat son petit frère Claude 3 Sonnet sur MMLU, GPQA, HumanEval, GSM8K et MATH.

Outre ces benchmarks, Meta a aussi développé ses propres tests pour différents cas d'usage comme le codage, l'écriture créative, ou encore le raisonnement.

Comme on peut s'en douter, Llama 3 70B surpasse Mistral Medium, OpenAI GPT-3.5 et Claude Sonnet sur ces tests…

Impressive results from Llama 3! pic.twitter.com/X85Wz3iol2

— Yann Dubois (@yanndubs) April 19, 2024

Un dataset d'entraînement 7 fois plus large que Llama 2 !

course llama

Dans le détail, Meta affirme que Llama 3 est plus facile à diriger que les précédentes versions, moins enclin à refuser de répondre, et plus précis sur les questions d'histoire ou de science.

Ceci s'explique notamment par son dataset beaucoup plus large avec 15 billions de tokens, soit environ 750 milliards de mots. C'est sept fois plus que le jeu de données de Llama 2.

Une question se pose toutefois : d'où proviennent ces données ? Meta se contente d'indiquer qu'il s'agit de sources publiquement disponibles, et qu'elles incluent quatre fois plus de code que celles de Llama 2 et 5% de données dans 30 langages autres que l'anglais.

Feeling the gap between the Llama-3-8B and Llama-3-70B models by @AIatMeta? Not sure how to use your extra vRAM? Look no further!

I am excited to introduce three new Llama-3 models in 11B, 13B, and 16B sizes!

Find all 3 models on @huggingface pic.twitter.com/4UuGmCnfOu

— Maziyar PANAHI (@MaziyarPanahi) April 19, 2024

Le but ? Améliorer ses performances dans les autres langues comme le français ! La firme a aussi utilisé des données synthétiques, générées par l'IA, pour créer des documents plus longs afin d'entraîner Llama 3 dessus.

Il n'est pas étonnant que Meta préfère garder une part de mystère sur les données d'entraînement, car il s'agit du nerf de la guerre de l'IA.

Toutefois, il peut aussi s'agir d'une façon de cacher l'utilisation de données protégées par les droits d'auteur. Une récente enquête a révélé que Meta s'est servi de e-books soumis au copyright pour entraîner ses précédentes IA et rattraper la concurrence…

Une pratique malheureusement très répandue dans l'industrie, profitant du manque de transparence des IA qui empêche de prouver avec quelles données elles ont été nourries.

https://youtu.be/2XO8RoU4XQQ

Une IA moins toxique et raciste que ses concurrentes ?

La toxicité et les biais discriminatoires sont aussi deux problèmes récurrents chez les modèles d'IA générative.

Toutefois, Meta affirme avoir créé de nouveaux pipelines de filtrage de données pour booster la qualité des données d'entraînement de ses modèles.

L'entreprise a aussi mis à jour ses outils de sécurité Llama Guard et CybersecEval, dans le but d'empêcher l'utilisation à mauvais escient et les générations de contenu indésirable. Ceci s'applique à Llama 3, et aux autres modèles.

Un tout nouvel outil, Code Shield, va aussi permettre de détecter le code qui pourrait introduire des vulnérabilités de sécurité. Il faudra toutefois patienter pour découvrir si les hackers et cybercriminels parviennent à contourner ces barrières de sécurité…

https://youtu.be/kh6Ii61uiQE

Bientôt une version encore plus puissante !

En ce moment même, Meta entraîne des modèles Llama 3 avec plus de 400 milliards de paramètres. Ils seront capables de discuter dans une multitude de langages, de prendre davantage de données et de comprendre les images ou les autres modalités.

Ainsi, cette future IA sera au même niveau que d'autres modèles open source comme Hugging Face Idefics2.

À l'avenir, Meta se fixe pour objectif de faire de Llama 3 une IA polyglotte et multimodale, avec une fenêtre de contexte plus longue, et de continuer à améliorer ses performances sur le raisonnement et le codage…

Comment utiliser Llama 3 en France dès aujourd'hui ?

Les modèles Llama 3 sont disponibles en téléchargement, et servent aussi de moteur au chatbot Meta AI qu'on retrouve sur Facebook, Instagram, WhatsApp et Messenger.

Il sera bientôt aussi proposé sous forme gérée sur différentes plateformes dont AWS, Databricks, , Hugging Face, Kaggle, IBM WatsonX, Azure, NIM et Snowflake.

En outre, de futures versions optimisées pour le hardware AMD, AWS, Dell, Intel, Nvidia et Qualcomm seront prochainement disponibles.

Même si Meta vante l'ouverture de cette IA, notons qu'il est interdit de l'utiliser pour entraîner d'autres modèles d'IA générative. De plus, les développeurs d'applications avec plus de 700 millions d'utilisateurs mensuels doivent demander une licence spéciale à la firme américaine.

Pour la première fois, le chatbot basé sur Llama a aussi son propre site web, dans la lignée de ChatGPT, Mistral Le Chat ou Google Gemini. Il s'agit du site web meta.ai, qui permet de dialoguer directement avec l'IA.

Toutefois, pour le moment, ce site web n'est accessible que depuis les États-Unis. Si vous vous rendez sur le site meta.ai, un message vous indiquera qu'il n'est pas disponible dans votre pays.

Rassurez-vous ! Contrairement à Claude 3 qui vérifie votre véritable localisation, Meta.ai peut être très facilement trompé… à l'aide d'un simple VPN !

Consultez notre classement des meilleurs VPN en suivant ce lien, choisissez celui qui vous plaît, et utilisez-le pour simuler une connexion depuis les États-Unis.

Vous pouvez dès lors vous rendre sur le site web Meta.ai, et commencer à l'utiliser en tant qu'invité ou en vous connectant avec votre compte Facebook.

Dès lors, vous pouvez entrer votre prompt textuel comme sur ChatGPT, ou utiliser l'onglet « Imagine » pour créer des images comme avec MidJourney !

Alors, que pensez-vous de cette nouvelle IA ? Trouvez-vous qu'elle est meilleure que ChatGPT ? Partagez votre avis en commentaire !

Cet article Meta lance l’IA Llama 3 ! Découvrez sa puissance, et le secret pour l’utiliser en France ! a été publié sur LEBIGDATA.FR.

L’intelligence artificielle au service du financement des PME

Silvr, start-up française spécialisée dans les financements à court terme pour les PME, annonce un partenariat stratégique avec . L'objectif est d'accélérer l'accès au financement grâce à l'intelligence artificielle. Cette collaboration vise à simplifier et à accélérer le processus de demande de crédit pour les entrepreneurs.

Financement PME

Le Partenariat Silvr-

  • Silvr accélère son développement dans un environnement régulé et géographiquement dispersé avec l'infrastructure et les technologies Google Cloud ;
  • En s'appuyant sur l'IA, Silvr entend faciliter l'accès des entrepreneurs au financement, plus rapidement, plus efficacement et toujours en conformité.

Accès au crédit simplifié grâce à l'IA

Silvr s'appuie sur les technologies d'intelligence artificielle de Google Cloud pour automatiser l'évaluation de la solvabilité des entreprises. Grâce à des outils avancés tels que Vertex AI et Silvr Classif.ai, les données bancaires sont rapidement transformées en ratios financiers. L'utilisation de ces outils permet une décision de crédit instantanée. Cette approche réduit considérablement les délais d'attente pour les entrepreneurs. Elle offre également un accès plus rapide et plus efficace au financement nécessaire.

Accès au crédit Financement PME Intelligence artificielle

Expansion internationale et standardisation

Outre l'amélioration de l'accessibilité au financement en France et en Allemagne, Silvr envisage d'étendre son empreinte internationale. Les technologies de Google Cloud offrent à Silvr une infrastructure flexible et évolutive, indispensable pour répondre aux demandes croissantes de financement dans différentes régions. L'approche standardisée de l'IA permet une expansion harmonieuse, tout en garantissant le respect des normes et des règlementations locales.

Financement PME IA Google Cloud Silvr Technologie financière

Un engagement envers l'innovation et la proximité client

Nima Karimi, Cofondateur et CEO de Silvr, souligne l'importance des solutions d'IA de Google Cloud pour répondre aux besoins changeants des PME européennes.

« … , Nous disposons ainsi d'un véritable atout stratégique pour permettre aux PME françaises et européennes d'accéder plus facilement et rapidement au financement dont elles ont besoin ». A déclaré Karimi.

IA Google Cloud Silvr
Technologie financière

Il met en avant la valeur ajoutée de cette collaboration qui permet à Silvr d'offrir des options flexibles adaptées aux besoins spécifiques de ses clients. De son côté, Isabelle Fraine, Directrice générale de Google Cloud France, se réjouit de cette association fructueuse. “L'IA, le modèle d'innovation ouvert, l'ensemble des capacités technologiques et la proximité des équipes de Google Cloud ont permis à Silvr d'atteindre un niveau de performance inégalé en Europe”. Elle souligne l'engagement de Google à soutenir l'innovation et à offrir un service de qualité supérieure à ses partenaires.

Article basé sur un reçu par la rédaction.

Cet article L’intelligence artificielle au service du financement des PME a été publié sur LEBIGDATA.FR.

Google annonce son CPU IA Axion, pour défier Nvidia et doubler Amazon

C'est avec Axion que le leader de la recherche en ligne compte s'imposer sur le marché de l'intelligence artificielle. et peuvent s'inquiéter.

Le printemps de l'intelligence artificielle continue à prendre de l'ampleur. Voulant profiter pleinement de cette vague, Google multiplie ses solutions maison en matière de technologies d'IA. Mardi, le géant américain du numérique a dévoilé Google Axion. L'implémentation des technologies d'IA dans ses centres de données va reposer sur ce nouveau CPU Arm.

Google utilise activement les puces IA de Nvidia pour ses applications d'intelligence artificielle. Ces processeurs lui permettent également de développer de nouvelles technologies d'IA.

Néanmoins, la compagnie de Menlo Park veut réduire sa dépendance à son fournisseur et partenaire. Ce qui l'amène à élaborer des solutions maison comme Axion.

Axion, une puce sur mesure pour le

Dans un premier temps, la nouvelle puce va servir à satisfaire les besoins de Google en matière d'intelligence artificielle — notamment pour son service cloud. Axion sera ensuite déployé, plus tard dans l'année, pour les clients professionnels de .

BOOM! The worst kept semi secret is out. @Google announces Axion, an @Arm-based general purpose processor. Already deployed internally on services like @YouTube, in preview for enterprise customers soon. More details later from @MattKimball_MIS. pic.twitter.com/0CCVqBwaln

— Patrick Moorhead (@PatrickMoorhead) April 9, 2024

Notons que le nouveau processeur fait déjà tourner Google Earth, les publicités YouTube et d'autres services Google. Par ailleurs, les clients pourront « facilement adopter Axion sans restructurer leurs applications ».

La nouvelle puce combine l'expertise en silicium de la compagnie avec les cœurs de CPU les plus performants d'Arm. Cette configuration booste considérablement les performances.

En effet, Google Axion offre une performance et une efficacité énergétique de pointe pour les centres de données. Il performe plus que les instances Arm et x86 actuelles.

Mise à niveau de ses unités de traitement de tenseurs IA

Le géant américain du numérique améliore également ses puces TPU pour l'intelligence artificielle. Cela lui permet d'avoir une alternative aux processeurs graphiques de Nvidia pour l'accélération des tâches d'IA.

Ces améliorations visent à augmenter la performance et l'efficacité. Les TPU deviennent plus efficaces pour les tâches d'apprentissage automatique.

Google présente ainsi le TPU v5p comme un accélérateur de nouvelle génération. Celui-ci est spécialement conçu pour l'entraînement des modèles d'intelligence artificielle générative les plus exigeants.

Pour avoir une idée de l'ampleur de l'amélioration, il faut savoir qu'un module TPU v5p contient 8 960 puces. Cela fait plus du double du module TPU v4.

TPU v5p, our most powerful and scalable TPU, is now generally available! #GoogleCloudNext pic.twitter.com/mmfWlzHeqs

— Google Cloud Tech (@GoogleCloudTech) April 9, 2024

Google Axion pour rattraper la concurrence

L'annonce de ce nouveau CPU basé sur Arm intervient après que ait révélé ses propres puces pour son infrastructure cloud.

Rappelons que le géant américain de l'informatique et Amazon sont les principaux concurrents de Google sur le marché du cloud. Ils possèdent leurs propres processeurs pour les charges de travail d'IA et de cloud.

Avec Google Axion, le leader mondial de la recherche en ligne veut faire comme ses rivaux. Il ne vendra pas ces puces, mais les intégrera plutôt dans ses services cloud.

Cela permet à la compagnie de Menlo Park — comme Microsoft et Amazon — de réduire sa dépendance à ses fournisseurs, et Nvidia. Ce n'est que de cette façon que Google pourra rattraper son retard sur le marché du cloud.

Cet article Google annonce son CPU IA Axion, pour défier Nvidia et doubler Amazon a été publié sur LEBIGDATA.FR.

Orange s’allie à Google pour mettre l’IA dans son réseau : la clé contre SFR et Free ?

Développer une IA performante pour noyer la concurrence. Orange va collaborer avec pour atteindre cet objectif. Dans tous les cas, cette innovation va améliorer l'expérience des utilisateurs. Comme quoi, la rivalité entre les entreprises de la tech est toujours bénéfique, surtout pour les abonnés.

La référence française de la télécommunication vient de marquer. En effet, Orange va collaborer avec Google pour développer une intelligence artificielle à grande échelle. Un système de reconnaissance vocale sera alors au rendez-vous. De plus, cette nouvelle IA sera dotée d'une capacité d'analyse exceptionnelle. Une innovation considérable, surtout dans cette ère de rivalité entre les entreprises high-tech.

@orange s'allie à @Google pour déployer l'IA

"Google veut absolument profiter de l'accélération qui est offerte par leurs outils Data qui sont excellents"

💬 @ClemPadok , Président de Padok
🎙 @Fsorel et @simottel pic.twitter.com/79TzpNfC9u

— BFM Business (@bfmbusiness) April 9, 2024

Développer une IA pour les utilisateurs, tel est l'objectif de cette alliance

Comme à son habitude, Orange met toujours ses abonnées en avant. La preuve, l'entreprise va collaborer avec Google pour améliorer l'expérience de ces derniers.

Steve Jarret, chargé de l'IA chez Orange, s'est même exprimé sur ce sujet : « Cela nous permettra souvent de résoudre des problèmes avant que les clients ne constatent un dysfonctionnement »

De son côté, la directrice générale d'Orange a déclaré que cette alliance est primordiale pour mieux gérer les données des abonnées.

« Cette collaboration avec Google Cloud et les solutions de pointe annoncées aujourd'hui est fondamentale pour permettre à Orange de développer une IA à grande échelle et constitue une étape majeure pour une valorisation significative de toutes nos données » Christel Heydemann, directrice générale d'Orange.

Orange X Google : des fonctionnalités clés seront au rendez-vous

La reconnaissance vocale sera l'une des fonctionnalités majeures de cette IA d'Orange. Le but est de faciliter la résolution des problèmes des clients. Durant les appels, l'IA retranscrit en direct la conversation. Elle identifie ensuite le problème, et propose des solutions. L'agent responsable des relations clients n'aura plus qu'à valider cette approche de l'IA s'il le veut.

Cette nouvelle intelligence artificielle sera aussi bénéfique pour les employés d'Orange. En effet, l'IA peut analyser les données internes de l'entreprise afin de suggérer des solutions.

« Cela pourrait être un technicien sur le site d'une antenne-relais qui cherche à résoudre un problème technique complexe sur un équipement, ou un agent de vente en boutique qui essaie de comprendre quel produit sera le plus intéressant et utile à un client. Nous utilisons l'intelligence artificielle non seulement pour synthétiser toute cette information, mais aussi pour la rendre plus accessible » M. Jarret.

D'un autre point de vue, la collaboration avec Google contribue aussi à renforcer la sécurité des données d'Orange. Avec Google Distributed , le géant français peut facilement filtrer les datas. L'entreprise peut ainsi classer les données à mettre dans les centres de stockages locaux, ou dans les autres pays.

Orange a frappé fort avec sa nouvelle IA. On attend alors la réaction des autres entreprises de télécommunication comme SFR et Free. En suivant la logique des choses, ces dernières ne vont pas tarder à annoncer une innovation majeure. SFR va-t-elle aussi lancer une IA ? Free profiterait-elle de ses box WiFi pour devancer Orange ? 

Cet article Orange s’allie à Google pour mettre l’IA dans son réseau : la clé contre SFR et Free ? a été publié sur LEBIGDATA.FR.

❌