Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇ActuIA
  • Le ministère des Armées déploie son IA générative sécurisée et souveraine : GenIAl.intradef
    Le ministère des Armées poursuit sa transformation digitale en déployant sur Intradef une solution d’IA générative sécurisée et souveraine destinée à faciliter le quotidien de ses agents, militaires et civils : GenIAl.intradef. Cette plateforme de services IA est développée depuis 2022 par le Centre d’expertise données et IA (CEDIA) du SGA (Secrétariat général pour l’administration) en collaboration avec l’Etat-Major des Armées et la Direction générale de l’armement (DGA), la Direction générale

Le ministère des Armées déploie son IA générative sécurisée et souveraine : GenIAl.intradef

13 février 2025 à 13:09

Le ministère des Armées poursuit sa transformation digitale en déployant sur Intradef une solution d’IA générative sécurisée et souveraine destinée à faciliter le quotidien de ses agents, militaires et civils : GenIAl.intradef.

Cette plateforme de services IA est développée depuis 2022 par le Centre d’expertise données et IA (CEDIA) du SGA (Secrétariat général pour l’administration) en collaboration avec l’Etat-Major des Armées et la Direction générale de l’armement (DGA), la Direction générale du numérique (DGNUM), la Direction interarmées des réseaux d’infrastructure et des systèmes d’information (DIRISI), l’Agence du numérique de défense (AND) et l’Agence ministérielle pour l’intelligence artificielle de défense (AMIAD).

Une plateforme au service des agents du ministère

Fruit de plusieurs mois d’expérimentation, GenIAl.intradef est conçue pour accompagner les agents du ministère en optimisant les tâches quotidiennes et en réduisant la charge des activités répétitives ou chronophages : synthétiser des documents, analyser des notes, étudier une réglementation, rechercher des informations pertinentes dans un rapport… Son rôle n’est pas de se substituer à eux mais de leur permettre de se concentrer davantage sur les tâches à haute valeur ajoutée. Comme le souligne Guillaume Vimont, chef du CEDIA, “L’agent reste l’unique acteur de ses décisions.”

Déployée progressivement depuis décembre dernier, elle met à disposition plusieurs services d’IA, notamment :

  • Un agent conversationnel : ce “ChatGPT défense” spécifiquement adapté au vocabulaire et aux enjeux propres au ministère des Armées, facilite la rédaction de contenus, la réponse aux questions et la stimulation de la réflexion. Il bénéficiera d’améliorations permanentes pour continuer à s’adapter et s’enrichir ;
  • Un synthétiseur pour extraire les idées principales d’un document et de proposer un résumé adapté ;
  • Un traducteur pour les messages et les documents ;
  • Un convertisseur de contenus audio en texte ;
  • Une océrisation (OCR ou Optical Character Recognition) qui transforme les contenus textuels d’images en fichiers exploitables.

Une intégration progressive et évolutive

La mise en service de GenIAl.intradef repose sur des infrastructures récentes, telles que le  C1DR (cloud sur le réseau intradef) et la plateforme Artemis.IA. Intégrée à l’environnement numérique du ministère, elle sera progressivement accessible à l’ensemble des personnels.

D’autres fonctionnalités sont d’ores et déjà en développement pour répondre aux besoins spécifiques des métiers. Une aide en ligne et des ressources d’accompagnement, dont des capsules vidéos disponibles dès la rentrée, permettront aux utilisateurs de mieux appréhender les capacités de l’outil.

ministerearemees
  • ✇ActuIA
  • L’IA en 2025 : entre potentiel et réalité pour les entreprises
    En amont du Forum de Davos, le Boston Consulting Group (BCG) a récemment publié la seconde édition de son AI Radar. Selon ce rapport intitulé “From Potential to Profit: Closing the AI Impact Gap”, pour lequel plus de 1800 dirigeants dont 170 en France, ont été interrogés, l’IA, comme l’an passé, est l’une des trois principales priorités stratégiques pour 2025. Un investissement croissant, mais une valeur encore limitée Une entreprise sur trois prévoit d’allouer plus de 25 millions de dollars à l

L’IA en 2025 : entre potentiel et réalité pour les entreprises

22 janvier 2025 à 11:00

En amont du Forum de Davos, le Boston Consulting Group (BCG) a récemment publié la seconde édition de son AI Radar. Selon ce rapport intitulé “From Potential to Profit: Closing the AI Impact Gap”, pour lequel plus de 1800 dirigeants dont 170 en France, ont été interrogés, l’IA, comme l’an passé, est l’une des trois principales priorités stratégiques pour 2025.

Un investissement croissant, mais une valeur encore limitée

Une entreprise sur trois prévoit d’allouer plus de 25 millions de dollars à l’IA en 2025, avec une augmentation prévue de 60 % des investissements dans la GenAI d’ici 2027.

Bien que 75 % des dirigeants considèrent l’IA comme l’une de leurs trois priorités stratégiques, seuls 25 % d’entre eux estiment en tirer une valeur significative. Pourquoi cette déconnexion entre ambition et résultats concrets ? Le rapport met en avant des raisons multiples : manque de clarté dans les objectifs, difficultés à mesurer l’impact, et une focalisation sur des initiatives de productivité à petite échelle.

Les entreprises leaders se distinguent par une approche différente. Elles allouent plus de 80 % de leurs investissements en IA à la refonte des fonctions principales et à l’innovation alors les autres organisations consacrent 56 % de leurs investissements à des initiatives axées sur la productivité. Les leaders concentrent leurs efforts sur un nombre restreint de cas d’usage, privilégiant en moyenne 3,5 cas d’utilisation contre 6,1 pour les autres entreprises, générant ainsi un retour sur investissement 2,1 fois supérieur.

Selon Christoph Schweizer, PDG du BCG :

“Les leaders sont ceux qui concentrent leurs efforts sur quelques initiatives, qui transforment leurs process, améliorent les compétences de leurs équipes et mesurent systématiquement les retours opérationnels et financiers de ces initiatives”. 

L’essor des agents autonomes

Les agents autonomes, capables de fonctionner avec une intervention humaine minimale, sont perçus comme un levier clé pour la transformation IA des entreprises.


Si 67 % des dirigeants prévoient de les utiliser, la prudence reste de mise face aux risques liés à la confidentialité des données et aux exigences réglementaires.

Impact sur l’emploi : menace ou opportunité ?

Contrairement aux craintes largement répandues, seuls 7 % des dirigeants prévoient une réduction des effectifs due à l’automatisation de l’IA. La majorité (68 %) envisage de maintenir leurs effectifs tout en se concentrant sur la formation et l’adaptation des compétences. Toutefois, l’écart entre les besoins en compétences IA et les capacités actuelles est encore important, avec moins d’un tiers des entreprises ayant formé au moins 25 % de leurs employés.

Cybersécurité et réglementation : des défis persistants

Les dirigeants identifient la cybersécurité comme un enjeu majeur, 76 % d’entre eux jugeant leurs mesures actuelles insuffisantes. La confidentialité et la sécurité des données (66 %), le manque de contrôle sur les décisions de l’IA (48 %) et les contraintes réglementaires (44 %) constituent également des obstacles à une adoption sereine et efficace de l’IA.

Les recommandations du BCG

Le rapport met en avant plusieurs bonnes pratiques pour maximiser l’impact de l’IA. Parmi elles, la “règle du 10/20/70”, qui consiste à consacrer 10 % des efforts aux algorithmes, 20 % aux données et technologies, et 70 % à la transformation des processus et de la culture organisationnelle. Une approche disciplinée et ciblée semble ainsi être la clé de la création de valeur durable.

L'IA en 2025
  • ✇ActuIA
  • Etude Taulia : l’IA générative, pilier des décisions stratégiques des décideurs financiers
    L’IA s’impose de plus en plus comme un outil incontournable pour les processus décisionnels des départements financiers. Selon une étude mondiale réalisée par Taulia, fintech filiale du Groupe SAP, spécialisée dans les solutions de gestion de fonds de roulement, 86 % des responsables financiers seniors en France estiment que l’IA a un impact concret et positif dans leurs prises des décisions stratégiques. Cette tendance se confirme d’ailleurs à l’échelle mondiale, 9 décideurs sur 10 rapportant u

Etude Taulia : l’IA générative, pilier des décisions stratégiques des décideurs financiers

18 décembre 2024 à 13:00

L’IA s’impose de plus en plus comme un outil incontournable pour les processus décisionnels des départements financiers. Selon une étude mondiale réalisée par Taulia, fintech filiale du Groupe SAP, spécialisée dans les solutions de gestion de fonds de roulement, 86 % des responsables financiers seniors en France estiment que l’IA a un impact concret et positif dans leurs prises des décisions stratégiques. Cette tendance se confirme d’ailleurs à l’échelle mondiale, 9 décideurs sur 10 rapportant un impact favorable de l’IA sur leurs activités.

Pour cette étude, Opinium a interrogé entre le 14 août et le 28 août 2024, près de 600 directeurs et décideurs des fonctions finance et trésorerie d’entreprises de plus de 250 employés aux Etats-Unis, en Angleterre, en Allemagne, en France, à Singapour et en Australie.

L’IA et la GenAI, des atouts stratégiques pour les décideurs financiers

L’étude révèle qu’au niveau mondial, les dirigeants financiers privilégient désormais les analyses générées par l’IA par rapport aux autres sources de données pour la prise de décisions stratégiques commerciales. En effet, 57 % d’entre eux déclarent s’appuyer sur les informations générées par l’IA, 48 % sur les données internes, 46 % sur les données externes, 35 % sur le jugement personnel et 32 % sur les contributions des collègues.
Ces chiffres traduisent non seulement un changement profond, mais reflètent également une confiance croissante envers l’IA.

En France, plus de la moitié des décideurs financiers (52%) considère que l’IA a une influence significative sur leurs décisions, améliorant ainsi l’efficacité opérationnelle. Cette tendance s’accompagne d’une anticipation forte : 85 % des dirigeants prévoient une augmentation de l’influence de l’IA sur leurs processus décisionnels au cours des 12 prochains mois.

Applications clé : automatisation, prévision et chaîne d’approvisionnement

L’IA est désormais une composante clef des départements financiers À l’échelle mondiale, 60 % des dirigeants financiers travaillent déjà au sein d’équipes intégrant cette technologie, et 92 % prévoient d’en élargir l’utilisation dans les 12 prochains mois. Les applications les plus courantes concernent la gestion des stocks et des chaînes d’approvisionnement (48 %) ainsi que l’automatisation et l’optimisation des processus (46 %). Lorsqu’il est demandé aux responsables financiers seniors quels domaines bénéficient le plus de l’IA, 47 % citent l’automatisation des processus et 45 % la prévision de trésorerie.

Cette adoption est plus forte dans les grandes entreprises (62 %) que dans les entreprises de taille intermédiaire (39 %)

En France, les applications les plus prisées de l’IA reflètent des priorités similaires. Ainsi, 61 % des répondants font totalement confiance à l’IA pour améliorer l’automatisation et l’efficacité des processus. Par ailleurs, 48 % s’appuient sur cette technologie pour optimiser la gestion des stocks et des chaînes d’approvisionnement, tandis que 42 % considèrent les analyses générées par l’IA comme une référence fiable pour la prévision de trésorerie.

Ces résultats soulignent le potentiel de l’IA pour améliorer la précision et l’efficacité des opérations financières tout en réduisant les erreurs humaines. Toutefois, 74 % des répondants français estiment qu’une supervision humaine reste essentielle dans la gestion des commandes et des services, lors d’interactions avec les clients (73 %) tandis que 71 % soulignent son importance dans les négociations.

Repenser les compétences au sein des équipes

Pour maximiser le potentiel de l’IA, les départements financiers restructurent leurs équipes : près de 45 % des responsables financiers mondiaux prévoient de recruter des experts en IA dans un futur proche. En France, cette dynamique se traduit par des investissements significatifs dans la formation et le recrutement pour favoriser une collaboration optimale entre humain et technologie.

Selon Cédric Bru, CEO de Taulia :

“ Les résultats de notre étude mettent en évidence un changement majeur dans le fonctionnement des départements financiers performants. L’IA n’est plus une technologie émergente, mais un élément central de la prise de décisions stratégiques. L’IA générative simplifie l’accès aux données et renforce le rôle des dirigeants financiers. Nous sommes ravis d’accompagner ces derniers en leur fournissant des analyses basées sur l’IA pour élaborer des stratégies efficaces de gestion du fonds de roulement. Les responsables financiers accordent déjà une grande confiance aux données générées par l’IA en les privilégiant pour des décisions critiques ”.

Il conclut :

“Il est évident que le rôle de l’IA dans les fonctions financières ne fera que croître, ce qui signifie que ceux qui sauront la comprendre et l’exploiter efficacement bénéficieront d’un avantage concurrentiel majeur. Les départements financiers performants explorent déjà une variété de solutions basées sur l’IA et sollicitent des partenaires qui l’utilisent pour rester à la pointe de l’innovation”.

IA finance
  • ✇ActuIA
  • Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing
    Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd’hui plus de 300 millions d’utilisateurs hebdomadaires, le rapport “Online Search After ChatGPT: The Impact of Generative AI”, réalisé par Semrush et Statista, explore comment l’IA redéfinit la recherche en ligne et le marketing numérique.  Une transformation profonde du paysage de la recherche En l’espace de deux ans, la GenAI a bouleversé les habitudes des internautes. Ceux-ci utilisent aujourd’hui des outils d’IA comme

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

9 décembre 2024 à 10:55

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd’hui plus de 300 millions d’utilisateurs hebdomadaires, le rapport “Online Search After ChatGPT: The Impact of Generative AI”, réalisé par Semrush et Statista, explore comment l’IA redéfinit la recherche en ligne et le marketing numérique. 

Une transformation profonde du paysage de la recherche

En l’espace de deux ans, la GenAI a bouleversé les habitudes des internautes. Ceux-ci utilisent aujourd’hui des outils d’IA comme ChatGPT ou Gemini de Google pour effectuer leurs recherches en ligne, témoignant d’une adoption rapide et évolutive. Ces deux plateformes dominent le marché, captant à elles seules 78 % du trafic mondial lié à la recherche par IA, selon les données de Semrush. Les troisième et quatrième modèles les plus populaires (Perplexity.et Bing de Microsoft), représentent quant à eux deux 16 % du trafic de recherche par IA.

Cette croissance s’accompagne d’une redéfinition des méthodes de recherche. Les utilisateurs délaissent progressivement les mots-clés au profit de requêtes conversationnelles, attendant des réponses précises et rapides. Cette évolution transforme la manière dont les contenus sont créés et optimisés, forçant les entreprises à réaligner leurs stratégies de référencement (SEO).

L’émergence de nouvelles plateformes face à la domination persistante de Google

Les géants historiques comme Google et YouTube conservent une large domination grâce à leurs bases d’utilisateurs massives, respectivement 6 milliards et 3,5 milliards d’utilisateurs actifs. Cependant, la recherche par IA gagne du terrain tandis que les moteurs de recherche traditionnels, Google, Bing et Yahoo, sont confrontés à une baisse du trafic.

Si ChatGPT et Gemini occupent une place prépondérante, des alternatives émergent, comme Perplexity ou Brave Search. Les moteurs de recherche axés sur l’IA comme Brave Search et TikTok enregistrent des gains significatifs depuis 2022. En 2024, Brave Search, axé sur la confidentialité, a enregistré une croissance de 235 %.

Les Etats-Unis, leader du trafic mondial de ChatGPT

Selon le rapport, 13 millions d’adultes américains ont utilisé l’IA générative comme principal outil de recherche en ligne en 2023, un chiffre qui devrait atteindre plus de 90 millions d’ici 2027, soit près d’un tiers d’entre eux.

Les Etats-Unis sont d’ailleurs les principaux utilisateurs de ChatGPT, représentant 25 % du trafic mondial. Ils sont suivis de l’Inde avec 12,8 %, puis du Brésil et de la Chine avec respectivement 6,9 % et 4,9 %. Les principaux marchés européens comme l’Allemagne, le Royaume-Uni et la France figurent également dans le top 10.

Ces tendances régionales mettent en évidence l’importance d’élaborer des stratégies de contenu adaptées à des contextes culturels et linguistiques variés.

Les défis de la confiance et de la sécurité

Malgré son adoption rapide, la recherche par IA générative suscite encore des interrogations. Plus de 60 % des utilisateurs actuels de la GenAI seraient enclins à le faire d’avantage si les modèles d’IA offraient plus de transparence et de sécurité. Pour répondre à ces attentes, les entreprises doivent garantir l’exactitude de leurs données et s’assurer que leurs contenus respectent les normes éthiques.

Impacts stratégiques pour les spécialistes du marketing

L’essor de la recherche par IA générative représente à la fois une opportunité et un défi pour les spécialistes du marketing numérique. Trois axes majeurs se dessinent :

  1. Optimisation pour les plateformes IA : Les entreprises doivent adapter leurs contenus aux spécificités des algorithmes dominants comme ceux de ChatGPT et Gemini. Cela implique une compréhension approfondie des modèles de traitement et des préférences des utilisateurs.
  2. Adaptation aux nouvelles intentions de recherche : Les requêtes conversationnelles exigent un contenu qui répond précisément et rapidement aux besoins des utilisateurs. Il est essentiel d’adopter une approche basée sur des réponses contextuelles et engageantes.
  3. Diversification des canaux : Avec la montée en puissance de plateformes alternatives et la résurgence de moteurs de recherche axés sur la confidentialité, comme Brave Search, il devient nécessaire d’élargir les stratégies de distribution de contenu.

Pour retrouver le rapport dans son intégralité, cliquer ici.

comment la GenAI transforme la recherche en ligne et le marketing
  • ✇ActuIA
  • Elon Musk et xAI : une quête insatiable de puissance de calcul met la pression sur NVIDIA
    Plusieurs mois après avoir demandé une pause dans le domaine de l’IA, le PDG de Tesla, SpaceX et X (ex-Twitter), Elon Musk, annonçait l’an passé la création de xAI. Peu de temps après, il dévoilait le premier produit de la start-up : l’IA générative Grok, qu’il souhaite positionner devant ChatGPT. Pour cela, il lui faut encore plus de puissance de calcul, il cherche donc à sécuriser un approvisionnement constant de GPUs, mettant la pression sur les chaînes d’approvisionnement de NVIDIA. L’engoue

Elon Musk et xAI : une quête insatiable de puissance de calcul met la pression sur NVIDIA

29 novembre 2024 à 14:21

Plusieurs mois après avoir demandé une pause dans le domaine de l’IA, le PDG de Tesla, SpaceX et X (ex-Twitter), Elon Musk, annonçait l’an passé la création de xAI. Peu de temps après, il dévoilait le premier produit de la start-up : l’IA générative Grok, qu’il souhaite positionner devant ChatGPT. Pour cela, il lui faut encore plus de puissance de calcul, il cherche donc à sécuriser un approvisionnement constant de GPUs, mettant la pression sur les chaînes d’approvisionnement de NVIDIA.

L’engouement des entreprises pour la GenAI a entraîné une demande massive des GPUs H100 de NVIDIA en 2023, qui annonçait alors des délais de livraison pouvant atteindre jusqu’à 52 semaines. Les puces de NVIDIA sont en effet les plus utilisées que ce soit pour les datacenters, les supercalculateurs, l’entraînement ou l’inférence des LLMs. Cette année, la société a considérablement augmenté sa production pour tenter de répondre à la demande du marché mais, selon des informations du Wall Street Journal, les demandes d’Elon Musk imposeraient ou auraient imposé une tension particulière sur ses chaînes d’approvisionnement.

Il faut reconnaître qu’Elon Musk dans son ambition de surpasser ses concurrents dans le domaine de la GenAI, a mis les bouchées doubles avec la construction de son supercalculateur Colossus, une réalisation qualifiée de surhumaine par Jensen Huang, le PDG de NVIDIA, en raison de la rapidité et de l’efficacité avec lesquelles le projet a été mené à bien. Il déclarait alors :

“Pour autant que je sache, il n’y a qu’une seule personne au monde qui puisse faire quelque chose comme ça en si peu de temps. Elon est unique dans sa compréhension de l’ingénierie, des grands systèmes, de la gestion des ressources – c’est tout simplement incroyable”.

Selon Elon Musk, le supercalculateur, construit en 122 jours à Memphis, dans le Tennessee, comptait 100 000 GPU H100 en septembre dernier et devait voir sa capacité de calcul doubler avec 50 000 nouveaux H100 et autant de H200 avant la fin de l’année. Colossus est en fait le plus grand cluster de calcul d’IA au monde.

La start-up en a les moyens puisqu’elle a levé 11 milliards de dollars cette année. En mai, elle a annoncé un tour de financement de 6 milliards de dollars avec la participation d’investisseurs de premier plan, notamment Valor Equity Partners, Andreessen Horowitz, Sequoia Capital, qui ont tous trois répondu présents pour une nouvelle levée de fonds de 5 milliards de dollars.

gpu
  • ✇ActuIA
  • Etude Capgemini : IA, GenAI et cybersécurité, une adoption à double tranchant
    Alors que les cyberattaques se multiplient et que les organisations alertent leurs clients sur le vol de leurs données personnelles, le Capgemini Research Institute vient de publier un rapport intitulé “New Defenses, New Threats: What AI and Gen AI Bring to Cybersecurity”, révélant comment l’IA et la GenAI transforment les stratégies de cybersécurité des organisations. L’étude met en évidence un paradoxe : bien que ces technologies ouvrent la porte à de nouvelles vulnérabilités au sein des organ

Etude Capgemini : IA, GenAI et cybersécurité, une adoption à double tranchant

25 novembre 2024 à 16:01

Alors que les cyberattaques se multiplient et que les organisations alertent leurs clients sur le vol de leurs données personnelles, le Capgemini Research Institute vient de publier un rapport intitulé “New Defenses, New Threats: What AI and Gen AI Bring to Cybersecurity”, révélant comment l’IA et la GenAI transforment les stratégies de cybersécurité des organisations. L’étude met en évidence un paradoxe : bien que ces technologies ouvrent la porte à de nouvelles vulnérabilités au sein des organisations, elles sont devenues essentielles aux stratégies de cyberdéfense.

Ce dernier rapport s’appuie sur une enquête mondiale auprès de 1 000 organisations dans 12 secteurs et 13 pays en Asie-Pacifique, en Europe et en Amérique du Nord, ayant des revenus annuels de 1 milliard de dollars et plus.

Selon une précédente étude du Capgemini Research Institute, près d’un quart (24 %) des entreprises utilisent désormais la GenAI dans certaines ou la plupart de leurs fonctions et sites, en tirant d’ailleurs des avantages, notamment une efficacité opérationnelle améliorée, une expérience client améliorée et une augmentation des ventes.

Alors que l’IA est considérée par 61% des organisations interrogées comme une technologie essentielle pour renforcer leurs stratégies de sécurité, cette adoption accrue augmente également les vulnérabilités, en exposant les entreprises à de nouveaux types de menaces.

Les organisations font désormais face à des attaques de plus en plus sophistiquées, comme la création de logiciels malveillants, les ransomwares ou le phishing, ainsi qu’à une extension de la surface de cyber-attaque et des vulnérabilités tout au long du cycle de vie des solutions d’IA générative. En outre, l’utilisation abusive de l’IA en interne par les employés peut augmenter le risque de fuite de données.

Les défis de l’adoption de la GenAI

Une écrasante majorité des organisations interrogées (97 %) dit avoir rencontré des violations ou des problèmes de sécurité liés à l’utilisation de l’IA générative au cours de l’année écoulée. Près de 43% ont subi des pertes financières dues à l’utilisation de deepfakes.

Deux organisations sur trois (67%) s’inquiètent de possibles contaminations de données et de fuite de données sensibles par le biais des données utilisées pour entraîner les modèles d’IA générative.

Pour faire face à ces défis, près de 6 organisations sur 10 envisagent d’augmenter leur budget de cybersécurité.

Un rôle clé dans la détection et la remédiation

Malgré ces risques, les bénéfices de l’IA et de la GenAI en matière de cybersécurité sont indéniables.

La majorité des organisations interrogées utilisent l’IA pour renforcer la sécurité de leurs données, applications et cloud, en raison de sa capacité à analyser rapidement des volumes massifs de données et à prédire les attaques potentielles. Plus de 60% rapportent une réduction significative du temps de détection et près de 40 % ont constaté une diminution du temps de réponse aux incidents.

Comment équilibrer innovation et sécurité ?

Marco Pereira, à la tête de la Cybersécurité des services Cloud Infrastructure du
groupe Capgemini, apporte son analyse :

“L’utilisation des technologies d’IA et d’IA générative s’est jusqu’à présent révélé être à double tranchant. D’un côté, la prolifération de l’IA introduit des risques sans précédent ; de l’autre, les organisations s’appuient de plus en plus sur la technologie pour une détection plus rapide et plus précise des cyber incidents. L’IA et l’IA générative fournissent aux équipes de sécurité de nouveaux outils puissants pour limiter ces incidents et transformer leurs stratégies de cyberdéfense.

Pour s’assurer qu’elles représentent un avantage significatif face à des menaces de plus en plus sophistiquées, les organisations doivent maintenir et prioriser une surveillance continue de l’évolution des menaces et de la cybersécurité, construire une infrastructure de gestion des données appropriée, mettre en place des cadres et lignes directrices éthiques pour l’adoption de l’IA, ainsi que des programmes robustes de formation et de sensibilisation de leurs employés”.

Retrouver le rapport ici

.

Adoption GenIA
  • ✇ActuIA
  • NVIDIA, porté par la demande de ses GPUs, supplante Apple sur le marché boursier
    Boosté par une demande accrue pour ses GPU dédiés aux data centers, NVIDIA détrône une nouvelle fois Apple, devenant à nouveau l’entreprise la plus cotée en bourse. Sa capitalisation boursière a atteint mardi dernier 3 431 milliards de dollars, dépassant de peu celle d’Apple, qui est de 3 377 milliards de dollars et laissant la 3ème place à Microsoft, avec 3060 milliards de dollars. En 1999, Nvidia a inventé les GPU (Graphics Processing Unit), des puces informatiques effectuant les calculs compl

NVIDIA, porté par la demande de ses GPUs, supplante Apple sur le marché boursier

7 novembre 2024 à 14:00

Boosté par une demande accrue pour ses GPU dédiés aux data centers, NVIDIA détrône une nouvelle fois Apple, devenant à nouveau l’entreprise la plus cotée en bourse. Sa capitalisation boursière a atteint mardi dernier 3 431 milliards de dollars, dépassant de peu celle d’Apple, qui est de 3 377 milliards de dollars et laissant la 3ème place à Microsoft, avec 3060 milliards de dollars.

En 1999, Nvidia a inventé les GPU (Graphics Processing Unit), des puces informatiques effectuant les calculs complexes nécessaires à la création de graphismes et d’images, utilisés dans les ordinateurs pour les jeux vidéo, la création de contenu multimédia et les applications nécessitant des graphismes haute performance.

Or, les performances de calcul des GPU initialement conçus pour l’affichage 3D se prêtent parfaitement aux calculs mathématiques requis par l’IA et la GenAI, ce qui fait de Nvidia un acteur incontournable du domaine et lui a permis mardi de voir sa capitalisation augmenter de plus de 850 % depuis la fin de l’année 2022, soit juste après l’arrivée de ChatGPT qui a suscité l’engouement pour la GenAI. La demande pour ses GPU H100 et A100 n’a cessé d’augmenter depuis.

L’entreprise a connu brièvement des valorisations supérieures cette année, notamment les 21 et 22 octobre dernier. Les analystes financiers anticipent la poursuite de cette croissance continue qui va d’ailleurs lui permettre de faire son entrée ce vendredi à l’indice Dow Jones où elle va remplacer son concurrent Intel, qui s’est laissé distancer malgré l’annonce de son accélérateur Gaudi 3, spécialement conçu pour le calcul GenAI, présenté comme une alternative hautement compétitive au Nvidia H100.

NVIDIA, porté par la demande de ses GPUs, supplante Apple sur le marché boursier
  • ✇ActuIA
  • GenAI et assurance : comment AG2R LA MONDIALE entend améliorer le quotidien de ses collaborateurs avec ALMIA
    Spécialiste de la protection sociale et patrimoniale en France, AG2R LA MONDIALE accompagne plus de 15 millions de particuliers et 500 000 entreprises au quotidien. Comme de nombreux acteurs de l’assurance, le groupe s’est très tôt intéressé au potentiel de l’IA et a investi dans des technologies innovantes pour améliorer ses services. Il présente aujourd’hui sa plateforme d’IA générative développée en interne : “Almia” (AG2R La Mondiale Intelligence Artificielle). Le groupe AG2R LA MONDIALE a é

GenAI et assurance : comment AG2R LA MONDIALE entend améliorer le quotidien de ses collaborateurs avec ALMIA

7 novembre 2024 à 11:00

Spécialiste de la protection sociale et patrimoniale en France, AG2R LA MONDIALE accompagne plus de 15 millions de particuliers et 500 000 entreprises au quotidien. Comme de nombreux acteurs de l’assurance, le groupe s’est très tôt intéressé au potentiel de l’IA et a investi dans des technologies innovantes pour améliorer ses services. Il présente aujourd’hui sa plateforme d’IA générative développée en interne : “Almia” (AG2R La Mondiale Intelligence Artificielle).

Le groupe AG2R LA MONDIALE a été créé il y a plus de 115 ans, il compte plus de 11 000 collaborateurs en métropole et outre-mer. Comme de nombreuses entreprises, il cherche à optimiser l’expérience client et dès 2019, recherchait une solution pour traiter le nombre d’emails considérable reçus chaque année (300 000 pour le secteur santé). En 2022, il a opté pour la solution d’IA Classify de reciTAL, un acteur RAD/LAD (module d’IA de lecture et reconnaissance automatique de documents pour un classement efficace).

Aujourd’hui, le groupe mise sur la GenAI pour optimiser les processus internes, améliorer le quotidien de ses collaborateurs et l’expérience client.

Almia : une IA générative sécurisée et éthique au service des collaborateurs et des clients

Almia, plateforme propriétaire du groupe, est hébergée dans un environnement cloud en France, ce qui garantit un haut niveau de sécurité pour les données sensibles des clients et des collaborateurs. Cette infrastructure permet un accès contrôlé aux modèles d’IA les plus performants, tout en répondant aux normes de protection des données et des informations.

Actuellement déployée progressivement auprès des équipes, Almia propose quatre fonctionnalités clés pour transformer leur productivité au quotidien :

  • Assistance par bot : Almia offre aux collaborateurs un assistant intelligent “BOT by Almia” qui permet un accès sécurisé aux informations de l’entreprise via des prompts, tout en intégrant une marketplace d’outils d’assistance ;
  • Soutien aux équipes informatiques et actuarielles : Almia aide les équipes techniques et actuarielles dans le développement de solutions informatiques complexes et les calculs actuariels, réduisant ainsi les tâches répétitives et chronophages ;
  • Applications sur-mesure pour l’analyse et le marketing : L’IA générative d’Almia est également appliquée à l’analyse des enquêtes de satisfaction client et à la production de contenus marketing, permettant ainsi de recueillir des insights plus rapidement et d’adapter les messages aux attentes des clients ;
  • Optimisation des processus métiers : Almia aide à rationaliser plusieurs processus métiers, comme la gestion des prestations, la proposition commerciale, et l’analyse des appels clients, renforçant ainsi l’efficacité et la réactivité des équipes.

Pascal Martinez, membre du comité de Direction Groupe d’AG2R LA MONDIALE en charge des systèmes d’information et du digital, affirme :

“Aujourd’hui, l’intelligence artificielle représente une véritable opportunité pour les collaborateurs du Groupe, leur permettant de gagner en efficacité, au service de l’amélioration de l’expérience client. Nous sommes fiers d’avoir développé Almia, notre outil d’IA générative privé et sécurisé, qui s’inscrit dans le cadre d’une stratégie plus large autour de l’intelligence artificielle initiée dès 2023. Cet outil démontre notre capacité à innover rapidement dans un environnement en constante transformation, tout en garantissant la protection de nos données et de celles de nos clients”. 

GenAI et assurance : comment AG2R LA MONDIALE entend améliorer le quotidien de ses collaborateurs avec ALMIA
  • ✇ActuIA
  • Etiquetage du contenu généré par l’IA : les marketeurs s’attendent à un impact positif de l’initiative de Meta
    La première partie de l’étude “GenAI for Social Content Survey” de GetApp se consacrait à l’utilisation par les marketeurs de la GenAI sur les réseaux sociaux. La seconde partie se concentre sur l’adaptation des entreprises aux nouvelles réglementations de Meta concernant l’étiquetage des contenus générés par l’IA et est accompagnée des commentaires de Julien Pibourret, expert en social selling, auteur et formateur en médias sociaux et web marketing. GetApp est une plateforme de recherche et de

Etiquetage du contenu généré par l’IA : les marketeurs s’attendent à un impact positif de l’initiative de Meta

23 septembre 2024 à 12:00

La première partie de l’étude “GenAI for Social Content Survey” de GetApp se consacrait à l’utilisation par les marketeurs de la GenAI sur les réseaux sociaux. La seconde partie se concentre sur l’adaptation des entreprises aux nouvelles réglementations de Meta concernant l’étiquetage des contenus générés par l’IA et est accompagnée des commentaires de Julien Pibourret, expert en social selling, auteur et formateur en médias sociaux et web marketing.

GetApp est une plateforme de recherche et de comparaison d’applications et de logiciels métiers acquise par Gartner en 2015. Son objectif est de permettre aux professionnels, en particulier ceux des petites et moyennes entreprises, de trouver les solutions logicielles qui répondent le mieux à leurs besoins.

Pour cette étude, elle a interrogé en mai dernier 1 680 personnes (135 en France) ayant un rôle dans le marketing, les relations publiques, les ventes ou le service à la clientèle au sein d’entreprises de toutes tailles à travers le monde. Chacune d’entre elles a indiqué utiliser la GenAI pour la gestion des réseaux sociaux de son entreprise au moins une fois par mois.

L’étude révèle une hausse de l’utilisation de la GenAI par les marketeurs : 63 % des marketeurs ont déjà utilisé l’IA générative pour créer du contenu sur les réseaux sociaux.

  • Plus d’un tiers des marketeurs interrogés déclare que 10 % à 25 % du contenu produit sur leurs réseaux sociaux l’a été avec des outils de GenAI ;
  • Un marketeur sur trois anticipe que d’ici à 18 mois, l’IA sera présente dans 25 % à 50 % du contenu publié sur les réseaux sociaux ;
  • Concernant l’efficacité, 45 % des répondants estiment que les contenus assistés par IA surpassent ceux créés exclusivement par des humains, tandis que 61 % ont constaté une hausse (“significative” pour 14 % et “légère” pour 47 %) de l’engagement et des impressions (nombre total de fois où un contenu est affiché) sur leurs réseaux grâce à l’utilisation de la GenAI ;
  • 66 % d’entre eux s’attendent à ce que toutes les tâches de marketing numérique soient assistées par des outils d’IA d’ici les cinq prochaines années.

La transparence, un gage de confiance pour les consommateurs

Selon l’étude, les plateformes de Meta, Instagram et Facebook, sont utilisées respectivement par 81% et 56 % des marketeurs.

47 % des personnes interrogées ont déclaré avoir été “modérément informés” et 31 % “très informées” de l’initiative de Meta visant à étiqueter le contenu généré par l’IA sur Instagram, Facebook et Threads, la majorité d’entre elles s’attendent à ce que cette initiative ait un impact positif.

Selon les données de l’enquête :

  • 16 % des spécialistes du marketing pensent que l’étiquetage de l’IA aura un impact “très positif”, améliorant très probablement la transparence et la confiance avec leur public ;
  • 42 % s’attendent à un impact “plutôt positif”, améliorant potentiellement l’authenticité et l’engagement du contenu.

Cependant, seulement 27 % des entreprises interrogées indiquent systématiquement que leur contenu a été créé ou modifié par l’IA, ce qui souligne un manque de transparence généralisé alors que  44 % l’indiquent parfois et 27 % ne le mentionnent jamais.

Alors que 11 % des répondants anticipent un impact “plutôt négatif” de l’étiquetage de l’IA, probablement en raison des préoccupations liées à la perception du public et à la méfiance envers le contenu généré par l’IA, 40 % ont mis en place une politique formelle et documentée pour encadrer l’utilisation de l’IA générative dans leurs stratégies de création de contenu.

Julien Pibourret insiste sur l’importance de la transparence dans ces nouvelles pratiques :

“En communiquant de manière proactive sur l’utilisation de l’IA, les entreprises peuvent montrer leur engagement envers la transparence et l’éthique de leur stratégie de contenu online.”

Il met également en garde contre les risques d’un manque de transparence :

“Ne pas mentionner que le contenu est généré par l’IA peut compromettre la réputation d’une entreprise, affaiblir l’engagement de sa communauté et même entraîner des conséquences légales.”

La GenAI s’impose progressivement comme un pilier central dans les stratégies de marketing numérique. Mais pour tirer pleinement parti de cette technologie, les entreprises devront non seulement continuer à optimiser son utilisation, mais aussi à s’adapter aux exigences croissantes en matière de transparence et d’éthique. La clé réside dans l’équilibre entre innovation technologique et respect des attentes des consommateurs.

Etiquetage du contenu généré par l'IA : les marketeurs s'attendent à un impact positif de l'initiative de Meta
  • ✇Intelligence artificielle
  • Podgenai – Générez des podcasts de A à Z avec l’IA
    Vous rêvez de créer votre propre podcast mais vous manquez de temps ou d’inspiration ? Podgenai est là pour vous aider à générer du contenu audio grâce à la POUISSANCE de l’intelligence artificielle ! Aidée de GPT-4, cette application Python vous permet de produire des épisodes d’environ une heure sur n’importe quel sujet en un clin d’œil. Le principe est simple, vous choisissez un thème, l’IA analyse le sujet en profondeur, identifie les sous-thèmes pertinents et génère un script comple

Podgenai – Générez des podcasts de A à Z avec l’IA

Par : Korben
17 septembre 2024 à 09:00

Vous rêvez de créer votre propre podcast mais vous manquez de temps ou d’inspiration ?

Podgenai est là pour vous aider à générer du contenu audio grâce à la POUISSANCE de l’intelligence artificielle ! Aidée de GPT-4, cette application Python vous permet de produire des épisodes d’environ une heure sur n’importe quel sujet en un clin d’œil.

Le principe est simple, vous choisissez un thème, l’IA analyse le sujet en profondeur, identifie les sous-thèmes pertinents et génère un script complet et structuré pour votre émission. Et pas besoin d’être un expert, puisque l’application vulgarise les concepts techniques tout en rendant ça captivant pour votre audience.

L’outil transforme donc directement le texte en audio grâce à une synthèse vocale de bonne qualité qui vous permet de choisir parmi plusieurs voix. Le son produit est clair, naturel et dynamique et vous avez également un contrôle total sur le contenu généré puisqu’il est possible d’affiner les contenus, d’ajuster la longueur de l’épisode ou encore d’insérer vos propres commentaires et anecdotes. Bref, tout ce qu’il faut pour créer un podcast unique en anglais par contre… A voir ce que ça rend sur un texte en français… y’aura peut-être un petit effet Jane Birkin.

Économie de matos, de temps et surtout c’est accessible à tous. Alors bien sûr, je pense que (pour le moment), ça ne peut pas arriver au niveau d’un vrai podcast fait par un vrai humain… mais pour produire vos propres podcast thématiques rapidement afin de défricher un sujet qui vous tient à cœur et écouter tout ça en voiture lors de votre prochain déplacement, je trouve ça plutôt cool.

Vous l’aurez compris, pour moi c’est plutôt à réserver à des fins personnelles que pour une diffusion grand publique. Mais ça n’a pas arrêté les créateurs de l’outil qui ont mis en ligne leur podcast 100% généré par IA à des fins de démo. Ça vous permettra de vous faire un avis.

Toutes les infos sont ici.

  • ✇ActuIA
  • Aleph Alpha dévoile la famille Pharia-1-LLM : des modèles d’IA transparents et conformes aux exigences de L’UE
    Si l’arrivée de LLMs au nombre de paramètres époustouflants a suscité l’enthousiasme, les entreprises qui désirent intégrer la GenAI dans leurs flux de travail hésitent à le faire en raison des coûts et des ressources nécessaires. Les acteurs de l’IA l’ont bien compris et proposent aujourd’hui des modèles plus légers, adaptés à des tâches spécifiques, à l’instar d’Aleph Alpha, avec sa famille Pharia-1-LLM et ses “seulement” 7 milliards de paramètres. Basée à Heidelberg en Allemagne, la start-up

Aleph Alpha dévoile la famille Pharia-1-LLM : des modèles d’IA transparents et conformes aux exigences de L’UE

28 août 2024 à 14:00

Si l’arrivée de LLMs au nombre de paramètres époustouflants a suscité l’enthousiasme, les entreprises qui désirent intégrer la GenAI dans leurs flux de travail hésitent à le faire en raison des coûts et des ressources nécessaires. Les acteurs de l’IA l’ont bien compris et proposent aujourd’hui des modèles plus légers, adaptés à des tâches spécifiques, à l’instar d’Aleph Alpha, avec sa famille Pharia-1-LLM et ses “seulement” 7 milliards de paramètres.

Basée à Heidelberg en Allemagne, la start-up Aleph Alpha a pour ambition de faire de l’UE un des leaders dans le domaine de l’IA et de consolider sa souveraineté numérique.

Elle se positionne comme un acteur clé de l’IA explicable et digne de confiance, ce qui est essentiel pour les agences gouvernementales et les entreprises qui cherchent à construire et à appliquer l’IA dans un environnement souverain, tout en garantissant la protection et la sécurité des données. Cette approche lui a permis de lever l’an passé près de 467 millions d’euros, un montant record pour une start-up d’IA européenne.

Des modèles optimisés pour l’Europe

Les deux modèles Pharia-1-LLM-7B-control et Pharia-1-LLM-7B-control-aligned, disponibles au public sous sa licence “Open Aleph”, autorisant la recherche non commerciale et l’utilisation éducative, ont été entraînés sur un vaste corpus multilingue et optimisés pour les langues européennes.

Le modèle Pharia-1-LLM-7B-control a été conçu pour fournir des réponses concises dont la longueur peut être contrôlée, répondant ainsi aux besoins d’une grande variété d’applications. Optimisé pour exceller dans les secteurs de l’automobile et de l’ingénierie, ce modèle se distingue par son efficacité de jeton améliorée et sa capacité à s’aligner sur les préférences des utilisateurs. Il se révèle particulièrement performant dans les applications spécifiques à un domaine, où des réponses précises et directes sont cruciales.

Le développement de Pharia-1-LLM-7B-control s’est appuyé sur un ensemble de données multilingues (anglais, allemand, Français, espagnol, italien, portugais et néerlandais) soigneusement sélectionné, en conformité avec les réglementations européennes et nationales, notamment en matière de droit d’auteur et de confidentialité des données. Le modèle a été entraîné en utilisant des techniques de pointe, notamment la Grouped Query Attention (QGA) pour améliorer les performances en temps d’inférence et une base rotative plus large pour une meilleure capacité de contexte long.

L’entraînement de Pharia-1-LLM-7B s’est déroulé en deux étapes. Dans un premier temps, le modèle a été pré-entraîné sur un ensemble de données de 4,7 billions de jetons avec une longueur de séquence de 8 192 jetons, à l’aide de 256 GPU A100. Il a ensuite entraîné sur un nouveau mélange de données de 3 billions de jetons supplémentaires, en utilisant 256 GPU H100.

La variante Pharia-1-LLM-7B-control-aligned a été développée avec des garde-fous supplémentaires, grâce à des méthodes d’alignement sophistiquées. Ce modèle est parfaitement adapté aux applications conversationnelles, telles que les chatbots et les assistants virtuels, où la sécurité et la clarté des réponses sont primordiales. Les ajustements apportés via un processus d’alignement minutieux garantissent que ce modèle respecte les intentions de l’utilisateur tout en évitant les comportements indésirables.

Évaluation et performance

Les modèles Pharia-1-LLM-7B-control et Pharia-1-LLM-7B-control-aligned ont été rigoureusement évalués par rapport aux modèles multilingues open source de taille similaire Mistral-7B-Instruct-v0.3 de Mistral AI et Llama-3.1-8b-instruct de Meta. Ils ont démontré des performances comparables, voire supérieures, à ces derniers, notamment en matière de traitement multilingue.

Les modèles et les évaluations sont disponibles sur Hugging Face.

Aleph Alpha dévoile la famille Pharia-1-LLM des modèles d'IA transparents et conformes aux exigences de L'UE
  • ✇ActuIA
  • Phi-3.5 : Microsoft présente la dernière génération de ses SLM, optimisée pour des tâches spécifiques
    Les modèles de langage de petite taille (SLM) sont une alternative intéressante aux LLMs pour les entreprises qui peuvent les exploiter à moindre coût pour des tâches spécifiques. Microsoft après avoir introduit le SLM Phi-1 en juin 2023 et présenté le 23 avril dernier la famille de modèles open source Phi-3, dévoile à présent les modèles Phi-3,5 : Phi-3.5-mini-instruct, Phi-3.5-MoE-instruct, et Phi-3.5-vision-instruct. Chacun de ces modèles est optimisé pour des tâches spécifiques, tout en part

Phi-3.5 : Microsoft présente la dernière génération de ses SLM, optimisée pour des tâches spécifiques

23 août 2024 à 09:30

Les modèles de langage de petite taille (SLM) sont une alternative intéressante aux LLMs pour les entreprises qui peuvent les exploiter à moindre coût pour des tâches spécifiques. Microsoft après avoir introduit le SLM Phi-1 en juin 2023 et présenté le 23 avril dernier la famille de modèles open source Phi-3, dévoile à présent les modèles Phi-3,5 : Phi-3.5-mini-instruct, Phi-3.5-MoE-instruct, et Phi-3.5-vision-instruct.

Chacun de ces modèles est optimisé pour des tâches spécifiques, tout en partageant une longueur de contexte de 128 000 jetons, permettant une manipulation efficace des données complexes.

Phi-3.5-mini-instruct : un modèle compact et puissant pour environnements restreints

Le Phi-3.5-mini-instruct est le plus petit modèle de la série, conçu pour offrir des performances robustes dans des environnements où les ressources informatiques sont limitées. Avec 3,8 milliards de paramètres, ce modèle est parfaitement adapté aux tâches nécessitant un raisonnement logique solide, telles que la génération de code et la résolution de problèmes mathématiques.

Malgré sa taille réduite, ce modèle a été entraîné sur un impressionnant ensemble de 3,4 billions de jetons à l’aide de 512 GPU H100-80G pendant 10 jours. Les performances de Phi-3.5 Mini Instruct dans les tâches conversationnelles multilingues et multi-tours sont remarquables. Le modèle est compétitif avec d’autres modèles ouverts beaucoup plus grands tels que Llama-3.1-8B-instruct, Mistral-7B-instruct-v0.3 et Mistral-Nemo-12B-instruct-2407. Il a notamment surpassé Llama-3.1-8B-instruct et Mistral-7B-instruct-v0.3 dans le benchmark RepoQA (compréhension du code à contexte long).

Phi-3.5-MoE-instruct : une architecture de mélange d’experts

Le modèle Phi-3.5-MoE (Mixture of Experts) représente une avancée significative dans l’architecture de l’IA. Ce modèle utilise une approche sophistiquée qui active différents “experts” en fonction de la tâche à accomplir, optimisant ainsi les performances pour des tâches spécifiques. Avec 42 milliards de paramètres, dont 6,6 milliards activés à chaque utilisation, le Phi-3.5 MoE est conçu pour gérer des tâches de raisonnement complexes, la compréhension de code et le traitement multilingue.

Il prend en charge les langues suivantes : Allemand, Anglais, Arabe, Chinois, Coréen, Danois, Espagnol, Finnois, Français, Hébreu, Hongrois, Italien, Japonais, Norvégien, Néerlandais, Polonais, Portugais, Russe, Suédois, Thaï, Turc et Ukrainien.

Entraîné sur 4,9 billions de jetons, dont 10 % multilingues, en utilisant 512 GPU H100-80G pendant 23 jours, le modèle MoE a montré une supériorité notable dans les tests de performance spécifiques. Il a surpassé les modèles plus grands Llama 3.1-8B-instruct, Gemma 2-9B-It et Gemini 1.5-Flash mais s’est incliné face à GPT-4o-mini d’OpenAI, dans la majorité des cas. Cependant, dans le test MMLU (Massive Multitask Language Understanding) à 5 coups, il a réussi à prendre l’avantage sur ce dernier.

Microsoft commente :

“Il est encore fondamentalement limité par sa taille pour certaines tâches. Le modèle n’a tout simplement pas la capacité de stocker trop de connaissances factuelles, par conséquent, les utilisateurs peuvent rencontrer des inexactitudes factuelles. Cependant, nous pensons qu’une telle faiblesse peut être résolue en augmentant Phi-3.5 avec un moteur de recherche, en particulier lors de l’utilisation du modèle sous les paramètres RAG”.

Le modèle a fait l’objet d’un processus d’amélioration rigoureux, intégrant un réglage fin supervisé, une optimisation des politiques proximales et une optimisation des préférences directes pour garantir une adhésion précise aux instructions et des mesures de sécurité robustes.

Phi-3.5-vision-instruct : pour les tâches multimodales

Le Phi-3.5-vision-instruct est conçu pour les tâches multimodales, intégrant à la fois des données textuelles et visuelles. Avec 4,15 milliards de paramètres, ce modèle est spécialement adapté pour des applications telles que la reconnaissance optique de caractères (OCR), la compréhension de graphiques et de tableaux, et le résumé vidéo.

Il a été entraîné sur 500 milliards de jetons avec 256 GPU A100-80G sur une période de 6 jours. Son aptitude à traiter et à intégrer des données complexes, combinée à sa capacité à gérer plusieurs images, en fait un outil extrêmement polyvalent pour les tâches nécessitant une analyse détaillée des informations visuelles et textuelles.

Open source pour une adoption généralisée

Les trois modèles de la série Phi-3.5 sont disponibles sous licence MIT, ce qui permet aux développeurs de les utiliser, de les modifier et de les distribuer sans restriction. Ils sont disponibles sur Hugging Face, Phi-3.5 Vision Instruct est également accessible via Azure AI Studio.

Phi-3.5 Microsoft présente la dernière génération de ses SLM, optimisée pour des tâches spécifiques
  • ✇ActuIA
  • OpenAI propose un fine-tuning gratuit pour GPT-4o mini pendant deux mois
    La concurrence entre les acteurs de la GenAI semble plus que jamais de mise. Nouveau hasard du calendrier ou non, le jour-même où Meta lançait la famille Llama 3.1 et NVIDIA annonçait de nouveaux microservices NIM Llama 3.1, OpenAI a lancé une offre de fine-tuning gratuit pour son dernier LLM, GPT-4o mini, présenté le 18 juillet dernier. Pour rappel, GPT-4o mini est présenté par OpenAI comme le plus rentable de ses modèles. Grâce à son faible coût et sa faible latence, il est particulièrement ad

OpenAI propose un fine-tuning gratuit pour GPT-4o mini pendant deux mois

30 juillet 2024 à 08:30

La concurrence entre les acteurs de la GenAI semble plus que jamais de mise. Nouveau hasard du calendrier ou non, le jour-même où Meta lançait la famille Llama 3.1 et NVIDIA annonçait de nouveaux microservices NIM Llama 3.1, OpenAI a lancé une offre de fine-tuning gratuit pour son dernier LLM, GPT-4o mini, présenté le 18 juillet dernier.

Pour rappel, GPT-4o mini est présenté par OpenAI comme le plus rentable de ses modèles. Grâce à son faible coût et sa faible latence, il est particulièrement adapté aux scénarios enchaînant ou parallélisant plusieurs appels de modèle, par exemple l’appel de plusieurs API, ou une analyse de grands volumes de données contextuelles, comme l’intégration de bases de code complètes ou d’historiques de conversations. Les chatbots de support client peuvent également bénéficier de ses réponses rapides et précises en temps réel.

Un fine-tuning gratuit jusqu’au 23 septembre

Depuis le 23 juillet, les développeurs et entreprises peuvent entraîner gratuitement GPT-4o mini sur des données supplémentaires pour l’adapter à leurs besoins spécifiques, mais  avec une limite quotidienne de 2 millions de jetons d’entraînement. Pour ceux qui dépassent cette limite, des frais de 3 $ par million de jetons supplémentaires seront appliqués.

L’offre concerne initialement les niveaux 4 et 5 des plans d’utilisation d‘OpenAI. Ces derniers sont généralement destinés à des entreprises et des organisations ayant des besoins importants et un volume élevé de requêtes. La start-up les proposera aux trois premiers niveaux prochainement.

Comment profiter du fine-tuning gratuit ?

Pour profiter de cette offre, les développeurs peuvent suivre ces étapes simples :

  • Se connecter à leur tableau de bord de fine-tuning sur la plateforme OpenAI ou s’enregistrer pour ceux qui n’ont pas encore de compte ;
  • Cliquer sur “créer”;
  • Sélectionner GPT-4o mini dans le menu déroulant des modèles de fondation.

OpenAI propose un guide dédié aux étapes du fine-tuning pour les non-initiés ici.

Cette offre est valable jusqu’au 24 septembre, affiner GPT-4o mini reviendra alors à 3 $, pour chaque million de jetons d’entraînement, une somme bien inférieure au fine-tuning de GPT-3,5 Turbo qui revient à 8 $ pour le même nombre de jetons.

OpenAI propose un fine-tuning gratuit pour GPT-4o mini pendant deux mois
  • ✇ActuIA
  • Sopra Steria Next-Microsoft : accélérer l’adoption de l’IA générative avec Copilot pour Microsoft 365
    Sopra Steria Next, le cabinet de conseil dédié à l’accompagnement des entreprises dans leur transformation numérique du groupe français Sopra Steria, a collaboré avec Microsoft pour accélérer le déploiement de Copilot pour Microsoft 365. L’offre sur mesure résultant de cette collaboration, qui vise à promouvoir l’adoption de l’IA générative au sein des entreprises, sera prochainement disponible sur la marketplace de Microsoft. Selon une étude de Sopra Steria Next, le marché de la GenAI devrait c

Sopra Steria Next-Microsoft : accélérer l’adoption de l’IA générative avec Copilot pour Microsoft 365

Par : Thomas Calvi
15 juillet 2024 à 11:00

Sopra Steria Next, le cabinet de conseil dédié à l’accompagnement des entreprises dans leur transformation numérique du groupe français Sopra Steria, a collaboré avec Microsoft pour accélérer le déploiement de Copilot pour Microsoft 365. L’offre sur mesure résultant de cette collaboration, qui vise à promouvoir l’adoption de l’IA générative au sein des entreprises, sera prochainement disponible sur la marketplace de Microsoft.

Selon une étude de Sopra Steria Next, le marché de la GenAI devrait connaitre une croissance exponentielle d’ici 2028, passant d’environ 8 milliards de dollars en 2023 à plus de 100 milliards en 2028.

L’assistant IA Copilot de Microsoft a commencé à être déployé dans le cadre de la mise à jour gratuite de Windows 11 en septembre 2023, avant de l’être sur Bing, désormais rebaptisé Copilot, Edge et Microsoft 365. En janvier dernier, Microsoft annonçait le lancement de Copilot Pro, une offre premium à destination des particuliers et des entreprises.

Copilot, qui utilise les modèles d’IA générative d’OpenAI, est intégré à différentes applications Microsoft 365, notamment à :

  • Word : Pour la génération de texte, la création de contenu, les résumés, et les suggestions de mise en forme ;
  • Excel : Pour les suggestions de formules, de différents types de graphiques, et l’analyse des données ;
  • PowerPoint : Pour la création de présentations à partir de fichiers Word ou d’invites, l’ajout de diapositives et d’images ;
  • Outlook : Pour le résumé des e-mails, la génération de réponses, et l’organisation des tâches ;
  • Teams : Pour l’organisation des réunions, la gestion des conversations, et la collaboration en temps réel.

Les premières entreprises à l’avoir utilisé reconnaissent un gain de productivité : 70 % des utilisateurs de Copilot ont déclaré qu’ils étaient plus productifs et 68 % qu’il améliorait la qualité de leur travail, selon un rapport publié par Microsoft en novembre dernier. Cependant son adoption est encore un défi pour certaines autres, Sopra Steria Next entend les accompagner dans cette démarche.

Fabrice Asvazadourian, directeur général de Sopra Steria Next, explique :

“Copilot pour Microsoft 365 est un outil certes extraordinaire, mais sans un accompagnement adéquat, le potentiel de productivité peut rester sous-exploité. Avec cette approche, nous proposons de transformer une innovation en résultats tangibles, et de placer la formation et le management au cœur de la réussite de l’intelligence artificielle générative en entreprise”.

Trois conditions de succès

L’offre de Sopra Steria Next pose trois conditions de succès à la bonne adoption de l’IA générative en entreprise, organisées autour de trois axes :

  • L’humain : Donner les clés de compréhension et d’utilisation aux collaborateurs pour un usage responsable de l’IA, via des séminaires et des ateliers d’exploration de cas d’usages ;
  • La technologie : Garantir un déploiement optimal de Copilot pour Microsoft 365 grâce à des audits et analyses d’impact de l’IA sur les secteurs d’activité, permettant de concevoir une stratégie de déploiement et d’accompagnement personnalisée ;
  • Le business : Mesurer la performance et les gains pour l’entreprise afin d’effectuer les ajustements nécessaires pour ancrer durablement l’utilisation de l’IA générative dans le quotidien des équipes.

Philippe Clapin, directeur général de Sopra Steria Next France, conclut :

“Alors que le marché de l’IA générative entame son passage à l’échelle et sa monétisation, nous sommes particulièrement fiers de faire partie des premiers cabinets de conseil en France à proposer un tel accompagnement à nos clients. Aujourd’hui, beaucoup de décideurs regardent l’IA avec surprise ; notre volonté est de leur faire comprendre que c’est aujourd’hui que tout se joue, et que l’IA générative n’est pas qu’une brique technologique, c’est un nouveau paradigme dans le monde du travail”.

Sopra Steria Next-Microsoft accélérer l'adoption de l'intelligence artificielle générative avec Copilot pour Microsoft 365
  • ✇ActuIA
  • HeatWave GenAI d’Oracle : vers une démocratisation de l’IA générative en entreprise
    Oracle a récemment annoncé la disponibilité générale de HeatWave GenAI. Le service de base de données HeatWave intègre désormais des grands modèles de langage (LLM), un dépôt de vecteurs automatisé et évolutif, ainsi que des capacités de conversation contextuelle en langage naturel. Ces nouvelles fonctionnalités permettent aux entreprises d’exploiter la puissance de l’IA générative avec leurs propres données, sans nécessiter d’expertise en IA ni de transférer leurs données vers des bases de donn

HeatWave GenAI d’Oracle : vers une démocratisation de l’IA générative en entreprise

11 juillet 2024 à 09:30

Oracle a récemment annoncé la disponibilité générale de HeatWave GenAI. Le service de base de données HeatWave intègre désormais des grands modèles de langage (LLM), un dépôt de vecteurs automatisé et évolutif, ainsi que des capacités de conversation contextuelle en langage naturel. Ces nouvelles fonctionnalités permettent aux entreprises d’exploiter la puissance de l’IA générative avec leurs propres données, sans nécessiter d’expertise en IA ni de transférer leurs données vers des bases de données vectorielles externes.

Une IA générative directement dans la base de données

HeatWave GenAI marque un tournant dans la manière dont les entreprises peuvent utiliser l’IA. En intégrant des LLM directement dans HeatWave, Oracle simplifie le développement d’applications d’IA génératives.

Ces LLM en base de données ont un ensemble de paramètres plus petit et sont des LLM quantifiés qui fonctionnent sur les mêmes ressources de calcul que les opérations de la base de données. Des versions quantifiées de Mistral-7B-Instruct et Llama3-8B-Instruct, par exemple, offrent un bon compromis entre coût et qualité de réponse et sont disponibles dans toutes les régions où HeatWave est disponible.

Les entreprises peuvent désormais rechercher des données, générer ou synthétiser du contenu, et effectuer des tâches de récupération augmentée par génération (RAG) sans quitter la base de données. Cette intégration permet également de combiner l’IA générative avec d’autres fonctionnalités de HeatWave, telles que AutoML, pour créer des applications encore plus riches.

Automatisation et performance avec le dépôt de vecteurs

Le dépôt de vecteurs de HeatWave GenAI permet aux entreprises d’utiliser l’IA générative avec leurs documents commerciaux sans avoir à déplacer leurs données. Toutes les étapes de création de dépôts de vecteurs et d’intégrations vectorielles sont automatisées et exécutées à l’intérieur de la base de données. Cela inclut le repérage des documents dans le stockage d’objets, leur analyse, la génération d’intégrations et leur insertion dans le dépôt de vecteurs. Cette automatisation rend HeatWave Vector Store efficace et facile à utiliser.

Traitement vectoriel évolutif pour des résultats rapides et précis

Le traitement vectoriel évolutif de HeatWave GenAI offre des résultats de recherche sémantique extrêmement rapides sans compromettre la précision. Grâce à l’implémentation optimisée de la fonction de distance et à la représentation en colonnes hybride en mémoire, les requêtes sémantiques peuvent être effectuées avec du code SQL standard. La capacité d’évoluer jusqu’à 512 nœuds HeatWave permet de maintenir des performances élevées, garantissant des réponses rapides et pertinentes aux utilisateurs.

HeatWave Chat : interaction naturelle avec les données

HeatWave Chat est un module d’extension de code visuel pour MySQL Shell, offrant une interface graphique pour HeatWave GenAI. Ce module permet aux développeurs de poser des questions en langage naturel ou en SQL, facilitant une conversation contextuelle. Le navigateur Lakehouse intégré permet aux utilisateurs de sélectionner des fichiers dans le stockage d’objets et de créer un dépôt de vecteurs. Les utilisateurs peuvent ainsi effectuer des recherches dans l’ensemble de la base de données, tout en tenant compte de l’historique des questions posées et des citations des documents sources.

Performances supérieures et réduction des coûts

Selon Oracle, les tests indépendants réalisés ont démontré des avantages significatifs en termes de performance et de coûts : HeatWave GenAI est jusqu’à 30 fois plus rapide et 25 % moins cher que Snowflake, 15 fois plus rapide et 85 % moins cher que Databricks, et 18 fois plus rapide et 60 % moins cher que Google BigQuery. La création de dépôts de vecteurs est jusqu’à 23 fois plus rapide et représente un quart du coût d’utilisation de la base de connaissances pour Amazon Bedrock.

HeatWave GenAI d’Oracle représente une avancée significative dans le domaine de l’IA générative, offrant aux entreprises des outils puissants pour exploiter leurs données sans complexité supplémentaire. Cette nouvelle solution est disponible immédiatement dans toutes les régions d’Oracle Cloud et sans frais supplémentaires pour les clients HeatWave.

HeatWave GenAI Oracle vers une démocratisation de l'IA générative en entreprise
  • ✇ActuIA
  • La GenAI est sexy, mais en vaut-elle vraiment la peine ?
    L’intelligence artificielle générative (GenAI) suscite un engouement considérable, marquant potentiellement le début d’une ère nouvelle en technologie. Tandis que la France et l’Europe peinent à tenir le rythme face aux géants américains et chinois dans le domaine de l’IA, la GenAI émerge comme un catalyseur possible de transformation profonde, notamment en France et en Europe. Mais derrière cet enthousiasme, quelle réalité se dessine ? De nombreuses initiatives, à la fois publiques et privées,

La GenAI est sexy, mais en vaut-elle vraiment la peine ?

11 juin 2024 à 11:30

L’intelligence artificielle générative (GenAI) suscite un engouement considérable, marquant potentiellement le début d’une ère nouvelle en technologie. Tandis que la France et l’Europe peinent à tenir le rythme face aux géants américains et chinois dans le domaine de l’IA, la GenAI émerge comme un catalyseur possible de transformation profonde, notamment en France et en Europe. Mais derrière cet enthousiasme, quelle réalité se dessine ?

De nombreuses initiatives, à la fois publiques et privées, menées par des innovateurs tels que Mistral.ai, Probabl.ai, ou The H Company œuvrent à rattraper un retard scientifique significatif. Cependant, ces investissements vers la GenAI sont aujourd’hui principalement dirigés vers la recherche. Les géants du CAC 40, quant à eux, semblent également déployer de gros efforts en R&D dans la création et la spécialisation de modèles fondationnels français (ou non).

L’écueil majeur rencontré en IA ces dix dernières années réside dans notre incapacité à transférer l’IA des laboratoires vers le terrain. La question se pose alors : la GenAI ne va-t-elle pas renvoyer tous les efforts des dernières décennies dans les laboratoires ?

L’IA générative est certes impressionnante et ouvre de nombreuses possibilités d’utilisation pour les entreprises. Cependant, elle distrait souvent les acteurs économiques des plans stratégiques Data & IA établis depuis des années en France. Les modèles de langage de grande taille (LLM) adoptent une approche « one-size-fits-all » qui peut rendre les organisations moins attentives à leur stratégie globale de données, les détournant ainsi de cas d’usage métier spécifiques, bien que moins séduisants.

Il est crucial de ne pas laisser la GenAI détourner les entreprises des opportunités immédiates et tangibles offertes par des technologies plus matures comme le deep learning, qui, en particulier en dehors des LLM, est prêt pour un déploiement massif. Des domaines comme la vision par ordinateur (computer vision) ont atteint une maturité qui permet une industrialisation à grande échelle. Si tous les investissements se concentrent exclusivement sur la GenAI, nous risquons de négliger ces technologies prêtes à l’emploi. Cela pourrait nous priver des moyens nécessaires pour industrialiser et déployer des applications pratiques de deep learning, telles que la reconnaissance d’images et l’analyse vidéo, qui peuvent transformer divers secteurs industriels et impacter positivement l’environnement.

Dans ce contexte, les récents engagements du président Emmanuel Macron, qui a annoncé des investissements supplémentaires de l’État dans l’IA, sont une occasion de renforcer nos efforts dans l’industrialisation et le déploiement de ces technologies. Si ces investissements visent à propulser la France et l’Europe en leaders de la recherche en IA, essayons également de devenir leader dans son industrialisation !
La GenAI, avec ses promesses de révolution industrielle et d’innovation sans précédent, mérite une attention critique et nuancée. Pour les entreprises françaises et européennes, l’enjeu est de taille : il ne s’agit pas seulement d’adopter cette technologie parce qu’elle est à la mode, mais de l’industrialiser de manière stratégique.
L’intégration judicieuse de la GenAI doit renforcer les opérations existantes, catalyser la croissance et améliorer la compétitivité sur le long terme. Plutôt que de suivre aveuglément la vague, les entreprises sont appelées à naviguer avec discernement, alignant innovation et stratégie opérationnelle pour transformer véritablement l’essai en un succès durable.

tribune_thibaut_lucas
  • ✇ActuIA
  • GenAI : PWC est désormais le principal revendeur et utilisateur de ChatGPT Enterprise
    PwC (PricewaterhouseCoopers), l’un des quatre plus grands cabinets d’audit et de conseil mondiaux (Big Four), est aujourd’hui présent dans 151 pays où il emploie 364 000 personnes. Ses branches américaine et britannique annoncent avoir signé dernièrement un accord de licence et de vente avec OpenAI, faisant de PwC le premier revendeur de ChatGPT Enterprise mais également son plus grand utilisateur. Depuis des années, PwC investit stratégiquement dans l’IA, conscient du potentiel transformateur d

GenAI : PWC est désormais le principal revendeur et utilisateur de ChatGPT Enterprise

5 juin 2024 à 14:00

PwC (PricewaterhouseCoopers), l’un des quatre plus grands cabinets d’audit et de conseil mondiaux (Big Four), est aujourd’hui présent dans 151 pays où il emploie 364 000 personnes. Ses branches américaine et britannique annoncent avoir signé dernièrement un accord de licence et de vente avec OpenAI, faisant de PwC le premier revendeur de ChatGPT Enterprise mais également son plus grand utilisateur.

Depuis des années, PwC investit stratégiquement dans l’IA, conscient du potentiel transformateur de cette technologie. Il y a un peu plus d’un an, en avril, PwC États-Unis dévoilait ainsi son projet d’investir 1 milliard de dollars sur les trois prochaines années pour élargir et faire évoluer ses offres d’IA grâce à la GenAI.

PwC a noué des partenariats avec les principaux fournisseurs de technologies d’IA, notamment les fournisseurs de modèles de fondation AWS, Anthropic, Google, Meta, Microsoft et OpenAI. Il a d’ailleurs annoncé une alliance stratégique avec ce dernier et Harvey, la start-up qu’il soutient, pour développer et déployer des modèles de base pour les services fiscaux, juridiques et de ressources humaines.

Il est également partenaire des principaux fournisseurs d’applications d’entreprise qui intègrent les capacités GenAI dans leurs produits, notamment Adobe, Google, Microsoft, Oracle, Salesforce, SAP et Workday.

Avec ce nouvel accord, PwC étend son écosystème technologique et intègre la GenAI à l’ensemble de ses pratiques commerciales, renforçant ainsi sa capacité à offrir des solutions novatrices à ses clients. OpenAI, de son côté, qui a parmi ses clients 92 % des entreprises du Fortune 500, voit passer le nombre des utilisateurs de ChatGPT Enterprise de 600 000 à environ 700 000, une hausse très significative.

ChatGPT Enterprise a été introduit par OpenAI en août 2023 qui démontrait ses avantages par rapport à ChatGPT plus : l’accès à GPT-4 sans limite d’utilisation et à une vitesse 2 fois supérieure, des fenêtres de contexte beaucoup plus longues avec 32 000 jetons contre 8 000, conduisant à une meilleure compréhension du contexte global d’une conversation ou d’un document.

La version entreprise fournit également un accès illimité à l’analyse avancée des données, auparavant appelée “Code Interpreter” qui permet entre autres de créer des graphiques ou d’éditer des fichiers. En septembre, OpenAI annonçait l‘intégration de DALL-E 3 et de nouvelles fonctionnalités vocales et d’image pour les utilisateurs de ChatGPT Plus et Enterprise.

Les données sont chiffrées en permanence et, tout comme les invites, ne sont pas utilisées pour l’entraînement de l’IA.

Les 26 000 employés britanniques et les 75 000 employés américains de PwC auront donc accès en toute sécurité à la version la plus puissante de ChatGPT alimentée par GPT-4o, présenté le mois dernier. Ils seront aidés dans des tâches spécifiques comme l’examen des déclarations de revenus, la génération de réponses aux propositions, la gestion du cycle de vie logiciel et la génération de tableaux de bord et de rapports par des GPT spécialisés.

GenAI PWC est désormais le principal revendeur et utilisateur de ChatGPT Enterprise
  • ✇ActuIA
  • Amazon Web Services et SAP renforcent leur partenariat pour transformer l’ERP dans le cloud avec l’IA générative
    SAP, éditeur allemand de logiciels ERP, annonce l’élargissement de son partenariat stratégique avec AWS, la plateforme cloud d’Amazon. Cette collaboration étendue vise à accélérer l’adoption de la solution RISE with SAP sur AWS, améliorer la performance et l’efficacité des charges de travail SAP exécutées dans le cloud, et intégrer la GenAI dans l’ensemble du portefeuille d’applications qui sont critiques pour les entreprises. Lors de sa conférence annuelle Sapphire, l’an passé, SAP a annoncé l’

Amazon Web Services et SAP renforcent leur partenariat pour transformer l’ERP dans le cloud avec l’IA générative

31 mai 2024 à 14:00

SAP, éditeur allemand de logiciels ERP, annonce l’élargissement de son partenariat stratégique avec AWS, la plateforme cloud d’Amazon. Cette collaboration étendue vise à accélérer l’adoption de la solution RISE with SAP sur AWS, améliorer la performance et l’efficacité des charges de travail SAP exécutées dans le cloud, et intégrer la GenAI dans l’ensemble du portefeuille d’applications qui sont critiques pour les entreprises.

Lors de sa conférence annuelle Sapphire, l’an passé, SAP a annoncé l’intégration de nouvelles fonctionnalités d’IA d’entreprise à son portefeuille, la plupart d’entre elles étant alimentées par l’IA générative. La société, qui y avait également fait part de nouvelles collaborations avec Microsoft, Google Cloud et IBM, annonce aujourd’hui étendre son partenariat avec AWS, son premier fournisseur cloud certifié.

Les modèles d’IA générative d’Amazon Bedrock disponibles sur le Hub d’IA Générative de SAP AI Core

Le hub d’IA générative de l’infrastructure SAP AI Core offre aux clients un accès instantané et sécurisé à une large gamme de modèles de langage (LLM) qui peuvent être facilement intégrés aux applications métier SAP. Ce hub s’intègre désormais aux LLM d’Amazon Bedrock, le service lancé par AWS en avril 2023, disponible en France depuis le mois dernier, permettant à ses utilisateurs de personnaliser des LLM en fonction de leurs besoins et de leurs données au lieu d’utiliser des modèles prêts à l’emploi.

A l’origine, ceux-ci avaient le choix entre les modèles de fondation des start-ups AI21 LabsAnthropicStability AI et les modèles Titan d’Amazon, Titan Text Lite et Titan Text Express. En septembre dernier, AWS enrichissait ce service avec l’ajout de Claude 2 d’Anthropic, Stable Diffusion XL 1.0 de Stability AI, le modèle phare “Command” de la start-up canadienne Cohere ainsi que son modèle “Embed”.

Plus récemment, Mistral 7B et Mixtral 8x7B et Mistral Large les ont rejoints avec les derniers modèles d’Anthropic.

Grâce à cette intégration, les clients de SAP peuvent accélérer l’adoption de la GenAI et moderniser les processus métier clés basés sur les solutions SAP. Ces innovations peuvent être utilisées au travers de cas d’usage intégrés à RISE with SAP et à la fonctionnalité de gestion du cycle de vie des scénarios intelligents en tant que composant d’intégration, ou côte à côte directement sur SAP Business Technology Platform (SAP BTP).

Utilisation des puces AWS par SAP pour ses futures offres Business AI

Depuis novembre dernier, SAP utilise les puces Graviton3 d’AWS pour alimenter SAP HANA Cloud, ce qui a permis d’améliorer les performances, de réaliser des économies de coûts et de gagner en efficacité énergétique. SAP et AWS collaborent actuellement sur la prochaine génération de Graviton4 pour continuer à améliorer les performances et l’efficacité des applications SAP.

SAP prévoit également d’utiliser les puces AWS Trainium et AWS Inferentia, conçues spécifiquement pour les workloads d’IA et de Machine Learning, pour la formation et le déploiement des futures offres SAP Business AI. Ces innovations permettront d’accélérer le processus de développement tout en maintenant des niveaux élevés de précision et de fiabilité.

Le projet Kuiper d’Amazon s’appuie sur RISE with SAP

Project Kuiper est une initiative d’Amazon visant à augmenter l’accès mondial au haut débit par le biais d’une constellation de 3 236 satellites en orbite terrestre basse (LEO). Son objectif est de réduire la fracture numérique en fournissant un accès haut débit rapide et abordable aux clients opérant dans des régions dépourvues de connexions Internet fiables.

Pour réaliser cette mission, le projet Kuiper a sécurisé 80 lancements d’Arianespace, Blue Origin, SpaceX et United Launch Alliance, et dispose d’options pour des lancements supplémentaires avec Blue Origin, ce qui devrait permettre de déployer la majorité de sa constellation de satellites.

Le projet utilise désormais RISE with SAP pour soutenir sa chaîne d’approvisionnement complexe et ses opérations de fabrication. RISE with SAP permet à l’équipe du projet de capitaliser sur une infrastructure fiable et évolutive pour exécuter un ERP cloud moderne en tant que service géré, afin qu’elle puisse se concentrer sur l’innovation plutôt que sur la gestion informatique.

Amazon Web Services et SAP renforcent leur partenariat pour transformer l'ERP dans le cloud avec l'IA générative
❌
❌