Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Manque d’aides : l’IA peine à décoller dans les PME françaises

Les PME françaises veulent plus d’IA européenne mais peinent à trouver des financements. Un paradoxe qui illustre un besoin urgent d’accompagnement.

Mi-juin 2025, lors de VivaTech, l’intelligence artificielle a encore occupé le devant de la scène. Mais cette année, la souveraineté numérique a dominé les échanges. Selon une enquête OnePoll pour reichelt elektronik, 76 % des PME françaises souhaitent que l’Europe développe ses propres outils d’IA compétitifs. Pourtant, si 72 % d’entre elles utilisent déjà l’IA ou comptent l’adopter, peu osent solliciter des financements.

Une forte attente d’outils européens et conformes aux normes

Les résultats de l’étude mettent en lumière une volonté claire des dirigeants de PME : s’appuyer sur un écosystème européen capable de rivaliser avec les géants américains et chinois. Plus d’un tiers des décideurs (37 %) plébiscitent même des solutions IA « favorisées car conformes aux normes européennes de protection des données ».

Ce positionnement fait écho aux débats qui ont traversé VivaTech ! Face aux rivalités géopolitiques et à la fragmentation des marchés, la demande de souveraineté technologique s’impose comme un thème central. Derrière cette aspiration se cache aussi une logique de confiance : les PME considèrent que la conformité aux standards européens en matière de data renforce la sécurité et l’acceptabilité des outils déployés.

IA et PME

Des financements encore trop peu sollicités

Si l’usage de l’IA progresse rapidement, le coût d’investissement reste un frein majeur : 22 % des dirigeants interrogés le placent en première barrière. Pourtant, les dispositifs de soutien existent à plusieurs niveaux. Au niveau européen, seules 27 % des PME ont déposé une demande de financement, et à peine 17 % ont obtenu une aide via Horizon Europe ou Digital Europe. Côté national, 22 % ont candidaté au programme IA Booster France 2030, avec un taux d’obtention de 18 %.

IA et PME

Quant au concours i-Lab, il n’a attiré que 19 % des entreprises. Même constat au niveau régional : 28 % ont sollicité une aide, 21 % en ont bénéficié. Des initiatives comme le dispositif CAP’TN en Centre-Val de Loire, qui propose jusqu’à 200 000 € de soutien, restent trop méconnues. Ce faible recours illustre un paradoxe : les financements sont là, mais l’information et l’accompagnement ne suivent pas.

Le besoin d’accompagnement, une priorité exprimée

Derrière ces chiffres, une réalité saute aux yeux : les PME ne manquent pas seulement de fonds, mais de soutien pour franchir le pas. Près de la moitié (46 %) réclament un accès facilité à des conseils spécialisés, 40 % souhaitent un meilleur accès aux dispositifs de financement et 38 % demandent une simplification administrative. « L’IA représente une opportunité pour les PMEs en quête d’innovation et pour faire face à la concurrence mondiale. Mais freinées par les coûts, l’accès aux financements français eto européens est déterminant pour elles », souligne Christian Reinwald, Head of Product Management & Marketing chez reichelt elektronik.

Il ajoute : « Si aujourd’hui, la tech ne représente que 10 % du budget de l’UE, dans les années à venir l’augmentation des financements consacrés à ce domaine permettront d’accompagner les entreprises et PMEs à renforcer leur place sur l’échiquier international ». On l’aura compris ! L’IA est désormais un enjeu stratégique qui ne se résume pas à la technologie, mais implique des choix politiques et économiques décisifs.

Article basé sur un communiqué de presse reçu par la rédaction.

Cet article Manque d’aides : l’IA peine à décoller dans les PME françaises a été publié sur LEBIGDATA.FR.

F5 lance une IA pour stopper les fuites de données sensibles

F5 renforce sa plateforme avec des fonctionnalités IA avancées. Grâce à la F5 AI Gateway, les entreprises peuvent désormais contrôler l’usage de l’IA et sécuriser leurs environnements multicloud.

F5 muscle sa plateforme ADSP avec des fonctionnalités inédites de détection et de prévention des fuites de données basées sur l’intelligence artificielle. Cette évolution introduit une visibilité avancée sur le trafic chiffré. Elle offre aux entreprises les moyens de contrer le phénomène du Shadow AI et de sécuriser l’usage des grands modèles de langage (LLM).

Une réponse à la montée des risques liés à l’IA

L’essor des outils IA dans les entreprises a bouleversé les stratégies de cybersécurité. Des données sensibles circulent désormais dans des flux chiffrés et passent par des applications non approuvées. Les méthodes classiques deviennent insuffisantes. F5 entend combler cette faille avec un arsenal technologique intégré à sa plateforme ADSP. Selon l’entreprise, ces fonctionnalités visent à « détecter, classifier et stopper en temps réel les fuites de données dans un trafic chiffré et piloté par l’IA ». Elles assurent également la conformité réglementaire.

Kunal Anand, Chief Innovation Officer chez F5, résume l’enjeu : « Le dilemme au cœur de chaque conseil d’administration aujourd’hui, c’est la course à l’adoption de l’IA face à l’obligation de protéger les données de l’entreprise. Forcer un choix entre les deux est une stratégie perdante. Nous éliminons ce dilemme« . Cette déclaration met en lumière une tendance forte du marché. Elle reflète la volonté de conjuguer innovation et gouvernance des risques afin d’encadrer l’adoption massive de l’IA générative dans un environnement sécurisé.

Plateforme F5

F5 AI Gateway : la barrière intelligente contre les fuites de données

La pièce maîtresse de cette mise à jour est F5 AI Gateway, qui intègre des capacités de détection et de prévention des fuites grâce à la technologie acquise auprès de LeakSignal. Cette solution inspecte les échanges avec les systèmes IA pour repérer les informations sensibles. De plus, elle applique automatiquement des politiques définies par l’organisation. Les options incluent le masquage, le blocage ou la journalisation des données avant toute sortie non autorisée.

Cette démarche répond à une problématique émergente : l’exposition involontaire d’informations stratégiques dans des outils IA externes. F5 propose une passerelle dotée de fonctions clés, dont la détection en temps réel, l’application des politiques et l’intégration aux outils SIEM. L’entreprise la positionne comme un pivot de la cybersécurité basée sur l’intelligence artificielle. Cette évolution marque un pas vers une gouvernance plus fine des environnements multicloud et hybrides puisque la conformité devient un défi quotidien.

Plateforme F5

SSL Orchestrator se renforce pour traquer le Shadow AI

F5 ne s’arrête pas là. L’éditeur annonce également l’extension de BIG-IP SSL Orchestrator afin d’offrir une visibilité inédite sur les flux chiffrés à grande échelle. Objectif : identifier et bloquer l’usage non autorisé de l’IA (Shadow AI) et prévenir la fuite de données sensibles en transit, sans compromettre la performance réseau. La solution promet des tableaux de bord centralisés pour auditer les flux IA et appliquer des règles d’usage strictes. Sa disponibilité est prévue pour fin 2025. Le chiffrement ne constitue plus une garantie absolue, car il crée un angle mort exploité par des menaces sophistiquées. A cet effet, F5 s’impose comme une référence en matière de sécurisation des infrastructures modernes.

Article basé sur un communiqué de presse reçu par la rédaction.

Cet article F5 lance une IA pour stopper les fuites de données sensibles a été publié sur LEBIGDATA.FR.

L’intention derrière chaque clic : déjouez les cyberattaques IA

L’émergence des agents d’IA bouleverse la gestion du trafic web. Pour Benjamin Barrier, cofondateur de DataDome, seule l’analyse comportementale centrée sur l’intention peut encore faire barrage aux cybermenaces.

Le web entre dans une nouvelle ère, marquée par la montée des agents d’intelligence artificielle. Selon Benjamin Barrier (DataDome), la frontière entre humain et machine s’efface, ce qui obligea les entreprises à changer de paradigme. Ce n’est plus la nature du trafic qu’il faut surveiller, mais son intention. Une bascule stratégique qui rebat les cartes de la cybersécurité.

Une frontière brouillée entre humains et robots

Le trafic web de 2024 était déjà composé à 51 % de flux automatisés. Mais ce chiffre, record en soi, masque une mutation bien plus profonde : la montée en puissance des agents d’intelligence artificielle. Capables d’apprendre, de décider et d’interagir avec leur environnement, ces entités brouillent les repères classiques de la cybersécurité. « Ce n’est pas parce qu’un utilisateur semble humain qu’il a de bonnes intentions« , souligne Benjamin Barrier, cofondateur et Chief Strategy Officer de DataDome.

L’intention et la cybersécurité selon Datadome

Inversement, une activité automatisée n’est pas nécessairement malveillante. Dans ce nouvel écosystème, l’enjeu n’est plus de savoir qui accède à un site, mais pourquoi. Les attaques évoluent : agents d’IA capables de déjouer les CAPTCHA, comportements humains mimés à la perfection, proxification des utilisateurs… Autant de tactiques qui rendent les filtres traditionnels obsolètes. Les cybercriminels ne sont plus isolés : ils orchestrent des attaques massives grâce à des outils aussi puissants qu’accessibles.

Une cybersécurité pilotée par l’analyse comportementale

Face à cette complexité croissante, une nouvelle démarche émerge : comprendre l’intention derrière chaque requête. Cela suppose d’observer des schémas d’utilisation sur la durée, de repérer les anomalies et d’adapter la réponse en temps réel. Prenons l’exemple d’un bot de comparaison de prix qui accède régulièrement à 100 pages produits par jour. A priori inoffensif. Mais un bot malveillant qui visite 10 000 pages aléatoirement et change constamment d’IP évoque une toute autre intention.

L’intention et la cybersécurité selon Datadome

« C’est cette différence de logique qu’il faut capter pour protéger efficacement un site web« , explique Benjamin Barrier. La détection d’anomalies, couplée à l’IA, permet de déceler les comportements déviants, même avec des identifiants valides. Dans une banque en ligne, si un client accède soudain à des sections inconnues et tente des transferts inhabituels, l’alerte se déclenche. Cette analyse contextuelle transforme la façon dont les entreprises appréhendent les risques.

L’intention, ultime rempart contre les menaces hybrides

Pour les entreprises, l’ancien paradigme qui oppose humains et bots est dépassé. Comme le rappelle Benjamin Barrier, « les humains peuvent être malveillants, et les robots, utiles« . Il faut donc des solutions de cybersécurité capables d’évoluer au rythme des attaques et d’identifier, en temps réel, les intentions derrière les comportements.

Contrairement aux systèmes rigides, les méthodes fondées sur l’intention ont l’avantage d’être adaptatives. Elles ne reposent pas uniquement sur des règles figées, mais sur la compréhension dynamique des usages. Une nécessité face à des menaces qui ne cessent de gagner en subtilité.

Article basé sur un communiqué de presse reçu par la rédaction.

Cet article L’intention derrière chaque clic : déjouez les cyberattaques IA a été publié sur LEBIGDATA.FR.

VivaTech : l’Occitanie en tête de l’IA pour les entreprises

Des startups IA d’Occitanie boostent la productivité des entreprises à VivaTech 2025. Grâce à des solutions innovantes, elles transforment prospection, SEO, e-commerce ou cybersécurité.

Le salon VivaTech, qui s’est déroulé à Paris Porte de Versailles du 11 au 14 juin 2025, a été l’occasion de découvrir des solutions innovantes pour transformer la productivité des entreprises. Parmi les acteurs régionaux, les startups occitanes ont mis en avant des technologies basées sur l’intelligence artificielle. Le but est d’optimiser les performances des professionnels. Retour sur cinq solutions clés qui ont marqué l’événement.

Shaarp, l’IA révolutionnaire pour la prospection commerciale

Lors de VivaTech, la startup Shaarp a présenté sa plateforme d’intelligence artificielle dédiée à la prospection commerciale. L’outil a permis aux équipes commerciales de maximiser leur efficacité. Toutes les informations stratégiques sur les prospects sont désormais centralisées. Grâce à une analyse approfondie des données disponibles (sites web, réseaux sociaux, avis clients, etc.), les commerciaux ont pu adapter leur approche et gagner jusqu’à 4 heures par semaine. « Shaarp n’automatise pas les interactions, elle les rend plus pertinentes« , a déclaré Loris Venturelli, co-fondateur de la startup. De nombreuses entreprises ont déjà adopté cette solution pour une prospection plus ciblée et performante.

Occitanie et IA

Hack the SEO, l’IA au service du référencement Web

Hack the SEO, la startup montpelliéraine, a également fait sensation avec sa solution d’intelligence artificielle dédiée au référencement naturel. La plateforme a permis aux entreprises d’automatiser la détection, l’analyse et la correction des erreurs SEO en temps réel. « L’IA ne remplace pas les experts, elle les libère des tâches répétitives« , a affirmé Bruno Ibanez, co-fondateur de Hack the SEO. Cette solution a séduit plus de 300 utilisateurs mensuels dans plus de 10 pays. Elle a permis de démocratiser l’accès à des outils SEO de haute qualité et accessibles à tous.

Occitanie et IA

Juliia, l’assistant IA qui réinvente la recherche E-Commerce

Spiriit, une agence spécialisée dans le e-commerce, a présenté Juliia, un agent conversationnel basé sur l’IA générative. Cette solution a permis de réinventer la recherche en ligne. Elle comprend l’intention d’achat des utilisateurs et leur propose des recommandations ultra-personnalisées. « Juliia anticipe les besoins des consommateurs, tout en s’adaptant à chaque contexte e-commerce« , a expliqué l’équipe de Spiriit. La solution a déjà convaincu les premiers clients, comme Wesco et Julbo, et son succès lors de VivaTech augure de belles perspectives pour l’avenir.

Emvista et l’IA pour la détection des événements importants

Emvista a lancé à VivaTech sa solution IA, Prevyo Event, capable de détecter et d’analyser des événements clés dans les données textuelles. Cette technologie a permis aux secteurs sensibles, comme la banque et l’industrie, d’identifier rapidement les événements importants, qu’il s’agisse d’incidents, de crises sanitaires ou d’autres perturbations. Grâce à son approche innovante, Prevyo Event a transformé la manière dont les entreprises prennent des décisions stratégiques en réponse à des événements externes.

Occitanie et IA

Akawan et la sécurisation des données sensibles

Akawan a présenté Bosl.ai, une solution novatrice pour sécuriser les données sensibles et tirer parti des performances des IA génératives. Bosl.ai procède à l’anonymisation automatique des informations personnelles et des données confidentielles. Grâce à cela, les entreprises peuvent utiliser les IA et respecter les règles du RGPD. « Nous avons voulu donner aux entreprises le contrôle total de leurs données tout en exploitant le potentiel de l’IA« , a expliqué Frédéric Laplagne, co-fondateur d’Akawan. Cette solution a été largement saluée pour sa capacité à combiner sécurité et productivité.

Article basé sur un reçu par la rédaction.

Cet article VivaTech : l’Occitanie en tête de l’IA pour les entreprises a été publié sur LEBIGDATA.FR.

ChatGPT : 500 ml d’eau et 2,9 Wh gaspillés à chaque requête

Chaque requête consomme jusqu’à 500 ml d’eau et 2,9 Wh d’énergie. Derrière la magie de l’intelligence artificielle, un coût écologique encore peu débattu.

L’intelligence artificielle séduit, impressionne, mais à quel prix ? Une simple requête sur ChatGPT mobilise plus d’énergie qu’on ne l’imagine. Dans l’ombre des performances technologiques, un coût environnemental encore peu connu soulève une question centrale : peut-on concilier IA générative et responsabilité écologique sans freiner l’innovation ?

Une performance numérique aux conséquences bien réelles

Poser une question à ChatGPT semble anodin. Pourtant, l’impact énergétique est considérable. Selon l’Université de Californie Riverside, une requête mobilise 2,9 Wh, soit dix fois plus qu’une simple recherche . Et ce n’est pas tout : les serveurs doivent être refroidis en permanence, ce qui représente, d’après l’Université du Colorado, jusqu’à un demi-litre d’eau par demande.

Ces chiffres donnent à réfléchir. D’autant plus que l’Agence Internationale de l’Énergie prévoit une multiplication par dix de la consommation énergétique liée à l’IA d’ici 2026. Un emballement que les data centers alimentent à grande vitesse : ils pourraient bientôt représenter plus de 4 % de la consommation mondiale d’électricité. Google a vu ses émissions de CO₂ bondir de 48 % depuis 2019, et de 29 % depuis 2020. Le progrès numérique a un revers que l’on ne peut plus ignorer.

ChatGPT et sa consommation d'énergie

Une IA générative à dompter, pas à subir

L’adoption massive des outils d’IA générative est indéniable : 70 % des jeunes Français les utilisent, selon l’IFOP. Mais peu sont conscients du coût écologique associé. Cette asymétrie d’information interroge. Faut-il éduquer à la sobriété numérique comme on le fait pour les gestes écologiques quotidiens ?

Nous ne sommes pas contre l’innovation, mais pour un usage raisonné affirme Frédéric Brajon, associé cofondateur du cabinet Saegus, spécialisé dans l’accompagnement à l’adoption responsable des nouvelles technologies. Pour lui, l’enjeu n’est pas tant de freiner l’IA que de l’orienter. Cela passe par des actions concrètes : former les salariés à l’usage efficient des outils, intégrer des critères environnementaux dans les projets technologiques, et poser un cadre d’éthique numérique.

ChatGPT et sa consommation d'énergie

Réconcilier innovation et conscience écologique

Ce point soulève une vraie question : pourquoi l’impact environnemental de l’IA reste-t-il si peu visible ? Peut-être parce qu’il est éclaté, invisible, enfoui dans les couches profondes des serveurs. Ou parce que le discours technophile le surplombe encore largement. Pourtant, comme pour toute technologie, un arbitrage s’impose.

Des leviers existent. Réduire les requêtes superflues, préférer les interactions utiles, mais aussi encourager les éditeurs d’IA à développer des modèles moins gourmands. La responsabilité ne repose pas seulement sur l’utilisateur, mais aussi sur les acteurs du secteur. On a une responsabilité collective. À l’image de la transition énergétique, celle de l’IA verte doit devenir une priorité stratégique. Alors, faut-il ralentir l’IA ? Pas nécessairement. Mais repenser la manière dont on l’utilise, certainement.

Article basé sur un reçu par la rédaction.

Cet article ChatGPT : 500 ml d’eau et 2,9 Wh gaspillés à chaque requête a été publié sur LEBIGDATA.FR.

Data Integrity Suite : innovation et gouvernance optimisée pour Precisely

Precisely, leader mondial de l’intégrité des données, annonce des avancées dans sa Data Integrity Suite. Ces améliorations incluent des innovations en intelligence artificielle, une gouvernance des données améliorée et des capacités d’intégration étendues. Le but est de répondre aux défis rencontrés par les entreprises dans la gestion de leurs données. Elles garantissent une accessibilité optimisée, une conformité renforcée et une automatisation avancée.

L’IA au service de la fiabilité des données

Avec l’intégration d’AI Manager, la Data Integrity Suite permet aux entreprises d’exploiter l’IA générative. Elle assure également un contrôle total sur la souveraineté et la conformité des données. Cette nouvelle fonctionnalité offre une intégration flexible avec des modèles d’IA comme AWS Bedrock. Elle permet aux organisations d’appliquer des algorithmes avancés sans compromettre la sécurité des informations.

L’automatisation de la gestion des métadonnées constitue également un levier de productivité essentiel. Grâce à l’IA, les descriptions d’actifs sont générées automatiquement. Cela réduit les tâches manuelles et améliore la qualité des métadonnées. Cette approche optimise la gestion des données et permet aux équipes de se concentrer sur des missions stratégiques à plus forte valeur ajoutée.

Data Integrity Suite de Precisely

Une gouvernance des données simplifiée et plus efficace

La Data Integrity Suite améliore également l’expérience utilisateur en matière de gouvernance des données par la facilitation de la collaboration entre les équipes techniques et métiers. Désormais, chaque utilisateur accède à des scores de qualité des données adaptés à son rôle, il peut ainsi évaluer rapidement la fiabilité des informations disponibles.

L’automatisation avancée des workflows simplifie encore davantage la gestion des tâches pour une plus grande efficacité et une adoption plus large des outils de gouvernance. Grâce à une architecture basée sur les microservices, les performances du système sont accrues. Cela assure un déploiement rapide et évolutif pour les entreprises qui cherchent à renforcer leur conformité et leur gestion des données.

Une intégration plus fluide et une accessibilité améliorée

Pour faciliter l’automatisation des échanges de données, la suite intègre désormais un connecteur Snowflake. Les entreprises peuvent ainsi transférer leurs informations vers cette plateforme en temps quasi réel. Ce nouvel outil offre une meilleure accessibilité et ouvre la voie à l’enrichissement des données via la Snowflake Marketplace.

Data Integrity Suite de Precisely

En complément, la Data Integrity Suite propose désormais une cartographie visuelle enrichie, qui simplifie la compréhension des flux de données et améliore la traçabilité des informations à travers les systèmes. Selon Chris Hall, Chief Product Officer chez Precisely, ces avancées marquent une étape clé dans la gestion des données. Elles offrent aux entreprises les outils nécessaires pour exploiter pleinement le potentiel de l’IA et garantir une intégrité totale de leurs informations.

Article basé sur un reçu par la rédaction.

Cet article Data Integrity Suite : innovation et gouvernance optimisée pour Precisely a été publié sur LEBIGDATA.FR.

Vultr déploie les GPU AMD Instinct MI325X pour l’IA

Vultr, leader du privé, annonce l’intégration des GPU AMD Instinct MI325X dans son data center de Chicago. Ce partenariat avec AMD permet aux entreprises d’accéder à une solution performante et évolutive pour l’inférence et la formation de modèles IA. Avecan une mémoire de 256 Go et une bande passante de 8 To/s, ces GPU offrent un rapport prix/performances optimal.

Un pas de géant pour l’IA d’entreprise

Vultr franchit une nouvelle étape dans l’accélération des performances cloud destinées à l’intelligence artificielle. L’entreprise annonce la commercialisation des premiers GPU AMD Instinct™ MI325X. C’est une solution conçue pour répondre aux besoins croissants en inférence et en entrainement de modèles IA. Vultr confirme sa volonté de proposer des infrastructures toujours plus performantes et adaptées aux exigences des entreprises. Il devient ainsi le premier fournisseur cloud à déployer cette technologie de pointe dans son data center de Chicago.

Cette annonce intervient alors que Vultr vient de finaliser une levée de fonds stratégique. Cela porte sa valorisation à 3,5 milliards de dollars, et d’intensifier sa collaboration avec AMD. Ce partenariat offre à Vultr un accès privilégié aux technologies GPU de dernière génération, notamment la gamme AMD Instinct™ MI300X et l’écosystème logiciel ROCm™.

Vultr déploie les GPU AMD pour l'IA

Une infrastructure IA performante et flexible

L’intégration des GPU AMD Instinct MI325X à l’offre cloud de Vultr ouvre de nouvelles perspectives pour les entreprises qui souhaitent développer et déployer des applications IA-natives à grande échelle. Ces GPU de nouvelle génération sont hébergés sur des serveurs Supermicro AS-8126GS-TNMR 8-U. Ils offrent une capacité de mémoire exceptionnelle de 256 Go HBM3E et une bande passante de 8 To/s. Cela garantit des performances accrues pour la formation et l’inférence des modèles d’IA.

Comme l’explique J.J. Kardwell, PDG de Vultr : « L’Instinct MI325X d’AMD établit de nouvelles normes pour l’industrie IA, offrant des performances et une efficacité inégalées pour l’inférence. Nos clients bénéficient ainsi d’un accès prioritaire à un hardware GPU de pointe, leur permettant d’étendre les déploiements d’IA à la production et de révolutionner leur stratégie IA. »

Une collaboration stratégique pour l’innovation en IA

Le partenariat renforcé entre Vultr et AMD s’inscrit dans une stratégie de développement à long terme. Il vise surtout à démocratiser l’accès à des solutions IA avancées. L’intégration des technologies AMD Instinct MI325X permet aux entreprises de disposer d’une infrastructure cloud flexible. Celle-ci est compatible avec les principaux frameworks IA et optimisée pour un déploiement rapide des applications d’IA générative.

Vultr déploie les GPU AMD pour l'IA

Negin Oliver, Vice-Président du développement commercial chez AMD, souligne : « Les accélérateurs AMD Instinct MI325X sont conçus pour répondre aux exigences des tâches IA les plus complexes, allant de la formation des modèles à l’inférence. Avec cette nouvelle infrastructure, Vultr met à disposition une technologie de pointe permettant aux entreprises d’accélérer leur transformation IA et d’optimiser leur puissance de calcul. »

Vultr confirme son ambition de repousser les limites de l’IA d’entreprise avec ces nouveaux GPU intégrés à son infrastructure cloud. Ce déploiement marque un pas stratégique pour le secteur. Il facilite l’accès à des ressources informatiques avancées et ouvre la voie à une innovation IA toujours plus performante.

Article basé sur un reçu par la rédaction.

Cet article Vultr déploie les GPU AMD Instinct MI325X pour l’IA a été publié sur LEBIGDATA.FR.

IA éthique et conforme : les conseils d’Open Lake Technology

L’intelligence artificielle transforme en profondeur les entreprises et leurs stratégies digitales, mais elle soulève aussi des défis inédits en matière de cybersécurité et de conformité. Face à une réglementation de plus en plus stricte et aux cybermenaces croissantes, il devient impératif d’adopter une approche éthique et sécurisée de l’IA. Antony Derbes, Président d’ Lake Technology, met en lumière les bonnes pratiques pour concilier performance et sécurité.

L’IA au service de la cybersécurité, mais aussi un risque potentiel

L’intelligence artificielle révolutionne la cybersécurité puisqu’elle offre différente possibilités. Tel est le cas de la détection proactive des menaces, une réponse rapide aux cyberattaques et une automatisation des processus de protection. Mais son utilisation ne se limite pas aux défenseurs ! Les cybercriminels exploitent également l’IA pour perfectionner leurs stratégies d’attaque, ce qui rend les systèmes plus vulnérables que jamais.

Pour contrer ces risques, les entreprises doivent renforcer la sécurisation de leurs modèles IA. Cela implique la protection rigoureuse des données d’entraînement, une surveillance continue des algorithmes et l’adoption de protocoles avancés de détection des anomalies. Sans ces précautions, les systèmes IA risquent de devenir une faille exploitée par les attaquants.

IA éthique et conforme

Conformité et éthique : des obligations réglementaires de plus en plus strictes

L’encadrement réglementaire de l’IA se durcit avec des textes comme l’AI Act en Europe, le RGPD et le Digital Operational Resilience Act (DORA). Ces réglementations imposent des exigences strictes en matière de transparence, de gouvernance des données et de gestion des risques liés à l’IA.

Pour garantir une IA conforme et éthique, les entreprises doivent adopter une démarche proactive. Cela passe par des audits réguliers, une documentation rigoureuse et la mise en place de comités d’éthique chargés d’évaluer l’impact des algorithmes sur les utilisateurs et la société. La mise en conformité ne doit pas être perçue comme une contrainte ! Il faut le voir comme un levier de confiance et de compétitivité.

Construire une IA responsable et sécurisée

Pour allier innovation et sécurité, plusieurs bonnes pratiques s’imposent. La transparence et l’explicabilité des modèles IA doivent être au cœur des démarches. Par cela, les décideurs peuvent comprendre les choix effectués par les algorithmes. Une gouvernance rigoureuse des données s’avère essentielle pour assurer leur intégrité et leur protection.

IA éthique et conforme

La robustesse des systèmes passe par l’intégration de protocoles de cybersécurité avancés. Cela permet de prévenir les manipulations et les attaques adversariales. Une veille réglementaire permanente et la formation continue des équipes sont indispensables pour suivre l’évolution des obligations légales et des meilleures pratiques en matière d’IA responsable. Antony Derbes le rappelle : « L’IA ne peut être un outil durable que si elle repose sur des standards éthiques et une cybersécurité renforcée. Les entreprises ont la responsabilité de construire une intelligence artificielle de confiance, garantissant un avenir numérique sûr et équitable. »

Article basé sur un reçu par la rédaction.

Cet article IA éthique et conforme : les conseils d’Open Lake Technology a été publié sur LEBIGDATA.FR.

Checkmarx alerte sur la sécurité du code généré par IA

L’IA générative révolutionne le développement logiciel, mais elle représente aussi un risque majeur pour la sécurité du code. Checkmarx met en lumière les risques croissants liés au code généré par l’IA, illustrés par des failles critiques. Selon , d’ici 2026, près de 45 % des failles critiques dans les applications d’entreprise proviendront de composants générés par l’IA. Une prise de conscience s’impose pour sécuriser l’adoption de ces technologies.

Une adoption massive, mais des risques sous-estimés

Avec la montée en puissance de l’IA générative, les développeurs se tournent massivement vers ces outils pour accélérer le développement logiciel. Si ces avancées technologiques offrent des gains de productivité indéniables, elles soulèvent également des questions majeures en matière de cybersécurité. L’exemple de la faille critique détectée en 2022 dans l’application Android de Ring illustre les dangers liés à un code généré rapidement sans mesures de sécurité suffisantes. Cette vulnérabilité aurait pu permettre à un attaquant de prendre le contrôle de l’application. Elle exposait également des données sensibles et compromettait ainsi la sécurité des utilisateurs.

Généré du code par IA

Des vulnérabilités omniprésentes dans le code généré par IA

L’essor de l’IA générative complexifie encore davantage la composition des applications modernes, qui intègrent du code source, des packages open source, des conteneurs et des infrastructures as code (IaC). Un récent rapport de Checkmarx met en lumière que 39 % des codes générés par IA contiennent des vulnérabilités critiques exploitables. La pression pour livrer rapidement des produits pousse certains développeurs à négliger la correction immédiate des failles. Cette négligence expose alors leurs applications à des cyberattaques potentielles.

Généré du code par IA

Une menace qui inquiète les experts en cybersécurité

Selon Gartner, d’ici 2026, 45 % des failles critiques dans les applications d’entreprise proviendront de composants écrits ou suggérés par l’IA générative. Une enquête de Censuswide pour Checkmarx, réalisée auprès de 1504 experts en cybersécurité, révèle que 35 % des entreprises françaises ont déployé du code vulnérable. Ces dernières envisageaient de le corriger ultérieurement. De leur côté, 39 % considéraient ces failles comme non critiques. Cette approche, basée sur une évaluation parfois erronée du risque, pourrait entraîner des conséquences désastreuses. Pour limiter ces dangers, il est essentiel d’intégrer des solutions robustes d’Application Security (AppSec). Il convient également de faire preuve d’une vigilance accrue face aux recommandations des IA génératives.

Article basé sur un reçu par la rédaction.

Cet article Checkmarx alerte sur la sécurité du code généré par IA a été publié sur LEBIGDATA.FR.

Coalition mondiale pour une IA écoresponsable

91 partenaires internationaux s’unissent pour faire de l’intelligence artificielle un levier de transition écologique. Emmenée par la France, le PNUE et l’UIT, cette coalition mondiale vise à minimiser l’empreinte environnementale de l’IA. Elle vise aussi à exploiter son potentiel pour résoudre les défis écologiques.

Un engagement global pour une IA durable

Annoncée lors du Sommet pour l’action sur l’IA à Paris, cette coalition rassemble 37 entreprises technologiques, 10 pays et 5 organisations internationales. L’objectif est d’encourager des initiatives collaboratives afin d’orienter l’IA vers une trajectoire plus respectueuse de l’environnement. La montée en puissance des infrastructures IA entraîne une consommation énergétique croissante et une production massive de déchets électroniques. Cela soulève des préoccupations majeures.

Coalition mondiale pour une IA écoresponsable

Des initiatives concrètes pour un impact mesurable

Dans ce cadre, plusieurs actions ont été initiées pour limiter l’empreinte carbone de l’IA. L’INRIA et le Ministère de la Transition écologique ont publié un document de position. Ce document identifie les défis à relever. Le Frugal AI Challenge a réuni plus de 60 équipes de data scientists pour concevoir des modèles d’IA écoénergétiques appliqués à la détection de la désinformation climatique et à l’identification de la déforestation illégale. En parallèle, l’AIE a lancé un observatoire mondial pour anticiper les besoins énergétiques des centres de données et optimiser leur gestion.

Un tournant stratégique pour la transition écologique

La France joue un rôle central dans la promotion de l’IA frugale à travers des démonstrateurs dédiés à la transition écologique et un référentiel général sur l’IA sobre. De plus, le PNUE prévoit la publication d’un guide sur les centres de données économes en énergie d’ici mars 2025. « Le Sommet mondial pour l’action sur l’IA constitue un tournant : pour la première fois, la transition écologique est au cœur des discussions internationales sur l’IA« , a déclaré Agnès Pannier-Runacher, ministre de la Transition écologique. Cette coalition marque ainsi une avancée majeure vers une intelligence artificielle plus verte et durable.

Coalition mondiale pour une IA écoresponsable

Article basé sur un reçu par la rédaction.

Cet article Coalition mondiale pour une IA écoresponsable a été publié sur LEBIGDATA.FR.

Sommet de Paris pour l’action sur l’IA : ce qu’il faut retenir

Le Sommet pour l’action sur l’IA, organisé en France les 10 et 11 février 2025, marque un tournant pour la régulation et l’usage éthique de l’intelligence artificielle. Avec l’entrée en vigueur des premières dispositions de l’IA Act, les entreprises doivent désormais s’adapter à un cadre plus strict en matière de formation et de conformité.

L’IA Act : une régulation au service de l’intérêt général

Adopté en mars 2024, l’IA Act vise à encadrer l’utilisation des systèmes d’intelligence artificielle en Europe. Depuis le 2 février 2025, les entreprises dotées de ces technologies doivent se conformer aux nouvelles exigences. Cela concerne notamment la formation. Selon Michael Curry, président de la modernisation des données chez Rocket Software, « le Chapitre 1, Article 4 de la loi européenne sur l’IA rend obligatoire la maîtrise de l’IA pour toute entreprise qui utilise ou développe ces systèmes. » Cette disposition impose une montée en compétences des employés. Elle garantit ainsi une utilisation responsable et éthique.

Sommet de Paris pour l'action sur l'IA

Interdictions et nouvelles obligations pour les entreprises

L’IA Act ne se contente pas de promouvoir la formation. Le Chapitre 2, Article 5 interdit les usages jugés abusifs. Cela inclut ceux qui portent atteinte aux droits individuels ou favorisent des discriminations. Cela concerne notamment l’ingénierie sociale, la classification des individus selon leur comportement ou la prédiction de crimes. Pour se conformer, les entreprises doivent effectuer des audits rigoureux de leurs pratiques, renforcer leurs politiques de confidentialité et mettre en place des systèmes de surveillance proactifs. Ces mesures visent à garantir la transparence et à réduire les risques liés aux dérives de l’IA.

Un défi et une opportunité pour les entreprises européennes

L’entrée en vigueur de l’IA Act transforme le paysage technologique européen. Si cette régulation impose des contraintes, elle ouvre aussi la voie à un usage plus encadré et fiable de l’IA. Le Sommet pour l’action sur l’IA s’inscrit dans cette dynamique. Il offre aux entreprises un espace d’échange pour mieux comprendre les implications de ces nouvelles règles. « Son application progressive leur donne du temps pour se conformer et envisager leurs usages de l’IA de manière éthique et sécurisée« , conclut Michael Curry. Puisque l’intelligence artificielle devient un levier stratégique, maîtriser ces évolutions sera essentiel pour l’innovation responsable en Europe.

Sommet de Paris pour l'action sur l'IA

Article basé sur un reçu par la rédaction.

Cet article Sommet de Paris pour l’action sur l’IA : ce qu’il faut retenir a été publié sur LEBIGDATA.FR.

ChatGPT : 2 ans et 200 millions d’utilisateurs actifs

Deux ans après son lancement, a transformé les usages numériques grâce à l’intelligence artificielle générative. Avec 200 millions d’utilisateurs actifs, cet outil redéfinit la productivité et soulève des enjeux majeurs en cybersécurité.

Une adoption mondiale fulgurante

Lancé fin 2022, ChatGPT a marqué un tournant dans l’histoire de l’IA. En seulement cinq jours, un million de personnes s’étaient inscrites. Aujourd’hui, en 2024, l’outil compte plus de 200 millions d’utilisateurs actifs. Ce succès témoigne de l’intérêt croissant pour l’intelligence artificielle et de son intégration dans la vie quotidienne. ChatGPT, capable de générer des réponses cohérentes en temps réel, a fait entrer l’IA dans le langage courant. Cet outil est devenu essentiel pour des secteurs variés, de la création de contenu à l’analyse prédictive. Pour moi, ce succès montre une adoption rapide des technologies qui facilitent le quotidien.

Un impact révolutionnaire sur la productivité

ChatGPT a également transformé le monde professionnel. Il réduit le temps nécessaire pour réaliser des tâches complexes et optimise les opérations. C’est le cas, par exemple, des projets qui prenaient une semaine. Ils se finalisent désormais en quelques heures. L’IA générative s’impose dans des domaines comme la rétro-ingénierie ou l’analyse de données massives. En cybersécurité, ChatGPT analyse de grands volumes de données pour détecter des menaces souvent invisibles. Cette capacité à identifier des anomalies transforme les stratégies de défense. Pourtant, cette technologie soulève aussi des inquiétudes. Des cybercriminels l’utilisent pour créer des malwares ou rédiger des e-mails de phishing sophistiqués.

Les défis de l’utilisation responsable de l’IA

Malgré ses avantages, l’IA générative pose des risques. Les entreprises doivent protéger leurs données et sensibiliser leurs équipes. Le communiqué recommande des mesures comme la régulation de l’usage de l’IA, l’automatisation des contrôles de données et l’adoption de solutions d’IA sécurisées. La GenAI, bien qu’efficace, ne remplace pas l’expertise humaine. Elle doit être utilisée comme un amplificateur de compétences, pas comme une solution « juste suffisante ». Pour moi, cet équilibre entre innovation et responsabilité est essentiel pour maximiser son potentiel.

Article basé sur un reçu par la rédaction.

Cet article ChatGPT : 2 ans et 200 millions d’utilisateurs actifs a été publié sur LEBIGDATA.FR.

L’IA dans les RH : automatisation de la paie et stratégies d’avenir

L’intelligence artificielle et la digitalisation transforment en profondeur les services RH, notamment dans la gestion de la paie. Selon une étude, 53 % des décideurs RH prévoient une automatisation complète de cette fonction d’ici. Puisque flexibilité et personnalisation sont essentielles, les entreprises s’appuient sur ces technologies pour répondre aux attentes croissantes des collaborateurs.

Vers une automatisation de la paie d’ici 2051 ?

Une étude menée par PayFit et YouGov explore les grandes tendances de la digitalisation des RH. Selon les résultats, 53% des décideurs RH français estiment que l’IA pourrait automatiser complètement la gestion de la paie d’ici 2051. Cette avancée permettrait aux équipes RH de se concentrer sur des missions stratégiques et humaines. « L’IA constitue une véritable révolution copernicienne. La formation et l’appropriation de cette technologie émergente sont des enjeux cruciaux pour les organisations. Si elle soulève des interrogations légitimes, l’IA se révèle être une alliée précieuse : elle allège les équipes RH des tâches chronophages et répétitives, tout en ouvrant la voie à de nouvelles interactions entre employés et employeurs », explique Sylvain Grande, CPO de PayFit.

La flexibilité au cœur des attentes

Dans un contexte d’inflation et d’évolution des modes de travail, la flexibilité devient un enjeu central. L’étude montre que 49% des entreprises françaises mettent en place des dispositifs d’acompte sur salaire. Ces mesures permettent aux collaborateurs d’accéder à une partie de leur rémunération avant la fin du mois. En parallèle, 40% des entreprises adoptent des systèmes d’avance sur salaire. Cette adaptation des pratiques reflète une volonté d’offrir des solutions plus souples et réactives, en phase avec les besoins variés des collaborateurs.

Que nous réservent l’IA et la digitalisation en RH d’ici peu ?

Les décideurs RH identifient plusieurs évolutions complexes du monde du travail. Parmi elles, la flexibilité des horaires (55%), les contrats courts (51%) et le télétravail (43%) modifient les configurations traditionnelles. Ces nouvelles exigences rendent la gestion de la paie plus complexe et accentuent l’importance de la digitalisation. Actuellement, seulement 34% des entreprises françaises de moins de 100 salariés utilisent un logiciel de paie. Cependant, 76% des décideurs reconnaissent que ces outils augmentent l’autonomie des équipes et réduisent les erreurs. Les entreprises se dotent d’outils qui combinent IA et digitalisation pour accompagner les transformations. Ces solutions permettent également de répondre aux attentes des salariés. Ces innovations promettent de redéfinir les pratiques RH et de simplifier la gestion des complexités liées aux évolutions du travail.

Article basé sur un reçu par la rédaction.

Cet article L’IA dans les RH : automatisation de la paie et stratégies d’avenir a été publié sur LEBIGDATA.FR.

1,2 million d’euros pour l’IA for Work de Cominty

Je vous rapporte une avancée marquante dans le monde de l’intelligence artificielle pour les entreprises. Cominty, une solution française d’IA générative sécurisée, a levé 1,2 million d’euros. Cette startup a été fondée en novembre 2023. Elle se distingue par une approche révolutionnaire pour transformer la manière dont les équipes exploitent les données pour maximiser leur productivité.

Une levée de fonds pour répondre à des enjeux critiques

Cominty n’est pas une IA ordinaire. Sa levée de fonds pré-seed de 1,2 million d’euros est soutenue par des Business Angels influents comme Pierre-Étienne Lorenceau. Il y a aussi le fonds ADNEXUS du Groupe ADSN. Cela permettra d’accélérer le développement de cet assistant plug-and-play. L’objectif ? Offrir un traitement intelligent des données et respecter les normes les plus strictes de sécurité. C’est le cas du RGPD et des certifications SOC 2 Type II. Ce financement est crucial pour peaufiner une IA qui n’est pas seulement un outil, mais un véritable partenaire pour les entreprises.

Fariha Shah, CEO de Cominty, partage sa vision : « Cominty AI n’est pas seulement un outil, c’est un partenaire qui transforme la manière dont les collaborateurs accèdent à l’information et l’exploitent dans la production de leurs tâches quotidiennes. » Une promesse ambitieuse qui place la technologie au service de l’efficacité collective.

Des attentes élevées envers l’IA générative

Il est indéniable que l’utilisation des agents IA est en plein essor. D’après Quantum by McKinsey, 60 % des salariés s’appuient déjà sur des solutions comme ChatGPT pour augmenter leur productivité. Cependant, ces IA généralistes présentent des limites notables : des risques de sécurité et une inadéquation aux besoins spécifiques des entreprises. Le manque d’outils efficaces pour analyser des volumes massifs d’informations se fait cruellement sentir. Cominty entend combler cette lacune avec l’ensemble des données internes, externes, et tacites pour générer des réponses pertinentes. Elle tient aussi à préserver l’intégrité des informations sensibles.

Didier Rossignol, CEO et Managing Partner d’Adnexus, souligne : « Nous avons été séduits par la performance de cette solution qui répond à un réel besoin de personnalisation et de sécurisation des informations, essentiel pour les professions réglementées. »

Une technologie au service de la productivité et de l’éthique

Cominty ne se contente pas d’offrir un simple outil d’IA, mais vise à transformer en profondeur les pratiques professionnelles. Son modèle propriétaire MIRROR identifie les experts internes pertinents et permet de valoriser les connaissances humaines, un atout stratégique pour renforcer la collaboration. Le plug-and-play de Cominty s’intègre en quelques clics à plus de 200 applications telles que Salesforce et Slack, sans compromettre les workflows existants.

Puisque la technologie façonne de plus en plus les environnements de travail, Cominty se positionne comme un acteur clé. Plus de 60 % des fonds levés seront alloués à la R&D pour anticiper de futures innovations, notamment des recommandations intelligentes et un contrôle qualité avancé des informations. Cominty semble bien placé pour devenir un leader de l’IA générative. Je trouve qu’elle mise sur la souveraineté technologique française et l’éthique des données. C’est cette vision ambitieuse, portée par une technologie avancée et des valeurs de sécurité intransigeantes, qui pourrait redéfinir les standards de productivité des entreprises.

Article basé sur un reçu par la rédaction.

Cet article 1,2 million d’euros pour l’IA for Work de Cominty a été publié sur LEBIGDATA.FR.

Assistance à distance : les nouvelles fonctionnalités IA de TeamViewer

TeamViewer, leader mondial de la connectivité à distance, innove avec Session Insights. Il embarque des fonctionnalités basées sur l’intelligence artificielle pour optimiser l’assistance IT. L’étude mondiale réalisée par l’entreprise démontre l’impact croissant de l’IA sur la productivité. Elle souligne l’importance pour les entreprises de s’adapter rapidement.

L’IA, levier essentiel de productivité

TeamViewer a mené une étude mondiale auprès de 1 400 décideurs IT et métiers. L’étude a révélé que 75 % d’entre eux considèrent l’IA comme cruciale pour l’efficacité en entreprise. Plus qu’un simple outil, elle libère jusqu’à 16 heures de productivité mensuelle pour les professionnels de l’IT. Je constate que cette technologie devient un facteur déterminant pour maintenir la compétitivité et maîtriser les coûts, surtout dans un contexte économique tendu. Les décideurs, dont 26 % avertissent que l’inaction entraînerait une perte de compétitivité, se tournent de plus en plus vers des solutions concrètes.

Session Insights, un atout stratégique

Pour répondre à ces besoins, TeamViewer a lancé Session Insights, un ensemble d’outils qui permet d’automatiser la documentation des interventions à distance et d’offrir des analyses précieuses. « L’adoption de l’IA connaît une croissance rapide, car les entreprises reconnaissent de plus en plus ses avantages tangibles en termes de productivité et de rationalisation des opérations, » explique Mei Dent, CPTO de TeamViewer. Ces nouvelles fonctionnalités aident les équipes à résoudre plus rapidement les incidents et à améliorer leur expertise, même avec des effectifs limités. La documentation automatisée représente un avantage notable. Elle réduit le temps consacré aux rapports et libère ainsi des ressources pour des tâches plus stratégiques.

 L’IA au service des entreprises et des carrières

L’IA ne se limite pas à la productivité, elle transforme également la carrière des professionnels. Selon l’étude, 72 % des participants considèrent que l’IA leur permet de se concentrer sur des tâches à forte valeur ajoutée, tandis que 70 % ont acquis de nouvelles compétences grâce à elle. En France, bien que l’adoption de l’IA soit plus lente, seuls 61 % des répondants qualifient leur utilisation de mature. Cela montre un retard comparé aux États-Unis. Cela souligne la nécessité d’accélérer les initiatives de formation pour rester compétitif à l’échelle mondiale. TeamViewer, par ce lancement stratégique, met l’IA au cœur de l’innovation, pour aider les entreprises à franchir un cap vers une productivité optimisée et un avenir plus connecté.

Article basé sur un reçu par la rédaction.

Cet article Assistance à distance : les nouvelles fonctionnalités IA de TeamViewer a été publié sur LEBIGDATA.FR.

Personnalisation des recrutements : le rôle clé de l’IA

L’intelligence artificielle (IA) transforme profondément les pratiques de recrutement en 2024. Approach People Recruitment, spécialiste international du secteur, met en lumière les changements apportés par l’IA dans l’automatisation des processus, la personnalisation des recommandations et la lutte contre les biais. Cependant, cette technologie ne remplace pas l’intelligence humaine, selon Laurent Girard-Claudon, fondateur de l’entreprise.

L’IA, moteur d’optimisation dans le recrutement

L’utilisation de l’intelligence artificielle devient un levier incontournable pour les professionnels des ressources humaines. Approach People Recruitment, cabinet spécialisé, explique comment l’IA automatise des tâches chronophages. Tel est le cas du tri de CV ou de la présélection. Grâce à ses algorithmes, l’IA traite d’immenses volumes de données. Elle permet aux recruteurs de se concentrer sur des interactions plus humaines et des évaluations approfondies.

Avec des modèles d’apprentissage automatique de plus en plus précis, l’IA affine la pertinence des recommandations de candidats. Les expériences professionnelles, compétences et préférences individuelles sont analysées afin de proposer des profils sur-mesure aux entreprises. Cette approche améliore la qualité des embauches. Elle renforce également l’adéquation entre les attentes des employeurs et celles des talents recrutés. Si l’IA ouvre la voie à une nouvelle efficacité dans le secteur, elle ne doit pas éclipser l’importance des relations humaines. Le futur défi sera donc de trouver un équilibre entre l’usage de l’intelligence artificielle et l’implication humaine pour un recrutement à la fois performant et humain.

Réduction des biais et équilibre entre technologie et humain

L’un des apports majeurs de l’IA réside dans sa capacité à minimiser les biais humains dans le processus de sélection. A partir des critères objectifs, l’IA garantit une évaluation plus juste et diversifiée des candidats. Cette évolution permet de favoriser une culture de recrutement inclusive et équitable.

Laurent Girard-Claudon, fondateur d’Approach People Recruitment, insiste toutefois sur la nécessité de préserver l’intelligence humaine dans ces processus. Il dit : « L’IA n’est plus simplement une tendance, c’est une nécessité dans le monde du recrutement moderne. Elle permet une analyse approfondie des données, une personnalisation sans précédent et une réduction significative des biais, créant ainsi des opportunités inédites pour les entreprises et les candidats. Cette aide précieuse et prometteuse ne doit cependant pas se substituer à l’intelligence humaine. Sans l’approche humaine dans le monde du recrutement, nous risquons un désengagement des candidats, des messages inadéquats et des recrutements déshumanisés. »

Les outils d’intelligence artificielle apportent également des avantages supplémentaires. Reformuler les annonces en fonction de la culture d’entreprise, synthétiser des documents complexes en un temps record ou encore fournir une source d’inspiration pour la rédaction de contenus sont autant d’applications qui illustrent le potentiel de cette technologie.

Article basé sur un reçu par la rédaction.

Cet article Personnalisation des recrutements : le rôle clé de l’IA a été publié sur LEBIGDATA.FR.

SOC autonome : SentinelOne lance l’automatisation de la sécurité

SentinelOne a dévoilé de nouvelles innovations pour concrétiser sa vision d’un Centre d’Opérations de Sécurité (SOC) autonome. Ces nouvelles solutions visent à automatiser la réponse aux menaces et à améliorer l’efficacité des équipes de sécurité. Elles sont souvent submergées par des tâches répétitives et des volumes d’alertes croissants.

Singularity Hyperautomation : le SOC autonome à portée de main

Je partage l’annonce d’une avancée majeure avec Singularity Hyperautomation. Cette solution permet d’automatiser les workflows de sécurité via une interface intuitive en drag and drop, sans nécessiter de code. Elle s’intègre facilement aux API et solutions de sécurité en place. Cela réduit la complexité opérationnelle et permet aux équipes de se concentrer sur des activités à forte valeur ajoutée. Grâce à Hyperautomation, les entreprises bénéficient d’une réactivité accrue face aux menaces, avec des centaines de workflows préconçus et personnalisables.

SentinelOne promet ainsi d’accélérer la prise de décision et de libérer du temps pour les analystes. Il optimise des tâches critiques comme la surveillance de la conformité ou la gestion des ransomwares. « Depuis sa création, SentinelOne a été le pionnier de l’utilisation de l’IA pour automatiser la réponse aux menaces et la remédiation. Aujourd’hui, nous réalisons la promesse du SOC autonome en libérant toute la puissance de l’IA et des données », a déclaré Ric Smith, President Product Technology and Operations chez SentinelOne.

Singularity AI SIEM : une gestion des données repensée

Avec Singularity AI SIEM, SentinelOne redéfinit le concept de gestion des événements de sécurité (SIEM). Ce système cloud-native permet l’intégration de données structurées et non structurées issues d’écosystèmes variés. Il offre une visibilité instantanée sur l’ensemble des environnements informatiques.

AI SIEM ne repose pas sur l’indexation classique des données, ce qui améliore la rapidité des investigations et facilite la détection en temps réel. Les analystes peuvent désormais automatiser des processus complexes et identifier rapidement les menaces grâce aux capacités avancées d’IA. Cette approche garantit une protection optimale face aux cyberattaques émergentes. Cela renforce la capacité d’adaptation des SOC.

Purple AI : l’automatisation au service des alertes

Purple AI, un autre pilier de l’offre de SentinelOne, automatise le traitement et le tri des alertes. Pour réduire la « fatigue d’alertes », cette solution aide les analystes à se concentrer sur les incidents critiques. Avec la fonctionnalité Auto-Alert Triage, l’IA identifie en priorité les alertes qui nécessitent une intervention immédiate.

En outre, Purple AI accompagne les équipes dans des enquêtes complexes. Il traduit les données de sécurité en requêtes exploitables. L’outil propose aussi un carnet d’enquête partagé pour faciliter le reporting et la collaboration entre les intervenants. Avec ces innovations, SentinelOne ambitionne de définir de nouveaux standards en cybersécurité. Singularity Hyperautomation, AI SIEM et Purple AI forment une solution intégrée qui transforme la gestion de la sécurité.

Ultraviolet, une famille de modèles de sécurité, complète cette offre. Il tire parti de modèles multimodaux conçus pour répondre aux besoins spécifiques de la cybersécurité. Cette gamme promet une efficacité accrue dans la détection et une plus grande autonomie dans la gestion des menaces. Elle optimise les ressources disponibles.

Article basé sur un reçu par la rédaction.

Cet article SOC autonome : SentinelOne lance l’automatisation de la sécurité a été publié sur LEBIGDATA.FR.

Détection des contenus vocaux falsifiés : l’AI Speech Detector arrive

L’AI Speech Detector, développé par Ircam Amplify, permet de vérifier rapidement l’authenticité des enregistrements vocaux. Avec un taux de précision de 98 %, cet outil vise à lutter contre les deepfakes vocaux.

Ircam Amplify, acteur reconnu dans l’innovation sonore, a annoncé hier – 15 Octobre 2024 – la sortie de l’AI Speech Detector. C’est un outil innovant capable de détecter les contenus vocaux falsifiés ou deepfakes avec une précision impressionnante de 98 %. Ce nouvel outil se positionne en réponse aux préoccupations croissantes autour des usurpations d’identité vocale et des fausses informations.

Un outil à la pointe de la technologie pour la détection vocale

Après le succès de son AI Music Detector, Ircam Amplify continue d’innover avec l’AI Speech Detector. Cet outil permet d’authentifier les enregistrements vocaux en quelques secondes. Le processus est simple : il suffit de charger l’enregistrement suspect sur la plateforme dédiée, et l’outil se charge de l’analyse. L’authenticité vocale est ainsi vérifiée, avec la possibilité de connaître le moteur de clonage vocal utilisé pour la création de l’audio.

Ce lancement répond à des enjeux majeurs pour les médias, les entreprises et les institutions publiques. Tous font face à un afflux croissant de contenus potentiellement trompeurs. « Dans un contexte politique tendu et un besoin croissant pour les médias de vérifier la fiabilité des informations reçues, cette innovation […] répond à l’ambition première d’Ircam Amplify : développer des produits et des services toujours plus innovants qui transforment la façon dont nous vivons et utilisons le son, partout dans le monde », déclare Nathalie Birocheau, co-fondatrice et CEO d’Ircam Amplify.

Un enjeu de sécurité publique

L’AI Speech Detector arrive à point nommé pour répondre à la montée en puissance des deepfakes vocaux, utilisés de plus en plus fréquemment dans des campagnes de désinformation ou d’usurpation d’identité digitale. Dans un contexte où les élections américaines approchent et où la vérification des sources devient cruciale, cet outil offre une solution technologique précieuse.

Ircam Amplify, avec son expertise unique en technologie sonore, s’impose ici comme un acteur incontournable dans la lutte contre les fausses informations. L’AI Speech Detector, avec son taux de précision élevé, garantit aux utilisateurs une fiabilité dans l’analyse des enregistrements audio, qu’ils soient de nature politique, médiatique ou commerciale.

Une entreprise française à la pointe de l’innovation sonore

Ircam Amplify s’est rapidement imposée dans le domaine des technologies audio basées sur l’IA. L’entreprise offre une gamme de services. Cela va du clonage de voix à la création de contenus sonores innovants, en passant par la spatialisation du son. Sa mission : transformer l’accès aux innovations sonores de manière responsable.

En cinq ans, cette start-up française a levé 7 millions d’euros et compte des clients prestigieux tels que Louis Vuitton, Warner Music, ou encore GoPro. Son objectif ? Amplifier les usages du son et respecter une éthique technologique forte. Elle veille à ce que chaque innovation réponde à un besoin réel et utilisée de manière utile et harmonieuse.

Article basé sur un reçu par la rédaction.

Cet article Détection des contenus vocaux falsifiés : l’AI Speech Detector arrive a été publié sur LEBIGDATA.FR.

Devoteam mise sur l’IA pour atteindre 2 milliards d’euros en 2028

Devoteam a dévoilé son nouveau plan stratégique « AMPLIFY », une initiative ambitieuse pour renforcer sa position dans le domaine de l’intelligence artificielle (IA). Ce plan s’étend jusqu’à 2028. Il vise à doubler le chiffre d’affaires de l’entreprise pour atteindre 2 milliards d’euros, dont 50 % seront générés par des projets liés à l’IA. Devoteam prévoit également de former l’intégralité de ses employés à l’IA générative.

Un plan pour doubler le chiffre d’affaires

Le 10 octobre 2024, Devoteam a annoncé son plan « AMPLIFY », un projet à long terme qui s’étendra jusqu’en 2028. L’objectif de cette initiative est donc de renforcer la position de l’entreprise en tant que leader des technologies guidées par l’IA. « Nous avons construit une position en EMEA de leader du , de la Data et de la Cybersécurité.« , a déclaré Stanislas de Bentzmann, co-fondateur et Président de Devoteam.

Devoteam vise à doubler son chiffre d’affaires en quatre ans pour atteindre 2 milliards d’euros en 2028. Parmi cet objectif, 50 % du revenu devrait provenir de projets liés à l’IA. En 2023, seulement 5 % des services de l’entreprise étaient liés à l’IA. Ce pourcentage devrait atteindre 20 % en 2024 et 50 % en 2028. Cet objectif sera atteint grâce à une combinaison de croissance organique et d’acquisitions stratégiques.

La formation, un pilier du plan AMPLIFY

L’une des priorités du plan « AMPLIFY » est la formation. Devoteam s’engage à former 100 % de ses 11 000 collaborateurs à l’IA générative. Cet effort de formation a pour but de renforcer l’adoption des nouvelles technologies par l’entreprise. Devoteam peut ainsi conserver son leadership en matière de transformation technologique.

Cette démarche s’inscrit dans la vision de Devoteam de devenir une « learning company« . Dans ce cas de figure, les employés sont en constante formation et certification. « L’IA ne doit pas seulement être performante, elle doit être déployée de manière éthique« , souligne Devoteam. Elle met un point d’honneur à garantir la transparence et la responsabilité dans ses projets IA.

Des partenariats stratégiques pour soutenir la transformation IA

Pour renforcer son expertise, Devoteam s’appuie sur des partenariats avec les géants de la technologie. Citons entre autres AWS, Google Cloud, Microsoft Azure et . Ces collaborations permettent à l’entreprise de rester à l’avant-garde de l’IA et d’accompagner ses clients dans leurs projets de transformation numérique.

Ces partenariats stratégiques sont renforcés par des projets concrets. Il y a, par exemple, celui réalisé pour La Poste portugaise, avec le premier chatbot transactionnel sur Azure. Il y a aussi la chaîne hôtelière européenne Strawberry, où un assistant a été développé pour 20 000 employés. Ces exemples montrent l’étendue des capacités de Devoteam à intégrer l’IA dans des secteurs variés.

Article basé sur un reçu par la rédaction.

Cet article Devoteam mise sur l’IA pour atteindre 2 milliards d’euros en 2028 a été publié sur LEBIGDATA.FR.

Miro transforme l’innovation collaborative avec sa plateforme IA

Miro, leader de la collaboration visuelle, dévoile son espace de travail pour l’innovation, une plateforme alimentée par l’intelligence artificielle (IA). Conçue pour faciliter le processus créatif des équipes, elle propose des fonctionnalités avancées. Tel est le cas du prototypage piloté par IA et des intégrations avec des outils populaires. Grâce à une transition fluide entre les étapes de conception et d’exécution, Miro réinvente la manière dont les équipes innovent et livrent des projets.

https://www.youtube.com/watch?v=RfwvkjeqEhk

Une plateforme axée sur l’innovation

Le lancement de l’espace de travail pour l’innovation représente une avancée majeure pour Miro depuis 2012. Cet outil permet aux équipes de gérer efficacement l’ensemble du processus, de l’idée à la livraison. Contrairement aux autres applications de productivité qui se concentrent sur des tâches spécifiques, Miro adopte une approche globale. Elle intègre des fonctionnalités IA dans les workflows.

Andrey Khusid, co-fondateur et PDG de Miro, souligne : « L’espace de travail pour l’innovation est la première plateforme conçue spécifiquement pour aider les équipes à naviguer rapidement entre les phases du processus, tout en embrassant la créativité comme une composante essentielle de l’innovation. » Avec des fonctionnalités comme le prototypage IA et l’intégration avec des applications comme Microsoft Copilot, Miro vise à accélérer la transformation des idées en projets concrets.

Une approche centrée sur le canevas

L’espace de travail pour l’innovation repose sur le canevas. Il offre un environnement flexible et inclusif pour le travail en équipe. Que ce soit pour la phase de brainstorming, la documentation, ou encore le suivi des tâches, Miro permet une transition fluide entre les formats non structurés et structurés. Ce canevas se distingue par sa capacité à gérer une variété de formats média et rend la collaboration encore plus interactive.

Jeff Chow, CPTO chez Miro, précise : « Une approche axée sur le canevas relie les équipes et leur travail dans tous les formats, qu’il s’agisse de communication, de suivi des tâches, ou de réunions virtuelles. Miro permet de concrétiser le travail au lieu de simplement en faire le suivi. »

Au-delà de l’innovation, Miro met un point d’honneur à la sécurité. La plateforme intègre Miro Enterprise Guard, qui classe et protège automatiquement les informations sensibles. Cette fonctionnalité permet aux entreprises de renforcer leurs pratiques de sécurité. Par ailleurs, la personnalisation est au cœur de l’expérience Miro avec plus de 150 intégrations disponibles. Cela peut aller de Microsoft 365 à Adobe Express. Il ne faut pas oublier les widgets modulaires adaptés aux besoins de chaque organisation.

Article basé sur un reçu par la rédaction.

Cet article Miro transforme l’innovation collaborative avec sa plateforme IA a été publié sur LEBIGDATA.FR.

SEO 2025 : Les nouvelles règles du jeu avec l’IA

2025 sera une année charnière pour le SEO, avec la montée en puissance de l’intelligence artificielle (IA). Alors que les géants du secteur continuent d’innover, les entreprises doivent adapter leurs stratégies pour faire face à cette nouvelle réalité. Frédéric Jutant, Responsable Marketing chez Icarus Media Digital, partage avec nous son analyse concernant l »avenir du SEO à l’ère de l’IA en 2025.

2025 : Une année décisive pour le SEO

Le paysage du SEO en 2025 est en pleine mutation avec l’émergence de l’intelligence artificielle générative. Les entreprises sont confrontées à des défis sans précédent alors que l’IA modifie les règles du jeu. Les modèles de langage évoluent. Cela impacte profondément la manière dont le contenu est créé et classé sur les moteurs de recherche. Comme l’explique Frédéric Jutant, Responsable Marketing chez Icarus Media Digital : « 2025 s’annonce comme un tournant majeur pour le SEO, avec la nécessité d’anticiper ces bouleversements technologiques. »

En 2024, les investissements dans l’IA se sont intensifiés. Des entreprises comme , et rivalisent pour dominer le marché. Selon le communiqué, 2025 ne fera qu’amplifier cette dynamique avec des investissements toujours plus massifs dans le développement de modèles de langage. Ces innovations représentent un défi de taille pour les entreprises qui devront ajuster leurs stratégies face à cette réalité économique. Les coûts d’entraînement de ces modèles explosent, ce qui met à mal la rentabilité des acteurs plus modestes. Une consolidation du secteur est à prévoir, où seules les entreprises les plus résilientes pourront survivre.

Google à l’épreuve des nouveaux acteurs

Malgré sa position de leader, Google doit faire face à une concurrence croissante. Des acteurs tels que OpenAI, et bousculent la suprématie du géant de la recherche. Les alternatives se multiplient, notamment avec le lancement de SearchGPT par OpenAI et des initiatives comme Claude d’Anthropic, qui mettent l’accent sur une IA éthique.

En parallèle, Google se retrouve confronté à une difficulté majeure : la qualité des résultats de recherche. L’essor de l’IA a conduit à une prolifération de contenu généré automatiquement. Cela complique la tâche pour les algorithmes de Google, qui doivent désormais distinguer le contenu de qualité des textes médiocres. Le risque est simple : si Google ne parvient pas à relever ce défi, les utilisateurs pourraient se tourner vers d’autres plateformes. Cela menaçe ainsi son modèle publicitaire.

Les experts de l’industrie anticipent une refonte des critères de classement de Google, qui devront évoluer pour intégrer des facteurs liés à l’IA. L’optimisation traditionnelle basée sur les mots-clés ou les balises méta ne suffira plus. Désormais, les entreprises devront adopter une approche marketing plus centrée sur la valeur utilisateur et l’engagement authentique. À long terme, l’intelligence artificielle va continuer de transformer en profondeur les pratiques du SEO. En 2025, les marques qui réussiront seront celles qui auront su allier innovation technologique et authenticité dans leur communication.

Article basé sur un reçu par la rédaction.

Cet article SEO 2025 : Les nouvelles règles du jeu avec l’IA a été publié sur LEBIGDATA.FR.

Haliro : la solution IA pour une RSE plus rapide et efficace

La réglementation autour de la Responsabilité Sociétale des Entreprises (RSE) se complexifie. Haliro, sous la direction d’Olivier Soudée, offre des solutions innovantes pour aider les entreprises à intégrer ces obligations plus efficacement. Avec une plateforme alimentée par l’Intelligence Artificielle, Haliro facilite la gestion des normes RSE tout en permettant de gagner du temps.

Une réponse technologique aux défis de la RSE avec Haliro

À mesure que les réglementations liées à la Responsabilité Sociétale des Entreprises (RSE) se durcissent, de plus en plus de dirigeants se retrouvent confrontés à des défis majeurs. Cela concerne les directeurs de développement durable et les commissaires aux comptes. Les normes comme la CSRD (Corporate Sustainability Reporting Directive) et les ESRS (European Sustainability Reporting Standards) imposent une complexité accrue dans la gestion des rapports de durabilité.

C’est dans ce contexte que Haliro se positionne comme un acteur central. La startup est dirigée par Olivier Soudée, diplômé de l’INSEAD et entrepreneur en série. Elle s’appuie sur l’intelligence artificielle pour simplifier la gestion des enjeux RSE. Haliro propose une plateforme qui permet aux entreprises de naviguer facilement dans les régulations en constante évolution. De plus, elle offre des données et des benchmarks sectoriels précis. « Choisir Haliro, c’est trouver un partenaire qui au quotidien vous aide à naviguer à travers les enjeux ESG« , témoigne Solène Borel, ESG Manager chez Alvest. Ce sentiment est partagé par de nombreuses grandes entreprises telles que Big Ben. Elles se disent satisfaites des solutions proposées par Haliro pour simplifier la mise en place de leurs politiques RSE.

Une solution clé pour une conformité simplifiée

La plateforme développée par Haliro permet un accès instantané à plus de 2 700 documents réglementaires. Les entreprises y trouvent des analyses sectorielles ainsi que des données globales et locales adaptées à leur secteur d’activité. Grâce à cette solution, les utilisateurs peuvent diviser par dix le temps consacré à l’analyse des normes RSE, selon les déclarations de la société. Un autre avantage clé réside dans l’accompagnement personnalisé offert par Haliro. En effet, les utilisateurs peuvent poser leurs questions directement à des experts en matière de régulation. C’est le cas notamment sur des normes aussi complexes que la CSRD ou les ESRS. Ce soutien est crucial dans un environnement où la conformité devient une priorité absolue.

Outre la simplification des tâches administratives, Haliro permet aux entreprises de comparer leurs performances ESG (Environnement, Social, Gouvernance) avec celles de leurs fournisseurs, clients et concurrents, à l’échelle mondiale. Cette approche permet de mieux comprendre les dynamiques du marché. Elle offre la possibilité de rester compétitif et d’être conforme aux dernières régulations. L’entreprise semble promise à un bel avenir. En effet, de plus en plus de sociétés cherchent à concilier durabilité, rentabilité et conformité réglementaire dans un monde en rapide évolution.

Article basé sur un reçu par la rédaction.

Cet article Haliro : la solution IA pour une RSE plus rapide et efficace a été publié sur LEBIGDATA.FR.

L’IA, nouvel enjeu de la cybersécurité : arme à double tranchant pour les entreprises


Une étude OpinionWay pour Vade révèle que l’intelligence artificielle (IA) bouleverse l’équilibre des forces dans la cybersécurité. Attaques plus sophistiquées, défense renforcée, le rôle de l’IA divise les dirigeants d’entreprises.

Les résultats d’une récente étude menée par OpinionWay pour Vade, entreprise spécialisée dans la cybersécurité, mettent en lumière un paradoxe troublant. L’intelligence artificielle renforce la cybersécurité des entreprises, elle facilite également les cyberattaques

L’IA, une menace autant qu’une protection

L’étude révèle une perception partagée parmi les dirigeants interrogés. Cette enquête a été réalisée auprès de 500 dirigeants français d’entreprises de plus de 10 salariés. Elle soulève des questions essentielles sur l’avenir de la cybersécurité à l’ère de l’IA. Près d’un tiers (30 %) d’entre eux estiment que l’IA favorise les cyberattaques. 28 % pensent qu’elle renforce la cybersécurité de leur organisation. Pour 33 %, l’IA agit dans les deux camps à parts égales. Cela illustre une complexité croissante dans le paysage de la cybersécurité.

Un dirigeant interrogé souligne : « L’IA est une arme à double tranchant, elle peut être utilisée pour protéger mais aussi pour attaquer. » Les petites entreprises, en particulier celles avec 10 à 19 salariés, estiment majoritairement que l’IA contribue à un jeu d’équilibre entre menace et défense.

Les PME, premières victimes des cyberattaques

Les entreprises de taille moyenne (20 à 49 salariés) semblent les plus vulnérables face aux cybermenaces. Selon l’étude, 61 % de ces structures ont déjà subi au moins une cyberattaque, un chiffre nettement supérieur à la moyenne globale de 50 %. Elles sont également 37 % à penser que l’IA donne un avantage aux cybercriminels. En comparaison, les grandes entreprises, mieux armées pour se défendre, perçoivent un équilibre plus stable entre les risques et les bénéfices apportés par l’IA. Ainsi, seulement 16 % des grandes entreprises considèrent que l’IA profite principalement aux attaquants.

Un autre point crucial soulevé par l’étude est l’évolution des cyberattaques rendue possible par l’IA. Près de 73 % des dirigeants interrogés reconnaissent que l’IA a permis aux cybercriminels de rendre leurs attaques plus sophistiquées. Cette proportion grimpe à 79 % parmi les entreprises qui ont déjà été attaquées. Les attaques assistées par IA, telles que le phishing et la compromission des emails professionnels (BEC), inquiètent particulièrement les dirigeants, qui y voient des menaces de plus en plus difficiles à contrer.

Malgré ces préoccupations, l’IA reste perçue comme un outil indispensable dans la lutte contre les cybermenaces. Environ 81 % des entreprises intègrent déjà des solutions basées sur l’IA pour protéger leurs systèmes. Les priorités concernent le filtrage des emails, la détection des menaces avancées et l’amélioration des politiques de sécurité.

Article basé sur un reçu par la rédaction.

Cet article L’IA, nouvel enjeu de la cybersécurité : arme à double tranchant pour les entreprises a été publié sur LEBIGDATA.FR.

Mozilla crée un écosystème d’IA publique open source

Mozilla dévoile un plan ambitieux pour un écosystème d’intelligence artificielle (IA) axé sur le bien public. Il appelle au soutien des gouvernements et des citoyens pour développer des alternatives à l’IA privée.

Une alternative à l’IA privée émerge

Mozilla est connu pour ses initiatives open source, il présente aujourd’hui sa vision d’une IA publique. C’est un ensemble d’actions destinées à offrir une alternative aux solutions dominées par les grandes entreprises technologiques. L’objectif est de créer un écosystème d’outils et de services qui promeuvent une utilisation éthique et accessible de l’IA. Il faut ainsi mettre l’accent sur le bien commun plutôt que sur le profit.

L’entreprise met en avant un parallèle évident : dans de nombreux domaines, des alternatives publiques coexistent avec les offres privées. Par exemple, les chaînes de télévision publiques ou les services postaux nationaux offrent un service complémentaire, voire essentiel, aux entreprises privées. Mozilla s’interroge donc : où sont les équivalents publics dans l’IA ?

Dans les mois à venir, l’IA publique deviendra un pilier de la stratégie globale de Mozilla. C’est dans le cadre d’une vision plus large de l’IA de confiance, telle que présentée dans le document Accelerating Progress Toward Trustworthy AI publié en début d’année. Le rapport final, à venir, soulignera l’importance de cette approche pour garantir un avenir numérique plus juste et équitable.

Une répartition inégale des ressources

Les initiatives publiques dans le domaine de l’IA sont encore rares, bien que certains gouvernements commencent à subventionner l’accès à des ressources informatiques pour les laboratoires de recherche. Cependant, ces projets ne disposent pas des mêmes moyens financiers que les géants de la tech. Ces derniers ont investi des centaines de milliards de dollars dans leurs propres outils d’IA. Mozilla alerte sur cette inégalité. Il estime que certains projets d’IA à fort potentiel sociétal, comme ceux liés à la détection des activités illégales ou à la facilitation de la démocratie participative, sont sous-financés.

Face à cela, Mozilla appelle à une action collective pour développer un contrepoids significatif à l’écosystème privé. L’entreprise estime qu’il ne suffit pas que certaines ressources soient mises à disposition de manière plus accessible. Il faut un véritable écosystème parallèle capable de rivaliser avec les grandes entreprises.

Mozilla prévoit de continuer à soutenir des projets d’IA publics via le Mozilla Technology Fund, qui attribue des subventions aux initiatives open source. Mozilla plaide pour une collaboration internationale autour de ces questions, notamment lors du AI Action Summit, qui se tiendra à Paris l’année prochaine.

Un écosystème robuste pour une IA éthique

Mozilla présente également des actions concrètes pour promouvoir cet écosystème. L’entreprise renforce sa plateforme Common Voice, qui collecte des données vocales multilingues pour entraîner des modèles d’IA diversifiés. L’objectif est de rendre les technologies vocales accessibles à toutes les langues, pas seulement à celles qui bénéficient des efforts commerciaux actuels.

De plus, Mozilla continue d’investir dans l’IA open source par le biais de sa plateforme Mozilla.ai. Il y a aussi des projets comme Llamafile, un outil pour permettre d’exécuter des modèles d’IA localement, sans passer par des fournisseurs de commerciaux. Mozilla rappelle que le soutien du public, des gouvernements et des développeurs est crucial pour réussir ce pari.

Le projet d’une IA publique ne pourra se concrétiser que si tous les acteurs s’impliquent. Mozilla invite les décideurs politiques à soutenir des données, des outils et une main-d’œuvre dédiée. Il encourage les développeurs à créer des modèles d’IA open source robustes. L’entreprise annonce également des investissements continus dans l’écosystème de la responsabilité de l’IA, essentiel pour garantir une utilisation éthique de ces technologies.

Article basé sur un reçu par la rédaction.

Cet article Mozilla crée un écosystème d’IA publique open source a été publié sur LEBIGDATA.FR.

Box Hubs : l’outil indispensable pour le transfert et le partage de données en entreprise

Box Inc. annonce la disponibilité générale de Box Hubs, une solution destinée à améliorer la gestion et la publication de contenu au sein des entreprises. Grâce à Box AI, ce nouvel outil permet aux collaborateurs d’accéder rapidement à des informations précises et actualisées. L’objectif principal est de favoriser la collaboration  et de garantir la sécurité des données. Box Hubs s’impose comme une réponse aux défis contemporains de l’organisation et du partage des informations.

Une solution personnalisable et efficace

Les Box Hubs se présentent comme des portails personnalisables. Ils facilitent l’accès aux informations critiques pour les employés. Cette solution se distingue par sa capacité à regrouper diverses ressources en un seul endroit, qu’il s’agisse de politiques internes, de formations commerciales ou de ressources marketing. Diego Dugatkin, Directeur Produit chez Box, souligne l’importance de cet outil : « Les entreprises d’aujourd’hui doivent favoriser la collaboration tout en garantissant la sécurité de leur contenu.« 

Box Hubs propose également des fonctionnalités innovantes. Les utilisateurs peuvent partager leurs portails en toute sécurité avec des partenaires et des agences. Le système de recherche globale de Box simplifie la localisation des fichiers, tandis que de nouvelles options, comme les liens personnalisés et les signets, optimisent la navigation. Les entreprises peuvent également respecter les nouvelles exigences de conformité fédérales, telles que la Section 508.

Une expérience utilisateur optimisée grâce à l’IA

Box AI joue un rôle crucial dans l’efficacité des Box Hubs. Les entreprises qui utilisent le plan Enterprise Plus peuvent poser des questions sur tous les documents d’un Hub. Ce système fournit des réponses rapides et précises, avec des citations faciles à suivre. Ce niveau de transparence renforce la confiance des utilisateurs dans les informations récupérées.

De nombreux clients de Box adoptent déjà cette technologie. Par exemple, une organisation municipale a créé un Hub RH afin de rassembler divers documents pour faciliter l’accès à l’information. Mike Jordan, responsable de l’équipe des outils de collaboration chez Exact Sciences, exprime l’impact positif de cette solution : « Box Hubs permet à nos employés d’accéder à des portails afin de trouver facilement des informations pertinentes pour leur travail.« 

D’autres entreprises, comme une agence de marketing, utilisent Box Hubs pour centraliser des ressources créatives. Cela permet aux équipes de conception d’accéder rapidement aux éléments essentiels pour leurs campagnes. Ces exemples démontrent comment Box Hubs transforme les processus de travail.

Un outil indispensable pour les entreprises modernes

Box Hubs répond aux défis croissants des entreprises modernes. Mel Brue, Vice-Président chez Moor Insights & Strategy, évoque les difficultés d’organisation et d’extraction d’informations : « Les employés perdent d’innombrables heures chaque semaine à chercher l’information dont ils ont besoin. » Box Hubs, avec ses capacités de recherche alimentées par l’IA, permet de simplifier ce processus.

Le lancement de Box Hubs est une avancée significative pour toutes les entreprises qui souhaitent optimiser leur gestion de contenu. L’outil est disponible pour tous les utilisateurs de Box sur les plans Enterprise et supérieurs. Pour ceux intéressés par les fonctionnalités de Box AI, l’accès est prévu dans le plan Enterprise Plus. Pour en savoir plus, il est possible de s’inscrire à un webinaire sur Box Hubs et de participer à BoxWorks, prévu pour le 12 novembre.

Box Hubs se positionne comme un atout majeur pour les entreprises en quête d’amélioration dans la gestion de leur contenu. Avec une approche centrée sur la collaboration et la sécurité, cette solution répond aux besoins actuels des organisations modernes. Les utilisateurs peuvent désormais tirer parti d’un accès rapide à l’information pour faciliter leur quotidien professionnel.

Article basé sur un reçu par la rédaction.

Cet article Box Hubs : l’outil indispensable pour le transfert et le partage de données en entreprise a été publié sur LEBIGDATA.FR.

La conformité IT au cœur de l’IA éthique

L’intelligence artificielle (IA) révolutionne le monde des affaires. Elle devient un levier essentiel pour exploiter les données à grande échelle. Cependant, cette transformation s’accompagne de défis en matière de conformité IT. Les entreprises doivent naviguer dans un paysage réglementaire complexe et veiller à respecter des normes strictes pour éviter des sanctions financières et protéger leur réputation.

Une révolution aux implications juridiques

L’IA transforme les processus d’affaires et améliore la productivité. Toutefois, elle soulève des interrogations sur la protection des données, l’éthique et le respect des réglementations. Avec l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD) en Europe, les entreprises font face à une pression accrue. Chaque faille dans ce domaine peut nuire à leur image et entraîner de lourdes amendes. Il est crucial pour les organisations de comprendre les lois et de garantir que leur utilisation de l’IA respecte les normes de conformité.

Antony Derbes, Président d’Open Lake Technology, souligne cette nécessité : « La conformité ne doit pas être perçue comme une contrainte, mais plutôt comme une opportunité de renforcer la confiance des clients et des partenaires. » Cette vision proactive permet aux entreprises de tirer parti de l’IA tout en respectant les normes légales. En intégrant dès la conception des systèmes d’IA les principes de conformité, elles se donnent les moyens d’éviter des complications futures.

Approche proactive en matière de conformité

Investir dans des solutions technologiques adaptées est essentiel. Les entreprises doivent automatiser les processus de conformité pour s’adapter aux évolutions réglementaires. Une IA bien déployée peut jouer un rôle déterminant. Elle peut surveiller en continu les flux de données, détecter les anomalies et alerter les responsables en cas de risque de non-conformité.

Les entreprises doivent également se concentrer sur l’éthique de l’IA. Une utilisation responsable de cette technologie permet d’éviter les biais algorithmiques et de respecter la vie privée des utilisateurs. Une approche éthique garantit l’équité dans les décisions automatisées. Les entreprises qui s’engagent dans cette voie ne se contentent pas de respecter les règles. Elles contribuent à bâtir un environnement technologique plus juste et durable.

Une responsabilité partagée pour l’innovation

Intégrer la conformité IT au cœur de la stratégie d’IA est indispensable pour toute entreprise innovante. L’innovation technologique doit aller de pair avec une responsabilité accrue, en particulier pour le déploiement des solutions d’IA. Accompagner les organisations dans la mise en œuvre de ces solutions conformes et éthiques est essentiel. Cela permet de naviguer dans un paysage réglementaire en constante évolution.

Adopter une expertise technique solide et une compréhension claire des enjeux légaux est crucial. Travailler étroitement avec les parties prenantes permet de créer des solutions sur mesure. Ces solutions répondent aux exigences actuelles et anticipent les défis futurs. Cette démarche constitue un gage de réussite pour les entreprises.

L’intelligence artificielle est un atout majeur pour les entreprises modernes. Son utilisation doit s’accompagner de prudence et de responsabilité. Avec la conformité IT dans leur stratégie d’IA, les entreprises se protègent des risques juridiques. Elles se positionnent également comme des leaders de l’innovation éthique. Une telle approche permet de bâtir un avenir où l’IA et la conformité œuvrent ensemble pour le succès et la durabilité de l’entreprise.

Article basé sur un reçu par la rédaction.

Cet article La conformité IT au cœur de l’IA éthique a été publié sur LEBIGDATA.FR.

AutoCut : un allié pour les monteurs DaVinci Resolve

L’outil AutoCut, déjà plébiscité pour son efficacité avec Premiere Pro, franchit une nouvelle étape. Désormais compatible avec DaVinci Resolve, il offre aux monteurs vidéo des fonctionnalités optimisées par l’intelligence artificielle.

Le logiciel AutoCut, bien connu des utilisateurs de Premiere Pro, élargit aujourd’hui son horizon. En devenant compatible avec DaVinci Resolve, il apporte aux éditeurs vidéo de nouveaux outils innovants. Ces fonctionnalités sont conçues pour simplifier le montage. Il libère ainsi les créateurs des tâches répétitives.

Une nouvelle ère pour les monteurs sur DaVinci Resolve

Fondée en 2021, AutoCut s’est rapidement imposée comme un acteur incontournable dans le domaine de l’automatisation du montage vidéo. Grâce à ses outils intuitifs et intelligents, AutoCut permet aux monteurs de se concentrer sur l’essentiel : la créativité. Les utilisateurs sont allégés des tâches répétitives et fastidieuses. L’entreprise a su gagner la confiance des professionnels et des amateurs du monde entier.

Cette compatibilité ouvre des perspectives intéressantes aux professionnels et amateurs de la vidéo. Adrian Guery, co-fondateur d’AutoCut, s’exprime sur cette avancée : « Nous sommes extrêmement fiers d’offrir la puissance d’AutoCut aux utilisateurs de DaVinci Resolve. Notre mission est claire : simplifier le montage vidéo, quel que soit le logiciel utilisé. Cette intégration n’est que le début, et nous avons hâte de voir la créativité des monteurs s’épanouir grâce à nos outils. »

Cette évolution ne s’est pas faite sans une écoute attentive de la communauté. En effet, l’équipe d’AutoCut a su répondre aux attentes de ses utilisateurs. « Cette expansion vers DaVinci Resolve est le fruit d’une collaboration avec notre communauté. Nous avons écouté les retours des utilisateurs et travaillé sans relâche pour répondre à leurs attentes », ajoute Adrian Guery. Grâce à une équipe de six développeurs, AutoCut est en mesure d’offrir un support technique dédié, ainsi que des mises à jour régulières.

Quatre fonctionnalités majeures pour optimiser le montage

Les utilisateurs de DaVinci Resolve ont désormais accès à quatre fonctionnalités clés. Ces outils, alimentés par l’intelligence artificielle, permettent d’accélérer et d’améliorer la qualité du montage vidéo.

AutoCut Silences : Cette fonctionnalité supprime automatiquement les pauses inutiles. Elle facilite ainsi le processus de montage. Elle permet aux monteurs de se concentrer sur l’essentiel, de réduire le temps passé sur les tâches répétitives.

AutoCut Podcast : Spécialement conçue pour les créateurs de contenus audio-visuels, cette option gère efficacement les transitions entre caméra et microphone. Elle offre un rendu fluide et professionnel.

AutoZoom : Ce système ajoute des zooms automatiques. Il met en avant les moments importants sans effort supplémentaire. Idéal pour souligner des détails essentiels ou créer une dynamique dans les vidéos.

AutoCaptions : Enfin, AutoCut génère des sous-titres animés instantanément. Il rend ainsi les vidéos accessibles à un public international. Cela améliore l’engagement des spectateurs et permet de capter une audience plus large.

AutoCut : accessibilité et évolution

AutoCut est désormais disponible pour les versions gratuite et Studio de DaVinci Resolve. Les utilisateurs peuvent d’ailleurs profiter d’un essai gratuit de 14 jours pour tester ces nouvelles fonctionnalités et évaluer leur impact sur leur flux de travail. Cette accessibilité permet aux professionnels comme aux amateurs de découvrir l’efficacité de cet outil, quel que soit leur niveau de maîtrise du montage.

L’intégration d’AutoCut sur DaVinci Resolve ne s’arrête pas là. De nouvelles fonctionnalités sont d’ores et déjà en préparation et devraient être disponibles dans les prochains mois. L’objectif d’AutoCut est de continuer à innover et à simplifier la vie des monteur avec des outils toujours plus performants.

L’expansion d’AutoCut vers DaVinci Resolve marque donc une étape majeure dans l’évolution de l’édition vidéo. Grâce à ses fonctionnalités automatisées et à sa compatibilité avec l’un des logiciels les plus utilisés du marché, AutoCut promet de redéfinir la manière dont les vidéos sont montées et de faciliter le quotidien des créateurs.

Article basé sur un reçu par la rédaction.

Cet article AutoCut : un allié pour les monteurs DaVinci Resolve a été publié sur LEBIGDATA.FR.

Cloudflare défend les droits des créateurs face aux Bots IA

Cloudflare, le leader de la connectivité , annonce le lancement d’AI Audit, une suite d’outils visant à permettre aux créateurs de contenu de contrôler et monétiser l’utilisation de leur production par les modèles d’intelligence artificielle (IA). Pour la première fois, les propriétaires de sites web pourront non seulement comprendre comment leur contenu est utilisé, mais aussi décider quelles parties de leur production peuvent être analysées par les IA.

Comprendre l’enjeu de l’IA pour les créateurs de contenu

Les bots IA analysent des milliers de fois par jour le contenu de sites web, souvent sans que les créateurs en soient informés ou compensés. Cette utilisation non encadrée entraîne une destruction de valeur pour les entreprises, grandes et petites. Les créateurs de contenu doivent désormais disposer d’outils sophistiqués pour déterminer ce qu’ils souhaitent partager et monétiser.

Cloudflare propose une solution innovante avec AI Audit. Les créateurs de contenu auront désormais accès à des analyses détaillées sur la manière dont les modèles IA utilisent leur contenu, ainsi qu’à des outils pour bloquer ces bots en un clic. L’objectif est de donner à chacun, qu’il s’agisse de blogs personnels ou de sites d’information, les moyens de reprendre le contrôle de leur production.

AI Audit : un tournant pour l’industrie du contenu en ligne

Avec AI Audit, Cloudflare se positionne comme le premier acteur à offrir un tel niveau de transparence et de contrôle aux créateurs de contenu. Cette initiative marque un tournant majeur pour l’industrie grâce à de nouvelles normes pour l’utilisation du contenu en ligne par les IA.

Les créateurs pourront ainsi mieux comprendre le comportement des bots IA. Ils connaîtront ceux qui respectent les droits d’auteur de ceux qui exploitent le contenu sans crédit. Cette distinction est cruciale, car elle permet aux créateurs de prendre des décisions éclairées sur la façon dont ils souhaitent monétiser leur production.

« L’IA va modifier le contenu en ligne de manière spectaculaire et nous devons décider tous ensemble à quoi va ressembler son avenir. Les créateurs de contenu et les propriétaires de sites web de toutes les tailles méritent de détenir et d’exercer un contrôle sur leur production. Dans le cas contraire, la qualité des informations en ligne se détériorera ou sera exclusivement disponible derrière un service payant. Grâce à l’échelle et à l’infrastructure mondiale de Cloudflare, nous pensons pouvoir proposer les outils et définir les normes grâce auxquels les sites web, les éditeurs et les créateurs de contenu pourront exercer un contrôle et demander une juste rémunération pour leur contribution à Internet tout en permettant aux fournisseurs de modèles IA d’innover. » a déclaré Matthew Prince, cofondateur et CEO de Cloudflare.

Mettre en place une meilleure protection des droits des créateurs

Outre l’analyse des bots, AI Audit permettra de négocier plus facilement avec les fournisseurs de modèles IA. Cloudflare offre des outils d’analyse avancés pour comprendre le taux d’exploration de certaines sections ou pages. Cela facilite ainsi les discussions sur les licences de contenu.

De plus, une nouvelle fonctionnalité est en cours de développement pour aider les créateurs à définir un juste prix pour leur contenu. Cette initiative est particulièrement bénéfique pour les petits créateurs qui, souvent, ne disposent pas des ressources nécessaires pour négocier avec les géants de l’IA.

À l’avenir, Cloudflare souhaite rendre ces processus de négociation plus fluides. Il veut permettre aux créateurs de monétiser efficacement leur contenu et de fournir aux entreprises d’IA un accès transparent et réglementé aux données nécessaires pour l’entraînement de leurs modèles. Chaque partie bénéficiera d’un cadre clair et équitable afin de garantir la création d’un écosystème numérique plus équilibré.

Cloudflare montre ainsi la voie vers un Internet plus équitable, où les créateurs reprennent le pouvoir sur leur production. AI Audit représente un progrès significatif dans la protection des droits des créateurs face à l’utilisation massive de leur contenu par les IA.

Article basé sur un reçu par la rédaction.

Cet article Cloudflare défend les droits des créateurs face aux Bots IA a été publié sur LEBIGDATA.FR.

PME : Yakadata rassemble IA et Data pour des résultats concrets

Yakadata révolutionne l'usage de l'IA et de la Data pour les PME et mise sur l'humain et des solutions sur mesure. Face à la montée des défaillances d'entreprises, la start-up se positionne comme un partenaire clé pour une transformation numérique accessible et efficace.

Une approche humaine et sur mesure

Alors que les PME luttent pour rester compétitives, l'IA et la Data s'imposent comme des leviers essentiels pour améliorer les performances et réduire les coûts. Cependant, les offres actuelles, souvent standardisées, ne répondent pas aux besoins spécifiques des petites et moyennes entreprises. Yakadata se distingue avec une approche unique, centrée sur l'humain, qui vise à simplifier la transformation numérique des PME et à  maîtriser les budgets.

Yakadata se démarque par une approche fondée sur la compréhension des besoins des collaborateurs des PME. « Avec Yakadata, c'est l'IA et la Data qui se mettent au service des PME… et non l'inverse ! », explique Jean-François Deldon, le fondateur. L'équipe place les employés au cœur du processus de transformation. Elle commence par identifier les difficultés rencontrées et propose, après; des solutions sur mesure. Plutôt que d'imposer des technologies complexes, Yakadata privilégie des améliorations concrètes et visibles rapidement par les utilisateurs. Cette approche permet de fédérer les équipes autour des projets d'innovation et crée une dynamique positive et pérenne.

Services adaptés aux PME

Yakadata propose un accompagnement complet et flexible pour répondre aux différents stades de maturité des projets des PME. Les conférences et ateliers stratégiques, qui va d'une heure à une journée, permettent aux entreprises de découvrir concrètement les opportunités offertes par l'IA et la Data. Ces sessions incluent des démonstrations et des ateliers pratiques pour mieux comprendre les technologies et identifier les applications pertinentes.

Les formations sur l'IA, accessibles même sans connaissances préalables en informatique, aident les participants à maîtriser les fondamentaux de l'IA. Ils peuvent par la suite intégrer ces technologies dans leur environnement professionnel. En parallèle, Yakadata collabore avec les PME pour identifier les cas d'usage les plus pertinents. Cela se fait à travers des échanges avec les employés, des prototypes et des tests sur les données internes. Ces diagnostics sont éligibles au programme IA Booster 2030 de Bpifrance. Cela ouvre ainsi l'accès à des subventions.

Pour le suivi de projet et l'accompagnement technique, Yakadata s'associe à des partenaires pour aider les PME à mettre en œuvre des projets d'automatisation, de gestion de données ou d'intelligence artificielle. Il veille à proposer des solutions adaptées aux besoins et à la maturité des équipes.

Une vision inspirée et pragmatique

Fondée par Jean-François Deldon, ancien leader de la transformation digitale chez Michelin, Yakadata s'appuie sur une solide expertise en IA et en gestion de la data. « Je voulais sortir du cadre des grands groupes parfois difficiles à faire bouger », confie-t-il. Après un passage par l'incubateur Michelin, Jean-François a décidé de se lancer dans l'entrepreneuriat pour apporter son savoir-faire aux PME. En moins d'un an, Yakadata a déjà accompagné une quinzaine de PME à travers la France. L'équipe a l'ambition de continuer à développer des formats innovants et accessibles.

Yakadata ne se contente pas d'apporter des solutions techniques, elle s'efforce de créer un impact durable. Elle implique activement les employés et adapte ses interventions à la réalité du terrain. Grâce à une approche humaine et pragmatique, Yakadata transforme la manière dont les PME abordent l'IA et la Data. Il offre ainsi des perspectives nouvelles pour gagner en compétitivité dans un contexte économique toujours plus exigeant.

Article basé sur un presse reçu par la rédaction.

Cet article PME : Yakadata rassemble IA et Data pour des résultats concrets a été publié sur LEBIGDATA.FR.

SentinelOne et Google Cloud s’unissent pour renforcer la cybersécurité des entreprises avec l’IA

SentinelOne s'allie à pour offrir une cybersécurité révolutionnaire, alimentée par l'intelligence artificielle (IA). Cette collaboration promet de transformer la façon dont les entreprises se protègent des menaces numériques, grâce à une combinaison unique de technologies avancées.

Une alliance stratégique renforcée pour une sécurité maximale

SentinelOne, leader mondial de la sécurité autonome, vient d'annoncer un renforcement de son partenariat avec Google Cloud. Avec l'intégration de sa protection avancée des endpoints à l'expertise en renseignement sur les menaces de , les deux géants de la technologie promettent de fournir des solutions de cybersécurité plus performantes pour les entreprises. Ce partenariat stratégique s'appuie sur les succès passés. De plus, il ouvre la voie à une nouvelle ère de protection autonome renforcée par l'IA.

« Google Cloud s'associe à d'autres leaders du marché pour aider nos clients à réduire l'impact des cybermenaces sur leur activité et à assurer la sécurité des environnements informatiques d'aujourd'hui en leur proposant des solutions hautement adaptables et basées sur l'intelligence artificielle », a déclaré Sandra Joyce, vice-présidente de Google Threat Intelligence​.

Des résultats concrets pour les entreprises

L'objectif de cette collaboration est clair : offrir une cybersécurité plus robuste et plus rapide. Grâce aux combinaisons des capacités de SentinelOne à celles de Google Cloud, les entreprises pourront bénéficier de télémétrie dynamique et d'IA générative pour des résultats optimisés en matière de sécurité. En outre, les données télémétriques partagées permettront de fournir les informations les plus complètes sur les menaces émergentes.

Grâce à cette alliance, les plateformes autonomes Singularity et Singularity de SentinelOne seront renforcées par les modèles Google 1.5 Pro et Flash. Cela garantira une protection accrue contre les menaces les plus récentes. Cela renforce la posture de sécurité des entreprises.

Ric Smith, Chief Technology and Product Officer de SentinelOne, souligne : « La consolidation de notre collaboration nous permet de combiner les meilleurs services de sécurité et de renseignement sur les menaces avec la plateforme la plus avancée de protection basée sur l'IA afin de garantir une cybersécurité à la vitesse de la machine »​.

Un engagement commun pour l'avenir

Cette collaboration ne se limite pas aux technologies. SentinelOne et Google Cloud ont également l'intention de mieux informer la communauté sur les dernières avancées en matière de cybersécurité. Les deux entreprises prendront la parole conjointement lors de plusieurs conférences majeures. C'est notamment le cas lors de la conférence Black Hat en septembre et la conférence SentinelOne OneCon en octobre.

Vous l'aurez compris ! Le partenariat entre SentinelOne et Google Cloud marque un tournant dans la manière dont les entreprises abordent la cybersécurité. Ces deux leaders technologiques ouvrent la voie à une protection plus rapide, plus intelligente et plus complète. Ils montrent qu'ils sont capables et aptes à répondre aux exigences d'un monde numérique en constante évolution.

Article basé sur un reçu par la rédaction.

Cet article SentinelOne et Google Cloud s’unissent pour renforcer la cybersécurité des entreprises avec l’IA a été publié sur LEBIGDATA.FR.

Stratégie de données et IA : le duo gagnant pour entreprise selon AvePoint

AvePoint, éditeur de logiciels spécialisé dans la sécurisation des opérations SaaS, a publié une étude sur l'importance d'une stratégie de gestion de l'information mature pour maximiser les bénéfices de l'IA en entreprise. L'enquête met en lumière les défis et les contradictions auxquels les organisations sont confrontées lors de l'adoption de l'IA. Elle montre que seules les entreprises avec une gouvernance efficace des données tirent réellement profit de cette technologie.

L'importance de la gouvernance des données dans l'ère de l'IA

AvePoint a mené une étude approfondie pour comprendre l'impact de la gestion de l'information sur l'implémentation de l'intelligence artificielle (IA) au sein des entreprises. Le rapport, réalisé en collaboration avec AIIM et CIPL, révèle que les organisations avec une stratégie de gestion de l'information mature augmentent de 50 % leurs chances de réussir l'intégration de l'IA.

« Avoir une stratégie de gestion de l'information mature augmente de 50 % les chances de tirer parti de l'IA » déclare AvePoint. Cependant, moins de la moitié des entreprises interrogées se sentent prêtes à adopter l'IA en toute sécurité. Cela évoque des préoccupations majeures liées à la confidentialité et à la sécurité des données.

Un manque de préparation à l'IA malgré une adoption croissante

Malgré un engouement croissant pour les solutions d'IA, la plupart des entreprises restent mal préparées à gérer les défis associés à cette technologie. L'étude montre que 71 % des organisations sont préoccupées par la confidentialité des données, tandis que 61 % s'inquiètent de leur qualité et de leur catégorisation.

« Il n'y a aujourd'hui pas assez d'organisations qui disposent de politiques de gouvernance et de protections des données appropriées » souligne Dana Simberkoff, Chief Risk Privacy and Information Security Officer chez AvePoint. Ce manque de préparation expose les entreprises à des risques considérables. Cela limite ainsi leur capacité à tirer pleinement profit de l'IA.

Investir dans une stratégie de gestion de l'information pour maximiser le ROI

L'étude d'AvePoint révèle également un paradoxe frappant. Bien que les organisations reconnaissent l'importance de l'IA, elles sous-estiment souvent le rôle crucial d'une stratégie de gestion de l'information dans la réussite de son implémentation. Seulement 17 % des entreprises pensent qu'une stratégie de gestion de l'information efficace est essentielle pour assurer un retour sur investissement (ROI) après des dépenses en IA. Pourtant, les organisations avec une stratégie de gestion de l'information mature ont 15 fois plus de chances de profiter des avantages de l'IA.

« Si nous donnons la priorité à la mise en place de garde-fous et renforçons la formation des employés sur l'IA, les opportunités seront illimitées » conclut Bojana Bellamy, Présidente du CIPL. Avec ces résultats, AvePoint souligne la nécessité urgente pour les entreprises de revoir et d'améliorer leurs stratégies de gestion de l'information afin de maximiser les bénéfices de l'intelligence artificielle et de minimiser les risques.

Article basé sur un reçu par la rédaction.

Cet article Stratégie de données et IA : le duo gagnant pour entreprise selon AvePoint a été publié sur LEBIGDATA.FR.

Sopra Steria Next et Microsoft : une alliance pour l’adoption de Copilot en entreprise

Sopra Steria Next collabore avec pour déployer pour Microsoft 365 afin de transformer l'adoption de l'IA générative en entreprise. Cette collaboration met l'accent sur la formation, le management et l'optimisation de l'utilisation de cette technologie prometteuse. Cette initiative marque un tournant décisif dans l'intégration de l'intelligence artificielle dans le monde professionnel pour établir un nouveau standard de réussite pour les organisations de toutes tailles.

Accélérer l'adoption de l'IA en entreprise

Sopra Steria Next, en partenariat avec Microsoft, déploie Copilot pour Microsoft 365 afin de favoriser l'intégration de l'intelligence artificielle générative dans les entreprises. Fabrice Asvazadourian, directeur général de Sopra Steria Next, souligne l'importance de l'accompagnement : « Copilot pour Microsoft 365 est un outil certes extraordinaire mais sans un accompagnement adéquat, le potentiel de productivité peut rester sous-exploité. »

Une étude récente de Sopra Steria Next prévoit que le marché de l'intelligence artificielle générative atteindra les 100 milliards de dollars d'ici 2028, ce qui multiplie sa valeur par dix. Depuis le 15 janvier dernier, Microsoft propose Copilot pour Microsoft 365 à toutes les entreprises, mais le véritable défi réside dans un déploiement réussi à grande échelle.

Pour répondre aux défis posés par l'IA en entreprise, Sopra Steria Next propose un accompagnement spécialement conçu pour augmenter l'efficacité et l'inventivité des employés. Selon le Work Trend Index de Microsoft, 70 % des utilisateurs de Copilot pour Microsoft 365 en témoignent. Cette offre, bientôt disponible sur la marketplace de Microsoft, s'inscrit dans une stratégie ambitieuse de déploiement de l'intelligence artificielle au sein de Sopra Steria et de son écosystème.

Les trois conditions de succès : humain, technologie et business

L'offre sur-mesure de Sopra Steria Next repose sur trois axes essentiels pour garantir une adoption réussie de l'IA générative en entreprise. Le premier axe, l'humain, vise à donner aux collaborateurs les clés de compréhension et d'utilisation de cette technologie. Cela passe par des séminaires d'acculturation et des ateliers d'exploration de cas d'usages. Le deuxième axe, la technologie, inclut des audits et analyses d'impact de l'IA sur les secteurs d'activité pour concevoir une stratégie de déploiement personnalisée. Le troisième axe, le business, consiste à mesurer la performance et les gains pour l'entreprise du déploiement de Copilot pour Microsoft 365. Le but est de réaliser les ajustements nécessaires pour ancrer l'IA générative dans le quotidien des équipes.

Philippe Clapin, directeur général de Sopra Steria Next France, conclut : « Alors que le marché de l'IA générative entame son passage à l'échelle et sa monétisation, nous sommes particulièrement fiers de faire partie des premiers cabinets de conseil en France à proposer un tel accompagnement à nos clients ». Il ajoute : « Aujourd'hui, beaucoup de décideurs regardent l'IA avec surprise. Notre volonté est de leur faire comprendre que c'est aujourd'hui que tout se joue et que l'IA générative n'est pas qu'une brique technologique, c'est un nouveau paradigme dans le monde du travail. »

Grâce à cette collaboration, les entreprises pourront exploiter pleinement le potentiel de Copilot pour Microsoft 365. Ils seront ainsi en mesure d'améliorer leur productivité et leur compétitivité sur le marché global. 

Article basé sur un  reçu par la rédaction.

Cet article Sopra Steria Next et Microsoft : une alliance pour l’adoption de Copilot en entreprise a été publié sur LEBIGDATA.FR.

Expérience de travail : Yarooms lance Yarvis, l’assistant IA

Yarooms lance la version bêta de Yarvis, un assistant de travail alimenté par l'IA, sur Teams. Cette innovation vise à transformer les interactions des équipes avec leurs espaces de travail, simplifiant ainsi les tâches de réservation et de planification.

Une révolution dans l'expérience de travail

Yarooms, créateur de solutions pour les lieux de travail, présente Yarvis, un assistant de travail alimenté par l'IA, en version bêta. Yarvis a pour but de révolutionner la manière dont les équipes interagissent avec leurs environnements de travail. Il a été conçu pour simplifier les tâches complexes et améliorer l'organisation et la connectivité sur le lieu de travail.

Disponible sur Microsoft Teams, Yarvis permet aux utilisateurs de gérer leur journée au bureau sans quitter leur plateforme de communication habituelle. Cette innovation répond à une frustration commune : la nécessité de jongler entre plusieurs applications. Yarvis rend le travail plus fluide et plus efficace en intégrant diverses fonctionnalités au sein d'une seule interface.

Des fonctionnalités avancées pour une meilleure gestion

Yarvis, en s'appuyant sur l'IA générative, offre une multitude de possibilités pour améliorer l'expérience des employés. Il comprend et répond aux demandes en quelques secondes, permettant ainsi aux utilisateurs de gagner un temps précieux.

Parmi ses fonctionnalités principales, Yarvis permet de rechercher des espaces de travail disponibles selon des critères spécifiques, de fournir des informations détaillées sur les calendriers personnels ou d'équipe, d'analyser les listes de réservations et de répondre aux demandes de renseignements liées. De plus, l'application de divers filtres permet d'affiner les recherches de réservation. Les demandes d'aide sont traitées rapidement pour minimiser le temps passé par les utilisateurs à obtenir de l'assistance.

Cette technologie permet aux équipes de se concentrer sur ce qui compte vraiment en gérant efficacement leur journée au bureau.

Une avancée saluée par les dirigeants de Yarooms

« Nous sommes heureux de lancer Yarvis et d'offrir à nos clients une interface de pointe pour leurs lieux de travail », déclare Dragos Badea, PDG de Yarooms. « À une époque où les gens ont pris l'habitude de poser des questions à l'IA presque quotidiennement, pourquoi ne pas l'utiliser sur votre lieu de travail ? Avec Yarvis, vos employés peuvent parler à leur lieu de travail comme ils le feraient avec un ami. Ce n'est que le début de la façon dont l'IA peut révolutionner nos expériences sur le lieu de travail ».

Andra Ionita, Product Manager chez Yarooms, ajoute : « La force de Yarvis réside dans sa capacité à traiter facilement un large éventail de demandes. C'est un assistant polyvalent qui améliore l'efficacité du lieu de travail ».

Yarvis incarne les dernières avancées en matière d'IA sur le lieu de travail. Il réduit le besoin de jongler entre plusieurs outils et simplifie les processus complexes. Il permet aux équipes de se concentrer sur leurs objectifs principaux. Cette innovation marque une étape importante dans l'évolution des environnements de travail modernes. Elle joue un rôle clé dans l'amélioration de la productivité et de la satisfaction des employés.

Article basé sur un  reçu par la rédaction.

Cet article Expérience de travail : Yarooms lance Yarvis, l’assistant IA a été publié sur LEBIGDATA.FR.

❌