Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇ActuIA
  • Education : l’IA de Pearltrees soutiendra prochainement 1/3 des professeurs français du secondaire
    Pearltrees, un des leaders français des solutions numériques éducatives, annonce le lancement de l’expérimentation de son nouvel outil d’IA dédié aux enseignants. Conçue pour alléger la charge de travail des enseignants et intégrée à la plateforme Pearltrees Éducation dès janvier 2025, cette IA souveraine a pour objectif d’accompagner 120 000 professeurs en leur fournissant des solutions adaptées et personnalisées. Lancée en 2019, Pearltrees est une plateforme collaborative de curation de conten

Education : l’IA de Pearltrees soutiendra prochainement 1/3 des professeurs français du secondaire

18 décembre 2024 à 11:00

Pearltrees, un des leaders français des solutions numériques éducatives, annonce le lancement de l’expérimentation de son nouvel outil d’IA dédié aux enseignants. Conçue pour alléger la charge de travail des enseignants et intégrée à la plateforme Pearltrees Éducation dès janvier 2025, cette IA souveraine a pour objectif d’accompagner 120 000 professeurs en leur fournissant des solutions adaptées et personnalisées.

Lancée en 2019, Pearltrees est une plateforme collaborative de curation de contenu web. A l’intersection des technologies cloud, IA et des réseaux sociaux grand public, elle est aujourd’hui utilisée par plus de 10 millions de personnes dans le monde.

Pearltrees Éducation, sa version SaaS dédiée aux établissements scolaires, est utilisée par plus d’un tiers des professeurs et des élèves des collèges et des lycées français, soit près d’1.3 million de personnes.

Une réponse aux besoins croissants de l’éducation

Les enseignants du secondaire font face à des défis croissants : hétérogénéité des niveaux des élèves, augmentation des tâches administratives et exigences accrues en termes de personnalisation des apprentissages. L’IA Pearltrees est pensée comme un assistant pédagogique : elle propose aux enseignants des outils tels que des éléments ou plans de cours, des exercices différenciés ou des QCM.

Ces outils visent à libérer du temps aux enseignants, leur permettant ainsi de se consacrer pleinement à une pédagogie adaptée aux besoins de chaque élève.

Une mise en place progressive et collaborative

Pour garantir son efficacité, l’IA Pearltrees est testée selon une approche en deux étapes :

  • Phase Alpha (janvier à novembre 2024) : une version initiale a été testée par une vingtaine d’enseignants issus de disciplines variées. Cette phase a validé la capacité de l’IA à répondre aux attentes des professeurs tout en confirmant son potentiel.
  • Phase Beta (novembre 2024 à janvier 2025) : Une version plus avancée, intégrée dans l’interface de la plateforme Pearltrees.  est actuellement testée dans 39 établissements scolaires en France. Les retours des enseignants permettront d’affiner les fonctionnalités de l’outil.

Cette seconde phase vise à s’assurer que l’IA, dans ce contexte d’utilisation réel, est à la fois compréhensible et utilisable en autonomie par les enseignants. Si c’est le cas, l’IA Pearltrees sera généralisée à la fin janvier 2025, offrant ainsi ses bénéfices à plus de 120 000 enseignants, soit un tiers des professeurs du secondaire en France.

Des retours d’utilisateurs prometteurs

Les premiers utilisateurs saluent les atouts de l’IA Pearltrees. Pascal Pannier, professeur-documentaliste, se dit conquis par sa simplicité d’accès et la pertinence des contenus produits. Pour Vincent Sallent, seul professeur de physique-chimie dans un petit collège, “C’est comme si je travaillais avec un collègue, ce qui pour moi est très appréciable”.

Patrice Lamothe, PDG et cofondateur de Pearltrees conclut :

“L’intégration de l’IA Pearltrees s’inscrit dans la mission fondamentale de Pearltrees : offrir aux enseignants les meilleures technologies pour organiser et partager la connaissance”. 

Education-IA-Pearltrees-professeurs-francais-secondaire
  • ✇ActuIA
  • Neuroplateforme de FinalSpark : la bioinformatique au service de l’environnement
    Imaginez un ordinateur qui utilise des cellules cérébrales humaines au lieu de neurones artificiels pour fonctionner. C’est l’idée derrière l’informatique humide, également connue sous le nom de wetware ou d’intelligence organoïde, un domaine de recherche émergent qui combine l’électrophysiologie et l’IA. FinalSpark, une start-up suisse, pionnière de cette technologie innovante, a développé une neuroplateforme, opérationnelle depuis 4 ans, 24 heures sur 24 et 7 jours sur 7, permettant aux cherch

Neuroplateforme de FinalSpark : la bioinformatique au service de l’environnement

20 mai 2024 à 11:48

Imaginez un ordinateur qui utilise des cellules cérébrales humaines au lieu de neurones artificiels pour fonctionner. C’est l’idée derrière l’informatique humide, également connue sous le nom de wetware ou d’intelligence organoïde, un domaine de recherche émergent qui combine l’électrophysiologie et l’IA. FinalSpark, une start-up suisse, pionnière de cette technologie innovante, a développé une neuroplateforme, opérationnelle depuis 4 ans, 24 heures sur 24 et 7 jours sur 7, permettant aux chercheurs de mener des expériences à distance sur des neurones biologiques in vitro.

Fondée en 2014 par Fred Jordan et Martin Kutter, basée à Vevey, FinalSpark s’est donné pour objectif de développer le premier processeur vivant au monde en utilisant des organoïdes cérébraux humains.

Qu’est-ce que les organoïdes cérébraux ?

En 2006, le Dr. Shinya Yamanaka et son équipe à l’Université de Kyoto, au Japon, ont réussi pour la première fois à reprogrammer des cellules somatiques adultes (comme des cellules de la peau) en cellules souches pluripotentes induites (iPSCs). Cette technique révolutionnaire permet à ces cellules reprogrammées de se comporter comme des cellules souches embryonnaires, capables de se différencier en presque n’importe quel type de cellules, y compris en neurones​. Une découverte qui lui a d’ailleurs valu de recevoir le prix Nobel de médecine en 2012.

L’année suivante, le Dr. Madeline A. Lancaster s’appuyait sur ses travaux pour créer des modèles tridimensionnels complexes du cerveau humain, ou organoïdes cérébraux. Ces “mini-cerveaux” peuvent permettre aux chercheurs de comprendre comment le cerveau humain se développe au niveau cellulaire et moléculaire et d’étudier les maladies cérébrales, comme l’autisme, la schizophrénie ou la maladie d’Alzheimer, et tester de nouveaux traitements.

FinalSpark les utilise pour effectuer des calculs. L’organoïde cérébral dont il fournit la photo ci-dessous a été construit à partir de 10 000 neurones vivants et mesure environ 0,5 mm de diamètre.

La Neuroplateforme

L’objectif de FinalSpark est de développer un bioprocesseur. Sa plateforme compte 4 réseaux multi-électrodes (MEA), conçus par le laboratoire du professeur Roux de la Haute Ecole du Paysage, d’Ingénierie et d’Architecture (HEPIA), chacun pouvant accueillir 4 organoïdes et 8 électrodes par organoïde. On peut d’ailleurs les voir fonctionner en direct sur son site.

Selon FinalSpark, qui met en avant le potentiel d’économie d’énergie de la bio-informatique, il reste des défis à surmonter avant que le premier ordinateur humain ne voie le jour :

“Utiliser des neurones vivants pour construire des bioprocesseurs de nouvelle génération n’est pas une tâche facile. Malgré tous les avantages, tels que l’efficacité énergétique, l’évolutivité et la capacité éprouvée à traiter l’information, les bioprocesseurs à partir de neurones vivants sont difficiles à développer.

Nous ne savons toujours pas comment les programmer. Contrairement aux ordinateurs numériques, les bioordinateurs sont de véritables boîtes noires. Pour cette raison, nous avons besoin de beaucoup d’expérimentations pour les faire fonctionner. Mais si nous trouvons le moyen de contrôler ces boîtes noires, elles peuvent devenir des outils informatiques vraiment puissants”.

La plateforme est gratuite à des fins de recherche, d’ailleurs une trentaine d’universités ont déjà manifesté leur intérêt. L’infrastructure actuelle de la start-up ne lui permet d’accueillir que 7 groupes de recherches, compte tenu également de ses propres besoins, mais FinalSpark se dit prête à la développer dans le but commun d’élaborer le premier processeur vivant au monde.

Fred Jordan, cofondateur de FinalSpark, affirme :

“Nous sommes fermement convaincus qu’un objectif aussi ambitieux ne peut être atteint que par une collaboration internationale”.

Une publication scientifique décrivant l’architecture du système et fournissant des exemples spécifiques d’expériences et de résultats intitulée « Open and remotely accessible Neuroplatform for research in wetware computing », est disponible dans la revue Frontiers.

Des informations complémentaires sur la neuro-plateforme et la procédure de demande à suivre par les établissements de recherche sont disponibles sur le site web de FinalSpark à l’adresse https://finalspark.com/neuroplatform.

Neuroplateforme de FinalSpark
  • ✇ActuIA
  • Qu’est-ce que NVIDIA AI Enterprise, la plateforme de microservices introduite lors de la GTC 2024 ?
    Outre ses dernières puces d’IA basées sur l’architecture Blackwell, l’IA GROOT qui permettra d’entraîner les robots humanoïdes, NVIDIA a annoncé lors de la GTC 2024 toute une gamme de microservices d’IA générative de niveau entreprise basés sur la plateforme NVIDIA CUDA introduite en 2006. Regroupés dans la nouvelle plateforme NVIDIA AI Enterprise, ils doivent permettre aux organisations de créer et déployer des applications personnalisées en toute sécurité. Les microservices NVIDIA sont des con

Qu’est-ce que NVIDIA AI Enterprise, la plateforme de microservices introduite lors de la GTC 2024 ?

Par : Thomas Calvi
25 mars 2024 à 10:00

Outre ses dernières puces d’IA basées sur l’architecture Blackwell, l’IA GROOT qui permettra d’entraîner les robots humanoïdes, NVIDIA a annoncé lors de la GTC 2024 toute une gamme de microservices d’IA générative de niveau entreprise basés sur la plateforme NVIDIA CUDA introduite en 2006. Regroupés dans la nouvelle plateforme NVIDIA AI Enterprise, ils doivent permettre aux organisations de créer et déployer des applications personnalisées en toute sécurité.

Les microservices NVIDIA sont des conteneurs logiciels téléchargeables pour le déploiement d’applications d’IA générative et le calcul accéléré. NVIDIA AI Enterprise 5.0 comprend NVIDIA NIM pour le déploiement de modèles d’IA en production et la collection de microservices NVIDIA CUDA-X.

NVIDIA NIM pour une inférence optimisée de l’IA

NIM (NeMo Inference Microservices) fournit des conteneurs prédéfinis alimentés par le logiciel d’inférence NVIDIA, notamment Triton Inference Server et TensorRT-LLM, qui permettent, selon NVIDIA, aux développeurs de réduire les temps de déploiement de plusieurs semaines à quelques minutes, que ce soit dans le cloud, les centres de données ou les stations de travail accélérées par ses GPU.

Pour rappel, NVIDIA NeMo est une boîte à outils d’IA conversationnelle conçue pour les chercheurs travaillant sur la reconnaissance vocale automatique, la synthèse texte-parole, les grands modèles de langage et le traitement du langage naturel. Elle fait partie d’AI Foundations, un ensemble de services cloud permettant aux entreprises de créer leurs propres modèles d’IA génératives à partir de leurs données, qu’ils soient linguistiques ou visuels, fonctionnant sur DGX Cloud, que NVIDIA a lancé il y a tout juste un an.

Elle comprend :

  • NVIDIA NeMo Curator qui permet de générer des jeux de données de haute qualité pour l’entraînement LLM ;
  • NVIDIA NeMo Customizer qui simplifie le réglage fin et l’alignement des modèles tout en accélérant les performances et l’évolutivité ;
  • NVIDIA NeMo Evaluator qui fournit une évaluation automatique sur divers benchmarks académiques et personnalisés, offrant une évaluation rapide, facile et fiable des grands modèles de langage (LLM) et des RAG personnalisés.

Crédit Nvidia. NVIDIA NIM est un microservice d’inférence conteneurisé comprenant des API standard, du code spécifique à un domaine, des moteurs d’inférence optimisés et un environnement d’exécution d’entreprise

Regroupant des bibliothèques NVIDIA CUDA spécifiques à un domaine et du code spécialisé adapté à divers domaines tels que le langage, la parole, le traitement vidéo, les soins de santé… Il permet le déploiement de modèles de NVIDIA, A121, Adept, Cohere, Getty Images et Shutterstock, ainsi que de modèles ouverts de Google, Hugging Face, Meta, Microsoft, Mistral AI et Stability AI.

Les développeurs peuvent les tester à l’aide d’API cloud du catalogue de NVIDIA ou les héberger eux-mêmes en téléchargeant NIM, puis les déployer avec Kubernetes sur les principaux fournisseurs de cloud ou sur site.

Selon NVIDIA, les clients pourront accéder aux microservices NIM d’Amazon SageMaker, de Google Kubernetes Engine et de Microsoft Azure AI, et s’intégrer à des frameworks d’IA populaires comme Deepset, Langchain et LlamaIndex.

Les microservices CUDA-X

Conçus par les experts CUDA de NVIDIA, CUDA-X regroupe des outils de développement, des bibliothèques accélérées par GPU et des technologies packagées sous forme d’API cloud. Ses bibliothèques d’accélération logicielle font partie des principales plateformes cloud, notamment AWS, Microsoft Azure et Google Cloud et sont gratuites sous forme de téléchargements individuels ou de piles logicielles conteneurisées à partir de NVIDIA NGC.

Les développeurs peuvent les intégrer, les personnaliser et les déployer sur les GPU NVIDIA. CUDA-X AI est destiné aux applications de traitement de données et d’IA tandis que CUDA-X HPC contient des bibliothèques supplémentaires pour le calcul haute performance.

Les microservices CUDA-X incluent NVIDIA Riva pour l’IA vocale et de traduction personnalisable, NVIDIA Earth-2 pour les simulations climatiques et météorologiques haute résolution, NVIDIA cuOpt pour l’optimisation du routage et NVIDIA NeMo Retriever pour des capacités de génération augmentée (RAG) réactive pour les entreprises.

Les développeurs seraient aujourd’hui plus d’un million à les utiliser.

Qu'est-ce que NVIDIA AI Enterprise, la plateforme de microservices introduite lors de la GTC 2024

Outil IA : Forge, API, services temps procésseurs, serveur less, IA en local

# Replicate : plateforme de modèles IA
https://www.premieroctet.com/blog/premiers-pas-avec-replicate (exemple caméra)
https://youtu.be/OjdIgxvZVYw?si=5Fcx7acZQKvvZw_c&t=561 (exemple création vidéo + explications seveurless + nocode)
https://replicate.com/explore

# Hugging Face : Centrale dans l’IA open source, car elle propose un service similaire à GitHub
- partage du codes, des données plus les modèles déjà entraînés.
https://www.leparisien.fr/high-tech/intelligence-artificielle-cest-quoi-hugging-face-la-pepite-francaise-valorisee-a-45-milliards-deuros-25-08-2023-QSZZY7WJ2RHRBDRUQJNEQDXW2M.php
https://www.youtube.com/watch?v=uD-9aHFII8A (exemple avec Stable diffusion + colab)
https://huggingface.co/

# Google Colab
https://www.youtube.com/watch?v=TpwNlP1nLag (code en python)
https://colab.research.google.com/notebooks/intro.ipynb
https://colab.research.google.com/


## En local

- LM Studio  LM Studio fonctionne sous macOS, Windows et Linux, permet  de télécharger des LLMs (Large Language Models) et de les faire tourner en local. https://korben.info/lm-studio-local-llms-integration-code-usage.html

- Ollama permet de charger des modèles LLM et de les faire fonctionner en fond de tâche sur son ordinateur.
https://klu.ai/glossary/ollama-fr
https://www.geeek.org/tutoriel-installation-llama-2-et-code-llama/
https://ollama.com/
https://github.com/ollama/ollama?tab=readme-ov-file&ref=geeek.org#community-integrations

- onprem est conçu pour les développeurs Python pour faire tourner des models LLM :  https://www.bortzmeyer.org/onprem-debut.html

- GPT4All  modèle d’intelligence avec mention ggml, alors compatible   https://zonetuto.fr/intelligence-artificielle/ajouter-un-modele-au-format-ggml-dans-gpt4all-sur-linux-ubuntu/
http://actu.azqs.com/geeknik/p/i/?search=+GPT4All

- Stable Diffusion WebUI (SDXL  Stable Cascade) https://zonetuto.fr/intelligence-artificielle/installer-stable-diffusion-webui-en-local-sur-ubuntu-debian/

- Jam IA https://www.youtube.com/watch?v=iVYP2lyreAA
https://jan.ai/ : opensource

- Pinoccio / Pinokio : l'Installation d'Outils d'Intelligence Artificielle
https://proguideah.com/lordinateur-virtuel-pinokio-ai-vous-permet-dinstaller-dexecuter-et-dautomatiser-nimporte-quelle-application-dia-en-un-seul-clic-28524/
https://www.youtube.com/watch?v=EChic1SH2IY
https://pinokio.computer/
https://github.com/pinokiocomputer/pinokio

- developpement de plugin en local via plusieurs ia
https://floneum.com/
https://www.aixploria.com/floneum-ai-workflows/
https://fr.wikipedia.org/wiki/WebAssembly

- Edge computiing (local et frugal)
http://liens.azqs.com/GeekNik/?searchtags=ia+edge-computing
http://actu.azqs.com/geeknik/p/i/?a=normal&get=t_17
http://liens.azqs.com/GeekNik/?searchtags=ia+programmation
(Permalink)
❌
❌