Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

15 millions de paramètres et 1 seul GPU : Yann LeCun fait un premier pas vers l’IA qui comprend le monde réel

En attendant les premières découvertes d'AMI Labs, sa nouvelle startup créée en France, Yann LeCun et un consortium de chercheurs spécialisés en intelligence artificielle dévoilent LeWorldModel, première version d'une technologie capable de s'entraîner directement à partir de pixels bruts sans problème de stabilité. À terme, les robots pourraient s'appuyer sur ces avancées pour voir le monde et interagir avec.

Outil IA : Forge, API, services temps procésseurs, serveur less, IA en local

# Replicate : plateforme de modèles IA
https://www.premieroctet.com/blog/premiers-pas-avec-replicate (exemple caméra)
https://youtu.be/OjdIgxvZVYw?si=5Fcx7acZQKvvZw_c&t=561 (exemple création vidéo + explications seveurless + nocode)
https://replicate.com/explore

# Hugging Face : Centrale dans l’IA open source, car elle propose un service similaire à GitHub
- partage du codes, des données plus les modèles déjà entraînés.
https://www.leparisien.fr/high-tech/intelligence-artificielle-cest-quoi-hugging-face-la-pepite-francaise-valorisee-a-45-milliards-deuros-25-08-2023-QSZZY7WJ2RHRBDRUQJNEQDXW2M.php
https://www.youtube.com/watch?v=uD-9aHFII8A (exemple avec Stable diffusion + colab)
https://huggingface.co/

# Google Colab
https://www.youtube.com/watch?v=TpwNlP1nLag (code en python)
https://colab.research.google.com/notebooks/intro.ipynb
https://colab.research.google.com/


## En local

- LM Studio  LM Studio fonctionne sous macOS, Windows et Linux, permet  de télécharger des LLMs (Large Language Models) et de les faire tourner en local. https://korben.info/lm-studio-local-llms-integration-code-usage.html

- Ollama permet de charger des modèles LLM et de les faire fonctionner en fond de tâche sur son ordinateur.
https://klu.ai/glossary/ollama-fr
https://www.geeek.org/tutoriel-installation-llama-2-et-code-llama/
https://ollama.com/
https://github.com/ollama/ollama?tab=readme-ov-file&ref=geeek.org#community-integrations

- onprem est conçu pour les développeurs Python pour faire tourner des models LLM :  https://www.bortzmeyer.org/onprem-debut.html

- GPT4All  modèle d’intelligence avec mention ggml, alors compatible   https://zonetuto.fr/intelligence-artificielle/ajouter-un-modele-au-format-ggml-dans-gpt4all-sur-linux-ubuntu/
http://actu.azqs.com/geeknik/p/i/?search=+GPT4All

- Stable Diffusion WebUI (SDXL  Stable Cascade) https://zonetuto.fr/intelligence-artificielle/installer-stable-diffusion-webui-en-local-sur-ubuntu-debian/

- Jam IA https://www.youtube.com/watch?v=iVYP2lyreAA
https://jan.ai/ : opensource

- Pinoccio / Pinokio : l'Installation d'Outils d'Intelligence Artificielle
https://proguideah.com/lordinateur-virtuel-pinokio-ai-vous-permet-dinstaller-dexecuter-et-dautomatiser-nimporte-quelle-application-dia-en-un-seul-clic-28524/
https://www.youtube.com/watch?v=EChic1SH2IY
https://pinokio.computer/
https://github.com/pinokiocomputer/pinokio

- developpement de plugin en local via plusieurs ia
https://floneum.com/
https://www.aixploria.com/floneum-ai-workflows/
https://fr.wikipedia.org/wiki/WebAssembly

- Edge computiing (local et frugal)
http://liens.azqs.com/GeekNik/?searchtags=ia+edge-computing
http://actu.azqs.com/geeknik/p/i/?a=normal&get=t_17
http://liens.azqs.com/GeekNik/?searchtags=ia+programmation
(Permalink)
❌