Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇ActuIA
  • Compar:IA : le Ministère de la Culture et la DINUM lancent un comparateur francophone de modèles d’IA conversationnelle
    À l’occasion du Sommet de la Francophonie, que la France a accueilli les 4 et 5 octobre derniers, le ministère de la Culture et la Direction interministérielle du numérique (DINUM) ont lancé la version bêta du 1er comparateur francophone d’IA conversationnelle : Compar:IA. Cet outil gratuit, fruit de 9 mois de travail de Lucie Termignon, a été développé dans le cadre de la start-up d’Etat Compar:IA (incubateurs de l’Atelier numérique et AllIAnce) intégrée au programme beta.gouv.fr de la DINUM. I

Compar:IA : le Ministère de la Culture et la DINUM lancent un comparateur francophone de modèles d’IA conversationnelle

11 octobre 2024 à 11:00

À l’occasion du Sommet de la Francophonie, que la France a accueilli les 4 et 5 octobre derniers, le ministère de la Culture et la Direction interministérielle du numérique (DINUM) ont lancé la version bêta du 1er comparateur francophone d’IA conversationnelle : Compar:IA.

Cet outil gratuit, fruit de 9 mois de travail de Lucie Termignon, a été développé dans le cadre de la start-up d’Etat Compar:IA (incubateurs de l’Atelier numérique et AllIAnce) intégrée au programme beta.gouv.fr de la DINUM.

Il vise à répondre à trois objectifs :

  • Sensibiliser les citoyens à l’IA générative et ses enjeux ;
  • Veiller au respect de la diversité des cultures francophones dans les modèles d’IA conversationnelle ;
  • Contribuer à la transparence des modèles d’IA générative.

La plateforme Compar:IA

Pour l’instant, le site Compar:IA donne accès à 11 modèles d’IA, l’un propriétaire Gemini 1,5 pro de Google, les autres open source. On retrouve Command R de Cohere, Gemma 2 9B de Google, 3 modèles Llama 3.1 de Meta, 3 modèles de Mistral AI (Mistral Nemo, 2 versions de Mixtral), Phi-3.5-mini de Microsoft, Queen 2-7B d’Alibaba et enfin le modèle chinois Yi 1.5 de 01-ai. Chacun des modèles est explicité.

Les utilisateurs peuvent discuter avec deux d’entre eux à l’aveugle pour comparer leurs réponses. Dans ce but, huit tâches sont proposées. On peut, par exemple, demander aux modèles de générer de nouvelles idées, d’expliquer simplement un concept, de rédiger un document administratif ou de raconter une histoire.

Dans quel but ?

Les IA conversationnelles sont souvent biaisées du fait qu’elles sont majoritairement sur des données anglaises, ce qui les amène à produire des réponses stéréotypées ou incorrectes pour les langues et cultures non-anglophones.

Les internautes peuvent contribuer à les améliorer en donnant leur avis. Les données de préférence issues de la comparaison des modèles sont collectées, nettoyées pour créer des jeux de données d’évaluations humaines en français, ciblés sur des tâches spécifiquement liées à la langue et la culture française.

Les jeux de données constitués seront accessibles librement et pourront être utilisés pour améliorer l’expression des modèles d’IA conversationnelle sur des tâches en français.

Le comparateur sera prochainement intégré à un parcours pédagogique créé spécifiquement par Pix, un service public en ligne ouvert à tous pour évaluer, développer et certifier ses compétences numériques au travers de défis apprenants et ludiques.

Pour tester Compar:IA, cliquer ici.

Compar:IA : le Ministère de la Culture et la DINUM lancent un comparateur francophone de modèles d'IA conversationnelle

Anthropic annonce la disponibilité générale des Artefacts : vers une nouvelle ère de la collaboration pour la création de contenu

3 septembre 2024 à 14:00

En marge du lancement de Claude 3.5 Sonnet en juin dernier, Anthropic dévoilait les Artefacts, une nouvelle fonctionnalité qui transforme l’interaction des utilisateurs avec Claude, faisant de son IA conversationnelle un environnement de travail interactif et collaboratif. La start-up annonce que la fonctionnalité, jusque- là en preview, est disponible pour tous les utilisateurs de claude.ai, y compris pour le plan gratuit.

Pour rappel, Claude 3.5 Sonnet est disponible gratuitement sur Claude.ai et via l’application iOS Claude, il est également accessible via l’API Anthropic, Amazon Bedrock, et Google Cloud’s Vertex AI. Les abonnés aux plans Claude Pro et Team bénéficient de limites de débit plus élevées.

Que sont les artefacts ?

Lorsque les utilisateurs de claude.ai sollicitent Claude pour la création de contenus tels que des morceaux de code, des fichiers texte ou des maquettes de sites web, ces éléments sont générés dans un volet spécial, juste à côté de leur dialogue en cours. Cet ajout offre un environnement de travail interactif où les utilisateurs peuvent non seulement visualiser mais aussi éditer et enrichir les productions de Claude en direct, ce qui leur permet d’intégrer de manière fluide le contenu généré par l’IA dans leurs projets.

Les utilisateurs peuvent afficher le code sous-jacent d’un artefact, copier le contenu dans leur presse-papiers ou télécharger un fichier pour le réutiliser facilement en dehors de la conversation. Il est en outre possible d’ouvrir et visualiser plusieurs artefacts lors d’une même conversation.

Selon Anthropic, depuis le lancement de la preview en juin dernier, les utilisateurs ont créé des dizaines de millions d’artefacts. Il est également possible de créer et afficher des artefacts sur ses applications iOS et Android.

Cas d’utilisation

Les artefacts facilitent la création rapide de contenu de haute qualité. Par exemple :

  • Les développeurs peuvent créer des diagrammes d’architecture à partir de bases de code ;
  • Les chefs de produit peuvent créer des prototypes interactifs pour tester rapidement les fonctionnalités ;
  • Les concepteurs peuvent créer des visualisations puissantes pour un prototypage rapide ;
  • Les spécialistes du marketing peuvent concevoir des tableaux de bord de campagne avec des mesures de performance ;
  • Les équipes de vente peuvent visualiser les pipelines de vente à l’aide d’informations prévisionnelles.

Collaboration et partage

Les utilisateurs des plans Free et Pro peuvent publier et remixer des artefacts avec la communauté. Ceux du plan Team bénéficient d’une option leur permettant de partager et collaborer sur des artefacts au sein d’un projet sécurisé, ce qui facilite la collaboration au sein de l’équipe.

Les artefacts font évoluer Claude.ai vers une plateforme de travail collaboratif, offrant aux utilisateurs une flexibilité et une efficacité accrues dans la gestion et la création de contenu.

Anthropic annonce la disponibilité générale des Artefacts vers une nouvelle ère de la collaboration pour la création de contenu
  • ✇Intelligence artificielle
  • Discord LLMCord – Quand les chatbots s’invitent dans Discord
    Vous êtes fan de Discord et vous aimez bidouiller des trucs ?? Alors préparez-vous à découvrir Discord LLMCord. C’est un petit bout de code qui va vous permettre de causer avec des IA directement dans vos canaux, comme si c’étaient vos potes. Et ça marche avec à peu près tous les modèles de langage, qu’ils soient hébergés à distance ou en local sur votre bécane. Pour lancer une conversation, il suffit de tagger le bot et hop, c’est parti mon kiki. Vous pouvez continuer la discussion en répo

Discord LLMCord – Quand les chatbots s’invitent dans Discord

Par : Korben
18 mai 2024 à 18:48

Vous êtes fan de Discord et vous aimez bidouiller des trucs ?? Alors préparez-vous à découvrir Discord LLMCord. C’est un petit bout de code qui va vous permettre de causer avec des IA directement dans vos canaux, comme si c’étaient vos potes. Et ça marche avec à peu près tous les modèles de langage, qu’ils soient hébergés à distance ou en local sur votre bécane.

Pour lancer une conversation, il suffit de tagger le bot et hop, c’est parti mon kiki. Vous pouvez continuer la discussion en répondant aux messages et ainsi construire des fils de discussion complets. Vous pouvez par exemple :

  • Poursuivre votre propre conversation ou celle de quelqu’un d’autre.
  • « Rembobiner » une discussion en répondant à un vieux message.
  • Poser une question sur n’importe quel message de votre serveur en taguant le bot.

En plus, si vous envoyez plusieurs messages à la suite, ils seront automatiquement mis bout à bout et si vous répondez juste au dernier, le bot verra tous les précédents. Vous pouvez aussi déplacer une conversation dans un fil sans perdre le fil (lol). Il vous suffit de créer un thread à partir d’un message et de tagger le bot dedans pour continuer à papoter.

Côté compatibilité, ça supporte les modèles distants d’OpenAI, Mistral, Anthropic et plein d’autres grâce à LiteLLM. Si vous voulez faire tourner un modèle en local, pas de souci non plus puisque ça marche avec OLLaMa, OobaBooga, Jan, LM Studio ou n’importe quel serveur d’API compatible OpenAI.

Le bot gère même les images si vous utilisez un modèle de vision comme GPT-4, Claude-3 ou LLaVA. Il a un prompt système personnalisable et vous pouvez lui parler en DM pour plus d’intimité (pas besoin de le tagger).

Si vous utilisez l’API OpenAI, LLMCord est également capable de reconnaître l’identité des utilisateurs. De plus, les réponses s’affichent en temps réel, avec un joli dégradé de vert quand c’est fini et s’il cause trop, il coupe automatiquement ses messages en plusieurs morceaux. Pratique pour éviter de se faire ban par Discord ! Il affiche aussi des avertissements utiles si besoin, genre « J’utilise seulement les 20 derniers messages » quand vous dépassez la limite. Bref, c’est un bot bien élevé.

Sous le capot, il utilise un dico global avec des mutex pour mettre en cache les données des messages de manière efficace et thread-safe, comma ça, ça réduit les appels à l’API Discord et ça évite les fuites de mémoire. Le tout totalement en asynchrone.

Pour l’installer, c’est fastoche. Vous clonez le repo GitHub, vous installez les dépendances Python avec pip et vous créez un fichier .env avec vos clés d’API et les paramètres du bot. Lancez le script et tada, l’URL d’invitation de votre bot s’affiche dans la console. Pour plus de détails, suivez ce guide :

  1. Installer Python : Téléchargez et installez Python à partir de python.org.
  2. Cloner le dépôt git : Ouvrez un terminal et clonez le dépôt : bash git clone https://github.com/jakobdylanc/discord-llm-chatbot.git cd discord-llm-chatbot
  3. Installer les packages nécessaires : bash pip install -r requirements.txt
  4. Créer un fichier .env : bash cp .env.example .env
  5. Configurer les variables d’environnement : Ouvrez .env et remplissez les champs nécessaires : plaintext DISCORD_BOT_TOKEN=YOUR_DISCORD_BOT_TOKEN OPENAI_API_KEY=your-openai-api-key MODEL_NAME=local/openai/YOUR_MODEL_NAME
  6. Exécuter le script : Dans le terminal, lancez : bash python llmcord.py

Ah et j’oubliais, LLMCord est open source (vive le libre !), donc si vous voulez contribuer ou l’adapter à vos besoins, forkez et PR sans modération.

Avec ça, votre Discord ne sera plus jamais pareil et je sens que vous allez bien vous marrer ! Alors merci à Lorenper pour l’info car c’est une chouette découverte !

Source

  • ✇ActuIA
  • Mistral AI dévoile Mistral Large et lance « Le Chat », un assistant conversationnel
    Hier, Mistral AI annonçait Mistral Large, son modèle de langage le plus avancé. Disponible via son API et Azure, la plateforme de Microsoft, son premier partenaire de distribution, le modèle présente des capacités de raisonnement de haut niveau. Dans la foulée, la licorne a lancé la version bêta d’un assistant conversationnel multilingue basé sur ses modèles baptisé “Le Chat” et “Le Chat Enterprise” à destination comme son nom l’indique des entreprises. Mistral Large est le troisième LLM présent

Mistral AI dévoile Mistral Large et lance « Le Chat », un assistant conversationnel

27 février 2024 à 10:30

Hier, Mistral AI annonçait Mistral Large, son modèle de langage le plus avancé. Disponible via son API et Azure, la plateforme de Microsoft, son premier partenaire de distribution, le modèle présente des capacités de raisonnement de haut niveau. Dans la foulée, la licorne a lancé la version bêta d’un assistant conversationnel multilingue basé sur ses modèles baptisé “Le Chat” et “Le Chat Enterprise” à destination comme son nom l’indique des entreprises.

Mistral Large est le troisième LLM présenté par Mistral AI et devient son modèle phare après Mistral 7B et Mixtral 8x7B. Selon la start-up, il atteint des capacités de raisonnement de premier ordre et peut être utilisé pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code.

Il prend en charge le français, l’anglais, l’espagnol, l’allemand et l’italien, avec une compréhension nuancée de la grammaire et du contexte culturel et affiche une fenêtre de contexte de 32 000 tokens.

Mistral Large obtient des résultats solides sur des benchmarks couramment utilisés, Mistral AI a notamment comparé GPT-4, Mistral Large (pre-trained), Claude 2, Gemini Pro 1.0, GPT 3.5 and LLaMA 2 70B sur MMLU (Measuring massive multitask language understanding), qui couvre 57 matières telles que les mathématiques, la physique, l’histoire, le droit, la médecine et l’éthique pour tester à la fois les connaissances du monde et les capacités de résolution de problèmes des modèles.

Le modèle à avoir obtenu le meilleur score est Gemini Ultra, qui, avec un score de 90,0 %, Gemini Ultra est le premier modèle à surpasser les experts humains sur ce benchmark.

Son suivi précis des instructions permet aux développeurs de concevoir leurs politiques de modération, Mistral AI l’a utilisé pour mettre en place la modération de son assistant conversationnel Le Chat.

Un assistant conversationnel multilingue basé sur les modèles Mistral

Le Chat s’appuie sur les modèles Mistral Large, Mistral Small ou sur le modèle prototype Mistral Next, pour des réponses plus concises. En version bêta, l’assistant n’a pour l’instant pas accès à Internet, ce qui peut impacter la précision de ses réponses.

Le Chat Enterprise a été conçu pour renforcer la productivité des équipe avec des capacités d’auto-déploiement et des mécanismes de modération fins.

Pour tester la version bêta, cliquer ici 

Le partenariat avec Microsoft

Un partenariat pluriannuel avec Mistral AI a également été annoncé hier par Microsoft qui fournira son infrastructure de supercalculateurs Azure AI à la start-up.

Mistral Large va rejoindre Mistral 7B dans le catalogue de modèles Azure AI, accessible via Azure AI Studio et Azure Machine Learning, en tant que Models-as-a-Service (MaaS).

Microsoft et Mistral AI pourraient également collaborer à l’entrainement de modèles spécifiques pour certains clients, notamment pour les besoins du secteur public européen.

Mistral-AI-devoile-Mistral-Large-et-lance-Le-Chat
❌
❌