Tous Text GenerationMultimodal / Text GenerationEmbeddingsLong ContextCode Generation
NVIDIA Text Generation 30B

Nemotron-3-Nano-30B-A3B

Un modèle performant de 30B optimisé par NVIDIA, disponible en version GGUF pour une utilisation efficace sur matériel grand public.

NVIDIAGGUFReasoning30B
Consulter le dossier →
Alibaba Cloud Multimodal / Text Generation 35B (3B active)

Qwen 3.5 35B (A3B)

Architecture hybride MoE + Gated Delta Networks. 35B de paramètres au total mais seulement 3B activés par token, ce qui donne la puissance d'un gros modèle avec la vitesse d'un petit.

Hybrid-MoEInférence rapideMultimodalLong Context
Consulter le dossier →
Google Embeddings 308M

EmbeddingGemma

Le modèle d'embedding open-weights de Google. Il transforme du texte en vecteurs (embeddings) et sert de moteur pour les systèmes RAG locaux.

RAGVecteursRecherche sémantiqueSLM
Consulter le dossier →
HuggingFaceTB Text Generation 1.7B

SmolLM2

Modèle ultra-compact (1.7B) créé par Hugging Face. Entraîné sur un dataset très soigné (Cosmo-Corpus) pour tirer le maximum de sa petite taille.

SLMInférence CPUInférence mobileRecherche
Consulter le dossier →
Meta Text Generation 1B / 3B

Llama 3.2

La version ultra-légère de Llama. En 1B et 3B, ce modèle est pensé pour tourner directement sur mobile ou sur du matériel très modeste.

Inférence localeMobileEdge AISLM
Consulter le dossier →
Alibaba Cloud Text Generation 1.5B / 3B / 7B

Qwen 2.5

Une gamme de SLMs (Small Language Models) avec un bon support multilingue et de solides capacités en code, de 1.5B à 7B.

Inférence localeCodeMultilingueSLM
Consulter le dossier →
Microsoft Text Generation 3.8B

Phi-3.5 Mini

Évolution du Phi-3 Mini. Toujours 3.8B de paramètres, mais avec une attention multi-requêtes (MQA) et une fenêtre de contexte de 128k.

Inférence localeSLMMobileMQA
Consulter le dossier →
Mistral AI Long Context 12B

Mistral NeMo

Collaboration avec NVIDIA. Un modèle 12B avec une fenêtre de contexte de 128k, bien adapté au RAG et à l'analyse de documents longs.

RAGLong contexteMultilingue
Consulter le dossier →
Google Text Generation 9B / 27B / 2B

Gemma 2

Architecture bien optimisée. Gemma 2 (9B et 27B) offre des performances qui rivalisent avec des modèles beaucoup plus lourds.

EdgeEfficacitéGénération
Consulter le dossier →
DeepSeek Code Generation 16B / 236B

DeepSeek Coder V2

Modèle spécialisé code qui tient la comparaison avec les meilleurs modèles fermés. Très utile pour l'assistance au développement.

CodeDéveloppementMathématiques
Consulter le dossier →
Microsoft Text Generation 3.8B

Phi-3 Mini

Modèle compact (3.8B) de Microsoft, optimisé pour les appareils avec peu de ressources. Il raisonne bien malgré sa petite taille.

Inférence localeSLMMobileRaisonnement
Consulter le dossier →
Meta Text Generation 8B / 70B

Llama 3

La nouvelle génération de modèles ouverts par Meta. De bons résultats pour sa taille, adapté à l'inférence locale et au raisonnement.

Inférence localeCodeRaisonnement
Consulter le dossier →
experimental.brain.fr Text Generation 7B

fr.brain.carotte-7B

Un modèle expérimental francophone de 7 milliards de paramètres créé il y a deux ans. Une archive historique de l'évolution de l'IA ouverte en France.

HistoriqueFrancophoneGGUFExpérimental
Consulter le dossier →