Reprenez le contrôle
de l'intelligence artificielle.
Déployez, expérimentez et maîtrisez les LLMs open-weights sur votre propre matériel. Une documentation technique complète pour un futur sans cloud ni censure.
$ ./init --local-only
model_load: loading weights... 100% ▕████████████▏
System isolated. Ready for local inference.
>>> System online. Awaiting input...
Analyze my private data...
Modèles Récents
Les dernières architectures prêtes à être déployées localement.
Nemotron-3-Nano-30B-A3B
30BUn modèle performant de 30B optimisé par NVIDIA, disponible en version GGUF pour une utilisation efficace sur matériel grand public.
Qwen 3.5 35B (A3B)
35B (3B active)Architecture hybride MoE + Gated Delta Networks. 35B de paramètres au total mais seulement 3B activés par token, ce qui donne la puissance d'un gros modèle avec la vitesse d'un petit.
EmbeddingGemma
308MLe modèle d'embedding open-weights de Google. Il transforme du texte en vecteurs (embeddings) et sert de moteur pour les systèmes RAG locaux.
SmolLM2
1.7BModèle ultra-compact (1.7B) créé par Hugging Face. Entraîné sur un dataset très soigné (Cosmo-Corpus) pour tirer le maximum de sa petite taille.
Llama 3.2
1B / 3BLa version ultra-légère de Llama. En 1B et 3B, ce modèle est pensé pour tourner directement sur mobile ou sur du matériel très modeste.
Tutoriels Pratiques
Guides pas-à-pas pour maîtriser l'écosystème AI open-source.
Fine-tuning local avec LoRA et Unsloth
Découvrez comment spécialiser un modèle de langage sur vos propres données locales, le tout sans avoir besoin d'un cluster de GPU hors de prix.
Générer des images en local avec Flux.1
Comment faire tourner le meilleur générateur d'images open-source directement en local sur votre carte graphique.
Sécuriser les applications LLM en production
Prompt injection, fuite de données et déni de service. Les bases de la sécurité offensive et défensive pour vos intégrations IA.
Prêt à reprendre le contrôle ?
Rejoignez la révolution de l'IA locale. Pas de requêtes d'API coûteuses, pas de fuite de données.