ai.brain.fr
Tutoriels Modèles Chroniques Glossaire
Accueil Tutoriels Modèles Chroniques Glossaire
Exploration par sujet

#llama.cpp

Toutes les ressources de la plateforme relatives au sujet llama.cpp.

Tutoriels (1)

01

Comprendre llama.cpp et le format GGUF sous le capot

Le moteur C++ derrière l'inférence locale. Comment ça marche et comment optimiser vos modèles au plus près de la RAM.

→

Chroniques (2)

Pi Coding Agent + Llama.cpp, un assistant de code 100% privé et local

Comment monter un environnement de dev IA sous Docker, sans dépendre d'API tierces ni faire fuiter votre code, via pi et llama.cpp.

Nemotron-3-Nano-30B-A3B : Le nouveau champion 30B pour l'inférence locale

NVIDIA proposent une version optimisée du Nemotron-3-Nano-30B-A3B. Voici comment le faire tourner en local avec llama.cpp, du CPU au GPU.

brain. ia locale, déchiffrée.
Mentions Légales CGU Confidentialité (RGPD) © 2026