#Llama.cpp
2 articles trouvés
Nemotron-3-Nano-30B-A3B : Le nouveau champion 30B pour l'inférence locale
NVIDIA proposent une version optimisée du Nemotron-3-Nano-30B-A3B. Voici comment le faire tourner en local avec llama.cpp, du CPU au GPU.
Pi Coding Agent + Llama.cpp, un assistant de code 100% privé et local
Comment monter un environnement de dev IA sous Docker, sans dépendre d'API tierces ni faire fuiter votre code, via pi et llama.cpp.