SmolLM2
Modèle ultra-compact (1.7B) créé par Hugging Face. Entraîné sur un dataset très soigné (Cosmo-Corpus) pour tirer le maximum de sa petite taille.
Aperçu
SmolLM2 montre bien que la qualité des données d’entraînement (Data Curation) compte plus que la quantité brute. Avec seulement 1.7 milliard de paramètres, il arrive à suivre des instructions et à fournir des explications claires là où d’autres modèles de cette taille se plantent.
L’entraînement a porté sur 11 trillions de tokens, filtrés drastiquement pour ne garder que le contenu le plus éducatif et informatif.
Inférence sur CPU (llama.cpp)
SmolLM2 est tellement léger qu’il peut tourner sur des processeurs anciens ou des micro-contrôleurs avancés.
# Lancement de la version 1.7B (GGUF 4-bit)
# Le fichier ne pèse qu'environ 1 Go
./llama-cli -m smollm2-1.7b-instruct-q4_k_m.gguf -n 512 -p "Qu'est-ce qu'une entropie croisée ?"
Dans le navigateur (WebGPU)
Sa petite taille en fait un bon candidat pour l’IA dans le navigateur (via Transformers.js ou WebGPU). Ça permet de créer des apps web IA qui tournent entièrement côté client, confidentialité totale, aucun coût d’API.
Recommandations
SmolLM2 1.7B convient bien pour des tâches simples de classification, de correction orthographique ou comme moteur IA dans des apps mobiles légères. C’est un bon point de départ pour expérimenter sans carte graphique.