01
Avancé 45 min

Fine-tuning local avec LoRA et Unsloth

Découvrez comment spécialiser un modèle de langage sur vos propres données locales, le tout sans avoir besoin d'un cluster de GPU hors de prix.

02
Intermédiaire 25 min

Générer des images en local avec Flux.1

Comment faire tourner le meilleur générateur d'images open-source directement en local sur votre carte graphique.

03
Intermédiaire 20 min

Sécuriser les applications LLM en production

Prompt injection, fuite de données et déni de service. Les bases de la sécurité offensive et défensive pour vos intégrations IA.

04
Débutant 10 min

Choisir entre RAG et Fine-tuning

Les développeurs confondent souvent ces deux approches. Apprenez quand utiliser une base vectorielle et quand réentraîner un modèle.

05
Avancé 20 min

Transcription audio locale avec Whisper.cpp

Transcrire de l'audio en texte directement sur votre CPU, sans passer par une API cloud payante.

06
Intermédiaire 15 min

Remplacer GitHub Copilot par une IA locale

Comment utiliser Ollama avec des extensions comme Cline ou Continue.dev pour coder avec une IA sans fuiter votre code source.

07
Intermédiaire 20 min

Comprendre les Embeddings et le Search Vectoriel

Le mécanisme derrière le RAG et la recherche sémantique. Comment ça marche dans l'espace multidimensionnel.

08
Débutant 15 min

Appeler une API LLM avec Node.js et Python

Les bases pour intégrer un modèle de langage dans vos applications web ou vos scripts d'automatisation.

09
Avancé 1h

Créer un système RAG de zéro

Comment connecter un LLM à vos propres données locales. Un guide complet pour l'implémentation d'un RAG avec Python et ChromaDB.

10
Avancé 30 min

Comprendre llama.cpp et le format GGUF sous le capot

Le moteur C++ derrière l'inférence locale. Comment ça marche et comment optimiser vos modèles au plus près de la RAM.

11
Intermédiaire 20 min

L'art du Prompt Engineering

Comment structurer vos prompts pour obtenir des résultats prévisibles et exploitables, au lieu de parler au LLM comme à un humain.

12
Débutant 10 min

Déployer un LLM localement avec Ollama

Faites tourner des modèles open-source sur votre machine sans dépendre du cloud. Rapide, privé et gratuit.