Sélectionner une page
Formations IA IA générative Formation LLaMA-Factory et Unsloth

Formation LLaMA-Factory et Unsloth

Niveau confirmé
Catégorie Essential
Logo llama unsloth
Prix 2 100€ HT / personne
3 jours (21 heures)

Paris | Classe Virtuelle

Dernières places Virtuelle uniquement
Labs : Infrastructure DaaS avec Chrome
Cafés et encas offerts en interentreprises
En intra-entreprise pour former votre équipe
Aide au financement 2500€ Bonus Atlas CPF

Présentation

LLaMA-Factory et Unsloth sont aujourd’hui deux outils incontournables pour industrialiser le fine-tuning de modèles de langage open source. Grâce à leurs optimisations avancées, ils permettent d’entraîner rapidement des LLM performants tout en réduisant fortement les besoins matériels et les coûts GPU.

Notre formation LLaMA-Factory et Unsloth vous permettra de maîtriser l’ensemble de la chaîne de fine-tuning LLM : préparation des datasets, entraînement optimisé, quantization, tuning avancé, évaluation et déploiement des modèles.

Vous apprendrez à exploiter efficacement les techniques modernes de QLoRA, PEFT et 4-bit training afin d’optimiser vos infrastructures IA.

À l’issue de cette formation, vous serez en mesure de développer des pipelines complets de fine-tuning IA générative, d’industrialiser des modèles open source et d’optimiser les coûts d’entraînement et d’inférence.

Comme toutes nos formations, celle-ci vous présentera la dernière version stable de la technologie et ses nouveautés.

 

Objectifs

  • Comprendre les architectures des LLM open source
  • Maîtriser les techniques de fine-tuning modernes
  • Utiliser efficacement LLaMA-Factory et Unsloth
  • Optimiser les entraînements GPU avec QLoRA
  • Construire des datasets conversationnels métier
  • Déployer des modèles IA générative en production

 

Public visé

  • Data Scientists
  • Ingénieurs IA / Machine Learning
  • Développeurs Python
  • Ingénieurs MLOps
  • Architectes IA

 

Pré-requis

  • Bonnes connaissances de Python
  • Connaissances générales en Machine Learning
  • Notions sur PyTorch
  • Expérience des environnements GPU recommandée

 

Pré-requis techniques :

  • Ordinateur portable avec 16 Go de RAM minimum, 32 Go recommandés
  • Accès à un environnement GPU NVIDIA compatible CUDA, idéalement avec 16 Go de VRAM minimum
  • Espace disque disponible de 50 Go minimum pour les modèles, datasets et checkpoints
  • Connexion internet stable pour télécharger les modèles, dépendances et datasets

Programme de notre formation LLaMA-Factory et Unsloth : Fine-tuning LLM

 

[Jour 1 – Matin]

Environnement LLM open source et stratégies de fine-tuning

  • Comprendre les architectures LLM open source
  • Panorama des modèles LLaMA, Mistral, Qwen et Gemma
  • Différences entre prétraining, instruction tuning et fine-tuning
  • Introduction aux techniques LoRA, QLoRA et PEFT
  • Préparer un environnement GPU avec CUDA, PyTorch et Transformers
  • Atelier pratique : Installation complète de LLaMA-Factory et validation GPU.

 

[Jour 1 – Après-midi]

Prise en main de LLaMA-Factory

  • Architecture et fonctionnement de LLaMA-Factory
  • Gestion des datasets conversationnels
  • Formats Alpaca, ShareGPT et datasets personnalisés
  • Paramétrage des pipelines de fine-tuning
  • Monitoring des entraînements et gestion des checkpoints
  • Atelier pratique : Fine-tuning d’un premier modèle conversationnel.

 

[Jour 2 – Matin]

Optimisation mémoire et performances avec Unsloth

  • Comprendre les limites GPU et VRAM
  • Présentation de Unsloth et des optimisations kernel
  • Accélération du fine-tuning avec Flash Attention
  • Réduction mémoire avec 4-bit quantization
  • Comparaison performances classiques vs optimisées
  • Atelier pratique : Optimisation d’un entraînement QLoRA avec Unsloth.

 

[Jour 2 – Après-midi]

Fine-tuning avancé et jeux de données métier

  • Construction de datasets métier spécialisés
  • Nettoyage et validation des données d’entraînement
  • Techniques d’augmentation et de génération synthétique
  • Gestion des biais et hallucinations
  • Réglage des hyperparamètres critiques
  • Atelier pratique : Création d’un dataset métier et entraînement spécialisé.

 

[Jour 3 – Matin]

Évaluation, tests et alignment des modèles

  • Méthodes d’évaluation qualitative et quantitative
  • Benchmarks et métriques LLM
  • Introduction au RLHF et à l’alignement
  • Détection des dérives et hallucinations
  • Optimisation des prompts système
  • Atelier pratique : Évaluation comparative de plusieurs modèles fine-tunés.

 

[Jour 3 – Après-midi]

Industrialisation et déploiement des LLM

  • Export des modèles fine-tunés
  • Déploiement avec vLLM, Ollama et Text Generation Inference
  • Gestion des coûts GPU et stratégie d’inférence
  • Introduction aux pipelines MLOps LLM
  • Sécurisation et gouvernance des modèles IA
  • Atelier pratique : Déploiement d’un modèle fine-tuné en API locale

Pour aller plus loin

Formation Vibe Coding

Formation LLM

Formation Copilot pour Microsoft 365

Langues et Lieux disponibles

Langues

  • Français
  • Anglais / English

Lieux

  • France entière
    • Paris
    • Lille
    • Reims
    • Lyon
    • Toulouse
    • Bordeaux
    • Montpellier
    • Nice
    • Sophia Antipolis
    • Marseille
    • Aix-en-Provence
    • Nantes
    • Rennes
    • Strasbourg
    • Grenoble
    • Dijon
    • Tours
    • Saint-Étienne
    • Toulon
    • Angers
  • Belgique
    • Bruxelles
    • Liège
  • Suisse
    • Genève
    • Zurich
    • Lausanne
  • Luxembourg

Témoignages

⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !

Afficher tous les témoignages

⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !

Noter la formation

Prix 2 100€ HT / personne
3 jours (21 heures)

Paris | Classe Virtuelle

Dernières places Virtuelle uniquement
Labs : Infrastructure DaaS avec Chrome
Cafés et encas offerts en interentreprises
En intra-entreprise pour former votre équipe
Aide au financement 2500€ Bonus Atlas CPF

UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?

Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.

ILS SE SONT FORMÉS CHEZ NOUS

partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp
partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp