Sélectionner une page
Formations IA Ingénieur IA Formation IA Souveraine : Axolotl, Kubernetes & Llama 3

Formation IA Souveraine : Axolotl, Kubernetes & Llama 3

Niveau confirmé
Catégorie Essential
Formation IA souveraine
Prix 2290€ HT / personne
3 jours (21 heures)

Paris | Classe Virtuelle

Dernières places Virtuelle uniquement
Labs : Infrastructure DaaS avec Chrome
Cafés et déjeuners offerts en interentreprises
En intra-entreprise pour former votre équipe
Aide au financement 2500€ Bonus Atlas CPF

Présentation

Déployez une IA souveraine en interne en combinant Axolotl (fine-tuning), Kubernetes (industrialisation) et Llama 3 (LLM open weights). Vous apprendrez à entraîner, servir et sécuriser des modèles pour des cas d’usage concrets : assistants métiers, RAG sur documents, classification et extraction.

Cette formation vise à rendre opérationnelle une chaîne complète : préparation des données, adaptation de Llama 3 via Axolotl (LoRA/QLoRA), packaging des artefacts et mise en production sur Kubernetes avec observabilité et contrôle des accès.

Notre approche est 100% pratique : ateliers guidés, démos reproductibles, scripts d’automatisation. Livrables : repo de configuration Axolotl, manifests Kubernetes (Deployment/Service/Ingress), pipeline de build, checklist sécurité et runbook d’exploitation afin de valider vos acquis.

Comme toutes nos formations, celle-ci vous présentera la dernière version stable de la technologie et ses nouveautés.

 

Objectifs

  • Préparer et valider un dataset d’entraînement adapté au cas d’usage.
  • Fine-tuner Llama 3 avec Axolotl (LoRA/QLoRA) et évaluer les résultats.
  • Servir le modèle (vLLM/TGI) et gérer la montée en charge.
  • Déployer sur Kubernetes avec GPU, autoscaling et stockage.
  • Sécuriser et superviser l’inférence (auth, logs, métriques, coûts).

 

Public visé

  • Ingénieurs ML / MLOps
  • DevOps / SRE
  • Architectes cloud / plateforme
  • Développeurs backend intégrant des LLM

 

Pré-requis

  • Bonnes bases Linux et ligne de commande
  • Notions Python (environnements, dépendances)
  • Fondamentaux Docker et images
  • Connaissances Kubernetes (pods, services, ingress)
  • Notions de base en NLP/LLM (tokenisation, prompts)

 

Pré-requis techniques

  • 32 Go RAM recommandés (16 Go minimum), CPU 8 cœurs
  • GPU NVIDIA recommandé : 16 Go VRAM minimum (24 Go+ idéal), drivers + CUDA
  • OS : Linux ou macOS ; Windows via WSL2 possible
  • Outils : Docker, kubectl, Helm, Git, éditeur de code
  • Accès à un cluster Kubernetes (local ou distant) avec nœuds GPU si entraînement/inférence accélérés

Programme de formation IA Souveraine : Axolotl, Kubernetes & Llama 3

 

[Jour 1 – Matin]

Fondations d’une IA souveraine et prise en main de Llama 3

  • Définir les objectifs de souveraineté : données, modèles, infrastructure, traçabilité
  • Panorama Llama 3 : tailles, licences, contraintes matérielles, cas d’usage (chat, RAG, classification)
  • Choisir un format de déploiement : weights, quantification (4/8 bits), CPU vs GPU
  • Mettre en place un environnement reproductible : Python, CUDA, drivers, gestion des versions
  • Atelier pratique : Lancer une inférence locale Llama 3 et mesurer latence/VRAM.

 

[Jour 1 – Après-midi]

Préparer l’adaptation du modèle avec Axolotl (LoRA/QLoRA)

  • Comprendre l’approche fine-tuning vs instruction tuning vs RAG (critères de choix)
  • Structurer un dataset : formats (JSONL), champs (instruction/input/output), règles de qualité
  • Configurer Axolotl : modèle de base, tokenizer, hyperparamètres, batch/grad accumulation
  • Mettre en place l’évaluation : jeux de tests, métriques simples, tests de non-régression
  • Atelier pratique : Construire un dataset d’instructions et générer une config Axolotl prête à entraîner.

 

[Jour 2 – Matin]

Entraîner et versionner un adaptateur LoRA avec Axolotl

  • Lancer un entraînement LoRA/QLoRA : paramètres clés (lr, epochs, warmup, cutoff_len)
  • Optimiser les coûts : gradient checkpointing, quantification, choix du rank/alpha LoRA
  • Suivre l’entraînement : logs, courbes, détection d’overfitting, early stopping
  • Versionner les artefacts : adaptateurs, config, dataset, reproductibilité (seed, commit)
  • Atelier pratique : Exécuter un fine-tuning QLoRA, exporter l’adaptateur et valider sur un set de tests.

 

[Jour 2 – Après-midi]

Packaging et serving du modèle pour Kubernetes

  • Choisir un serveur d’inférence : vLLM / TGI / llama.cpp (critères : perf, GPU, streaming)
  • Construire une image container : dépendances, cache des weights, démarrage déterministe
  • Exposer une API : endpoints, timeouts, streaming, limites de tokens, concurrency
  • Gérer la configuration : variables d’environnement, fichiers, séparation modèle/adaptateur
  • Atelier pratique : Conteneuriser un serveur d’inférence Llama 3 + LoRA et tester l’API en local.

 

[Jour 3 – Matin]

Déployer sur Kubernetes : GPU, scaling et fiabilité

  • Déployer avec manifests : Deployment/StatefulSet, Services, probes (liveness/readiness)
  • Activer l’accès GPU : device plugin, requests/limits, node selectors, taints/tolerations
  • Gérer la montée en charge : HPA, autoscaling basé sur métriques, files d’attente
  • Observabilité : logs structurés, métriques (latence, tokens/s), alerting
  • Atelier pratique : Déployer l’inférence sur un cluster Kubernetes et valider la stabilité via probes et charge.

 

[Jour 3 – Après-midi]

Sécurité, conformité et exploitation d’une IA souveraine

  • Sécuriser l’accès : authn/authz, réseau (NetworkPolicies), quotas, rate limiting
  • Gérer secrets et données : Secrets, chiffrement, politiques de rétention, traçabilité des prompts
  • Gouvernance du modèle : registre interne, validation, rollback, contrôle des versions
  • Bonnes pratiques d’exploitation : runbooks, tests de dérive, monitoring qualité des réponses
  • Atelier pratique : Mettre en place une politique d’accès + journalisation minimale et un plan de rollback du modèle.

Pour aller plus loin

Formation suite OpenAI

Formation Copilot

Formation Make

Langues et Lieux disponibles

Langues

  • Français
  • Anglais / English

Lieux

  • France entière
    • Paris
    • Lille
    • Reims
    • Lyon
    • Toulouse
    • Bordeaux
    • Montpellier
    • Nice
    • Sophia Antipolis
    • Marseille
    • Aix-en-Provence
    • Nantes
    • Rennes
    • Strasbourg
    • Grenoble
    • Dijon
    • Tours
    • Saint-Étienne
    • Toulon
    • Angers
  • Belgique
    • Bruxelles
    • Liège
  • Suisse
    • Genève
    • Zurich
    • Lausanne
  • Luxembourg

Témoignages

⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !

Afficher tous les témoignages

⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !

Noter la formation

Prix 2290€ HT / personne
3 jours (21 heures)

Paris | Classe Virtuelle

Dernières places Virtuelle uniquement
Labs : Infrastructure DaaS avec Chrome
Cafés et déjeuners offerts en interentreprises
En intra-entreprise pour former votre équipe
Aide au financement 2500€ Bonus Atlas CPF

UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?

Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.

ILS SE SONT FORMÉS CHEZ NOUS

partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp
partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp