Formation Développer une IA Générative
2090€ HT / personne |
3 jours (21 heures) |
Présentation
Notre formation Développer une IA Générative vous permettra de découvrir et maîtriser comment créer et développer une IA. Vous apprendrez à concevoir, entraîner et exploiter des modèles capables de générer du texte, des images, du son et du code.
Vous commencerez par poser les bases : fonctionnement des réseaux de neurones, architecture des Transformers et découverte des modèles emblématiques comme GPT, BERT ou Stable Diffusion. Vous comprendrez comment ces IA “apprennent” et produisent du contenu à partir de simples données.
Vous serez ensuite guidé dans la collecte, le nettoyage et la préparation de vos datasets, avant de passer à l’entraînement de vos propres modèles. Fine-tuning, génération contrôlée, évaluation et alignement n’auront plus de secret pour vous.
Vous explorerez également la puissance des IA multimodales : générer des images à partir de descriptions, transformer un texte en musique, ou écrire du code en langage naturel. Un vrai terrain de jeu pour les esprits créatifs et techniques.
Comme pour toutes nos formations, celle-ci vous sera présentée avec les toutes dernières avancées en matière d’IA Générative.
Objectifs
- Comprendre les fondements théoriques et techniques de l’IA générative
- Identifier les cas d’usage pertinents de l’IA générative pour le développement d’IA générative
- Maîtriser les outils et frameworks incontournables
- Concevoir, entraîner et affiner ses propres modèles génératifs
- Construire des projets complets exploitant l’IA générative
- Évaluer la qualité et la pertinence des contenus générés
- Adopter une posture d’innovation raisonnée en intégrant l’IA générative dans un environnement technique ou créatif
Public visé
- Développeur
- Développeur IA
- chef(fe) de projet
- Ingénieur IA
Pré-requis
- Notions de base en machine learning ou deep learning
- Connaissance en python
Programme de notre Formation Développer un ia générative
Introduction aux IA Génératives
- Définition et distinction avec IA discriminative
- Réseaux de neurones classiques aux transformers
- L’émergence du Deep Learning et du Self-Attention
- Révolutions successives : GANs, VAEs, Transformers
- Assistants conversationnels
- Génération de contenu créatif
- Synthèse vocale / musicale / visuelle
- Applications professionnelles : marketing, prototypage, jeux vidéo, dev
Fondamentaux en Deep Learning
- Neurone artificiel, activation, propagation
- Fonction de perte et descente de gradient
- CNN, RNN, LSTM
- Encoder-Decoder
- Batching, epochs, learning rate
- Régularisation et overfitting
Transformers et NLP Moderne
- Architecture : Attention, Multi-Head Attention, Position Encoding
- Différence avec RNN et LSTM
- Tokenisation (WordPiece, BPE, SentencePiece)
- Embeddings (word2vec, GloVe, positional)
- GPT, BERT, T5, LLaMA, Mistral
- Comparaison des approches causal vs masked language modeling
Préparer ses données pour l’entraînement
- Données textuelles, visuelles, audio
- Qualité vs quantité : trade-offs
- Tokenisation et normalisation
- Filtrage, balance et biais
- TFRecords, Parquet, Datasets HuggingFace
- DataLoader et pipelines d’ingestion
Entraîner un modèle génératif
- Entraînement sur GPU / TPU
- Choix du framework : PyTorch, TensorFlow, JAX
- Fine-tuning vs entraînement from scratch
- Transfer learning
- LoRA, QLoRA, PEFT
- Perplexity, BLEU, FID, etc.
- Logging avec Weights & Biases, TensorBoard
- Checkpoints et reprise
Génération de texte avec un LLM
- Sampling, top-k, top-p (nucleus), température
- Prompts efficaces et prompt engineering
- Dialogue history, mémoire courte vs longue
- Gestion des contextes et tours de conversation
- Génération de contenus, résumés, rewriting
- Agents autonomes (AutoGPT, CrewAI)
Génération multimodale
- GANs : Generator vs Discriminator
- Modèles de diffusion
- Text-to-speech (TTS), Voice Cloning
- Music generation (Jukebox, Riffusion)
- Codex, Code LLaMA, StarCoder
- Recommandation et complétion de code
Évaluer et améliorer une IA générative
- Originalité, cohérence, diversité
- Mesures quantitatives et qualitatives
- Red Teaming & adversarial prompts
- RLHF : Reinforcement Learning from Human Feedback
- Filtrage et censure
- Détection des biais algorithmiques
- Stratégies de mitigation
Industrialiser et déployer son IA
- Transformer en API REST / gRPC
- Utilisation avec FastAPI / Flask
- Quantization, pruning, distillation
- ONNX, TensorRT, inference sur CPU
- Inference server (vLLM, TGI, Triton)
- Déploiement sur HuggingFace Hub, AWS, GCP, Azure
Pour aller plus loin
Formation retool
Formation Make
Formation Figma
Langues et Lieux disponibles
Langues
- Français
- Anglais / English
Lieux
-
France entière
- Paris
- Lille
- Reims
- Lyon
- Toulouse
- Bordeaux
- Montpellier
- Nice
- Sophia Antipolis
- Marseille
- Aix-en-Provence
- Nantes
- Rennes
- Strasbourg
- Grenoble
- Dijon
- Tours
- Saint-Étienne
- Toulon
- Angers
-
Belgique
- Bruxelles
- Liège
-
Suisse
- Genève
- Zurich
- Lausanne
-
Luxembourg
Témoignages
⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !
Afficher tous les témoignages
⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !
Noter la formation
2090€ HT / personne |
3 jours (21 heures) |
UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?
Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.
ILS SE SONT FORMÉS CHEZ NOUS