Sélectionner une page
Formations IA Deep Learning Formation PyTorch : Deep Learning

Formation PyTorch : Deep Learning

Niveau confirmé
Catégorie Essential
Logo Formation PyTorch Deep Learning
Prix HT / personne
3 jours (21 heures)

Paris | Classe Virtuelle

Dernières places Virtuelle uniquement
Labs : Infrastructure DaaS avec Chrome
Cafés et déjeuners offerts en interentreprises
En intra-entreprise pour former votre équipe
Aide au financement 2500€ Bonus Atlas CPF

Présentation

Notre formation PyTorch vise à donner une compréhension claire des bases du Machine Learning et du Deep Learning. Les participants apprendront à manipuler les données avec pandas et PyTorch, et à mettre en œuvre des modèles modernes d’IA de façon autonome.

Le programme débute par une introduction aux différentes familles d’algorithmes (supervisé, non supervisé, auto-supervisé, par renforcement) et aux fondamentaux du traitement des données. Des ateliers pratiques permettent de se familiariser avec PyTorch, les tenseurs et la préparation de jeux de données.

La suite approfondit les architectures Deep Learning : perceptrons multicouches, CNN et régularisation. Les apprenants expérimentent la rétropropagation, l’optimisation et le transfer learning, en créant des modèles pour des cas réels en vision par ordinateur.

Le troisième axe explore les données séquentielles et les modèles avancés : RNN, LSTM, GRU et surtout Transformers. Les participants découvrent les embeddings, le mécanisme d’attention et comparent des approches classiques aux modèles récents comme BERT ou Vision Transformers.

Enfin, la formation s’ouvre aux grands modèles de langage (LLMs) et à leurs usages concrets (chatbots, classification, génération). Les participants manipulent Ollama et Open WebUI pour déployer un modèle localement et construisent une bibliothèque de codes réutilisables.

Comme toutes nos formations, celle-ci vous présentera la dernière version stable en date et ses nouveautés : PyTorch 2.8.

 

Objectifs

  • Comprendre les principes du Machine Learning et du Deep Learning
  • Être capable d’installer et d’utiliser Pytorch et pandas pour la manipulation des données de façon autonome
  • Connaître les grandes familles en IA que sont l’apprentissage supervisé, non supervisé, auto supervisé et par renforcement
  • Implémenter des architectures de Deep Learning avec PyTorch (MLP, CNN, RNN et Transformers)
  • Entraîner des modèles en sachant régulariser, optimiser et évaluer ceux-ci
  • Constituer une bibliothèque de codes réutilisables
  • Comprendre le processus d’obtention des LLM, leurs cas d’usage et l’utilisation de modèle open-source afin de déployer en local via Ollama et Open WebUI

 

Public visé

  • Développeurs
  • Architectes
  • Big Data Data analyst
  • Data scientist

 

Pré-requis

  • Connaissance de Python
  • Connaissance de numpy sera en plus

 

Pré-requis techniques

  • 32 Go de RAM idéalement
  • Avoir Docker desktop installé sur sa machine
  • 35 Go de libre sur disque pour l’image Docker et les jeux de données
  • Si vous ne pouvez pas remplir tout les prérequis, une alternative : se créer un compte Google Colab

 

Pour aller plus loin

Programme de la formation PyTorch

 

Jour 1 – matin : Introduction au Machine Learning et au Deep Learning

  • Lancement de l’environnement de développement incluant PyTorch via docker ou Google Colab
  • Introduction à Python, Jupyter Notebook, PyTorch et pandas
  • Découverte des fondamentaux du Machine Learning : définition, cas d’usages et principaux défis
  • Les typologies d’algorithmes du Machine Learning : supervisé (classification, régression), non supervisé, semi supervisé, auto supervisé, apprentissage par renforcement
  • Préparation des données : analyse exploratoire, nettoyage, création de variables quantitatives à
  • partir de variables catégorielles, traitement des données manquantes (NaN values) et non représentatives, mise à l’échelle de la donnée
  • Atelier pratique :
    • Prise en main de PyTorch et pandas : manipulation des tenseurs et DataFrames
    • Nettoyage et mise à l’échelle de la donnée sur une base de données immobilière

 

Jour 1 – après-midi : Algorithmes de Machine Learning et descente degradient

  • Fonction de coût vs métrique, Sous-apprentissage/Surapprentissage, Split Train/Test, Validation Croisée
  • Descente de gradient (BGD, SGD, MiniBGD) appliquée à la régression linéaire. Régularisation (L1, L2, early stopping)
  • Présentation d’algorithmes classiques du Machine Learning supervisé : Régression Linéaire (régression), Régression Logistique (classification binaire) et Régression Softmax (classification multiclasse)
  • Revue succincte d’autres algorithmes supervisés et non supervisés : Random Forest, XGBoost, KMeans, etc.
  • Atelier pratique:
    • Implémentation manuelle et apprentissage des modèles classiques de Machine Learning. Optimisation des hyperparamètres
    • Utilisation de scikit-learn pour l’utilisation d’autres algorithmes supervisés ou non supervisés

 

Jour 2 – matin : Multi-Layer Perceptron et PyTorch autograd

  • Histoire du Deep Learning
  • Autograd (PyTorch) et l’algorithme de reverse mode autodiff sur un exemple
  • Implémentation d’un perceptron et extension en MLP avec torch.nn
  • Apprentissage d’un MLP via rétropropagation du gradient par autograd
  • Sauvegarde et restauration d’un modèle
  • Manipulation des classes Dataset et DataLoader
  • Méthodes de régularisation des modèles Deep Learning : Dropout, Data Augmentation
  • Présentation succincte des optimizers : SGD, RMSprop, Adam, etc.
  • Notion d’embeddings, leur importance pour la réduction de dimension et leur utilisation en transfer learning
  • Atelier pratique:
    • Substitution de la descente de gradient manuelle par autograd
    • Implémentation d’un MLP et apprentissage sur données tabulaires et d’images MNIST

 

Jour 2 – après-midi : CNN et vision par ordinateur

  • Principe des convolutions et pooling
  • Architecture d’un CNN et comparaison avec un MLP
  • Présentation de CNN avancés : VGG, ResNet et MobileNet
  • Classification d’mages avec transfer learning (ImageNet)
  • Architecture du Convolutional Autoencoders
  • Possibilité de création de modèles hybrides
  • Atelier Pratique :
    • Implémentation et apprentissage de LeNet-5 en PyTorch sur données MNIST
    • Transfer learning à partir d’un modèle CNN avancé
    • Utilisation du Conv Autoencoders pour le débruitage

 

Jour 3 – matin : Traitement de données séquentielles : RNNs et Transformers

  • Historique des couches pour le traitement séquentiel des données (RNN, LSTM, GRU) et les différentes architectures de données séquentielles (séquence à séquence, prédiction/many-to-one, …)
  • Approche classique des techniques Bag-of-Words via scikit-learn : CountVectorizer, TF-IDF
  • Mécanisme d’attention et de la couche Transformer
  • Embeddings : BERT
  • Transformers appliqués aux images : Vision Transformers (ViT)
  • Atelier Pratique :
    • Prédictions des tags sur des questions Stack Overflow : prétraitement via bag-of-words vs embeddings
    • Substitution du modèle LeNet-5 par un modèle ViT

 

Jour 3 – après-midi : LLMs et ChatBot

  • Des Transformers à ChatGPT : entraînement, fine-tuning et alignement RLHF
  • Choix des modèles : Taille, Quantification, cas d’usage, etc.
  • Différence Fine-Tuning vs RAG
  • Usage des API et de LLMs locaux pour le développement
  • Prompt engineering : zero-shot, few-shot
  • Atelier Pratique :
    • Prédiction des sentiments de tweets via LSTM et/ou Transformers
    • Prise en main d’Ollama, instanciation d’un chatbot via Open WebUI. Exercice de prédiction de sentiments
    • via prompt engineering : zero shot vs few shot

Langues et Lieux disponibles

Langues

  • Français
  • Anglais / English

Lieux

  • France entière
    • Paris
    • Lille
    • Reims
    • Lyon
    • Toulouse
    • Bordeaux
    • Montpellier
    • Nice
    • Sophia Antipolis
    • Marseille
    • Aix-en-Provence
    • Nantes
    • Rennes
    • Strasbourg
    • Grenoble
    • Dijon
    • Tours
    • Saint-Étienne
    • Toulon
    • Angers
  • Belgique
    • Bruxelles
    • Liège
  • Suisse
    • Genève
    • Zurich
    • Lausanne
  • Luxembourg

Nos Formateurs Référents

Maxence

Maxence

Entrepreneur spécialiste en Intelligence Artificielle, il est le co-fondateur et CTO de YourCall, un service client conversationnel IA. Son temps se divise entre du développement d’architectures de réseaux de neurones très orientés vers le domaine du NLP et du développement serveur en NodeJS.

Témoignages

1 octobre 2025

Les + : Formateur très pédagogue avec qui il est facile de poser des questions et de discuter (je recommande !) Le contenu est super intéressant, avec un bon balayage de l’état de l’art.

Les – : Le temps de pratique. Mais au vu du contenu et du temps (3 jours), cela est très bien. Il faut pratiquer par nous même par la suite.

Je souhaite suivre : Langchain

En synthèse : merci au formateur, j’ai passé un super moment 🙂

Alexis M. de chez CNPP ENTREPRISE

vAfficher tous les témoignages

1 octobre 2025

Les + : Formateur très pédagogue avec qui il est facile de poser des questions et de discuter (je recommande !) Le contenu est super intéressant, avec un bon balayage de l’état de l’art.

Les – : Le temps de pratique. Mais au vu du contenu et du temps (3 jours), cela est très bien. Il faut pratiquer par nous même par la suite.

Je souhaite suivre : Langchain

En synthèse : merci au formateur, j’ai passé un super moment 🙂

Alexis M. de chez CNPP ENTREPRISE
1 octobre 2025

Les + : Bonne couverture, bonne pédagogie

Les – : Manque peut être un peu de temps

Je souhaite suivre : Peut être autour de tensorFlow ou RAG LLM

En synthèse : Je vais avoir du boulot demain

Pascal N. de chez IMSA
28 novembre 2024

Je recommande la formation

Thomas C. de chez FITTINGBOX
28 novembre 2024

Je recommande la formation

Jérôme G. de chez FITTINGBOX
28 novembre 2024

Je recommande la formation

Florian L. de chez FITTINGBOX
28 novembre 2024

Je recommande la formation

Bastien D. de chez FITTINGBOX
28 novembre 2024

Je recommande la formation

Guillaume T. de chez FITTINGBOX
28 novembre 2024

Je recommande la formation

Mohamed El-bastu A. de chez FITTINGBOX
28 novembre 2024

Je recommande la formation

Pierre P. de chez FITTINGBOX
28 novembre 2024

Je recommande la formation

Matthieu L. de chez FITTINGBOX
12 juin 2024

Les + : Adaptabilité aux questions et aux besoins

Les – : Manques de supports/notes réutilisable après.

Jean-Paul T. de chez CHANEL SAS
12 juin 2024

Les – : On aurait peut-être pu passer plus de temps sur la préparation des données (gestion des labels, valeurs manquantes, etc.). Cela aurait pu servir de cas pratique pour la toute première partie

Sara L. de chez Orange Bank

Noter la formation

Prix HT / personne
3 jours (21 heures)

Paris | Classe Virtuelle

Dernières places Virtuelle uniquement
Labs : Infrastructure DaaS avec Chrome
Cafés et déjeuners offerts en interentreprises
En intra-entreprise pour former votre équipe
Aide au financement 2500€ Bonus Atlas CPF

UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?

Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.

ILS SE SONT FORMÉS CHEZ NOUS

partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp
partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp