Formation PyTorch Fast.Ai : Deep Learning
€ HT / personne |
3 jours (21 heures) |
Présentation
PyTorch et la librairie Fastai respectivement soutenus par Facebook Research (FAIR) et une communauté de développeurs autour de Jeremy Howard (co-fondateur de Kaggle) constituent un duo de choc pour découvrir de manière rapide la puissance des algorithmes de Deep Learning.
La release 1 de PyTorch sortie en décembre 2018 et la version 2 de Fastai sont disponibles de manière transparente sur l’environnement kernel de Kaggle ou colab de Google.
Après un rappel succinct du paradigme du Machine Learning, et des différentes taches où le Deep Learning surpasse les méthodes traditionnelles, nous implémenterons les taches classiques comme la classification d’images, de textes, les vecteurs de mots, les auto-encoders. Au travers de l’environnement Anaconda, nous utiliserons CUDA proposé par NVIDIA pour accélérer nos traitements.
Suivant le déroulement du cours et TP, une participation à un ou plusieurs challenges data sur Kaggle (ou autre) sera organisée. La comparaison avec le framework concurrent, TensorFlow de Google avec la libraire Keras (maintenant intégrée avec TF v2.0), sera abordée durant le cours.
À la fin du cours, les participants auront une compréhension approfondie des caractéristiques et des capacités de PyTorch, ainsi que de son rôle et de sa contribution dans l’IA par rapport à d’autres frameworks et bibliothèques. Les participants auront également reçu la pratique nécessaire pour mettre en œuvre PyTorch dans leurs propres projets.
Comme toutes nos formations, celle-ci vous présentera la dernière version stable en date et ses nouveautés : PyTorch 2.6 et Fastai 2.7.
Objectifs
- Comprendre le concept de Deep Learning et être capable de l’utiliser avec pyTorch avec ou sans fast.ai
- Savoir exploiter les ressources web ( github, arxiv) pour se constituer une bibliothèque de cas d’usages prête à l’emploi
- Être capable d’installer et d’utiliser Pytorch/ Fastai de manière autonome
- Comprendre le concept de Machine Learning et être capable de l’utiliser dans PyTorch
Public visé
- Développeurs
- Architectes
- Big Data Data analyst
- Data scientist
Pré-requis
- Connaissance de Python
- Connaissance de numpy sera en plus
Pré-requis techniques
- Avoir Anaconda installé ou un accès à Google Collab
Pour aller plus loin
- Nous vous proposons en introduction un séminaire sur l’Intelligence Artificielle
- En complément la technologie TensorFlow de Google
Programme de la formation PyTorch
Jour 1 – matin : Introduction au Machine Learning et au Deep Learning
- Lancement de l’environnement de développement incluant PyTorch via docker ou Google Colab
- Introduction à Python, Jupyter Notebook, PyTorch et pandas
- Découverte des fondamentaux du Machine Learning : définition, cas d’usages et principaux défis
- Les typologies d'algorithmes du Machine Learning : supervisé (classification, régression), non supervisé, semi supervisé, auto supervisé, apprentissage par renforcement
- Préparation des données : analyse exploratoire, nettoyage, création de variables quantitatives à
- partir de variables catégorielles, traitement des données manquantes (NaN values) et non représentatives, mise à l’échelle de la donnée
- Atelier pratique :
- Prise en main de PyTorch et pandas : manipulation des tenseurs et DataFrames
- Nettoyage et mise à l’échelle de la donnée sur une base de données immobilière
Jour 1 – après-midi : Algorithmes de Machine Learning et descente degradient
- Fonction de coût vs métrique, Sous-apprentissage/Surapprentissage, Split Train/Test, Validation Croisée
- Descente de gradient (BGD, SGD, MiniBGD) appliquée à la régression linéaire. Régularisation (L1, L2, early stopping)
- Présentation d’algorithmes classiques du Machine Learning supervisé : Régression Linéaire (régression), Régression Logistique (classification binaire) et Régression Softmax (classification multiclasse)
- Revue succincte d’autres algorithmes supervisés et non supervisés : Random Forest, XGBoost, KMeans, etc.
- Atelier pratique:
- Implémentation manuelle et apprentissage des modèles classiques de Machine Learning. Optimisation des hyperparamètres
- Utilisation de scikit-learn pour l’utilisation d’autres algorithmes supervisés ou non supervisés
Jour 2 – matin : Multi-Layer Perceptron et PyTorch autograd
- Histoire du Deep Learning
- Autograd (PyTorch) et l’algorithme de reverse mode autodiff sur un exemple
- Implémentation d’un perceptron et extension en MLP avec torch.nn
- Apprentissage d’un MLP via rétropropagation du gradient par autograd
- Sauvegarde et restauration d’un modèle
- Manipulation des classes Dataset et DataLoader
- Méthodes de régularisation des modèles Deep Learning : Dropout, Data Augmentation
- Présentation succincte des optimizers : SGD, RMSprop, Adam, etc.
- Notion d'embeddings, leur importance pour la réduction de dimension et leur utilisation en transfer learning
- Atelier pratique:
- Substitution de la descente de gradient manuelle par autograd
- Implémentation d’un MLP et apprentissage sur données tabulaires et d’images MNIST
Jour 2 – après-midi : CNN et vision par ordinateur
- Principe des convolutions et pooling
- Architecture d’un CNN et comparaison avec un MLP
- Présentation de CNN avancés : VGG, ResNet et MobileNet
- Classification d'images avec transfer learning (ImageNet)
- Architecture du Convolutional Autoencoders
- Possibilité de création de modèles hybrides
- Atelier :
- Implémentation et apprentissage de LeNet-5 en PyTorch sur données MNIST
- Transfer learning à partir d’un modèle CNN avancé
- Utilisation du Conv Autoencoders pour le débruitage
Jour 3 – matin : Traitement de données séquentielles : RNNs et Transformers
- Historique des couches pour le traitement séquentiel des données (RNN, LSTM, GRU) et les différentes architectures de données séquentielles (séquence à séquence, prédiction/many-to-one, …)
- Approche classique des techniques Bag-of-Words via scikit-learn : CountVectorizer, TF-IDF
- Mécanisme d’attention et de la couche Transformer
- Embeddings : BERT
- Transformers appliqués aux images : Vision Transformers (ViT)
- Atelier :
- Prédictions des tags sur des questions Stack Overflow : prétraitement via bag-of-words vs embeddings
- Substitution du modèle LeNet-5 par un modèle ViT
Jour 3 – après-midi : LLMs et ChatBot
- Des Transformers à ChatGPT : entraînement, fine-tuning et alignement RLHF
- Choix des modèles : Taille, Quantification, cas d’usage, etc.
- Différence Fine-Tuning vs RAG
- Usage des API et de LLMs locaux pour le développement
- Prompt engineering : zero-shot, few-shot
- Atelier :
- Prédiction des sentiments de tweets via LSTM et/ou Transformers
- Prise en main d’Ollama, instanciation d’un chatbot via Open WebUI. Exercice de prédiction de sentiments
- via prompt engineering : zero shot vs few shot
Langues et Lieux disponibles
Langues
- Français
- Anglais / English
Lieux
-
France entière
- Paris
- Lille
- Reims
- Lyon
- Toulouse
- Bordeaux
- Montpellier
- Nice
- Sophia Antipolis
- Marseille
- Aix-en-Provence
- Nantes
- Rennes
- Strasbourg
- Grenoble
- Dijon
- Tours
- Saint-Étienne
- Toulon
- Angers
-
Belgique
- Bruxelles
- Liège
-
Suisse
- Genève
- Zurich
- Lausanne
-
Luxembourg
Nos Formateurs Référents
Maxence
Entrepreneur spécialiste en Intelligence Artificielle, il est le co-fondateur et CTO de YourCall, un service client conversationnel IA. Son temps se divise entre du développement d’architectures de réseaux de neurones très orientés vers le domaine du NLP et du développement serveur en NodeJS.
Témoignages
Je recommande la formation
vAfficher tous les témoignages
Je recommande la formation
Je recommande la formation
Je recommande la formation
Je recommande la formation
Je recommande la formation
Je recommande la formation
Je recommande la formation
Je recommande la formation
Les + : Adaptabilité aux questions et aux besoins
Les – : Manques de supports/notes réutilisable après.
Les – : On aurait peut-être pu passer plus de temps sur la préparation des données (gestion des labels, valeurs manquantes, etc.). Cela aurait pu servir de cas pratique pour la toute première partie
Je recommande la formation
Les + : Partie théorique très bien détaillée avec un formateur qui connait bien son sujet.
Notebook avec des exercices pratiques et corrections disponibles
Ouverture et discussions possibles avec le formateur
Les – : Temps de formation trop limité par rapport au programme dispensé pour faire les exercices pratique en séance.
On en ressort avec une assez bonne connaissance théorique du sujet mais un manque de pratique qui ne nous permet pas d’être vraiment autonome.
Par ailleurs, le processus de certification n’inclut pas d’accompagnement tutoré, ce qui nous laisse seul devant le projet que nous souhaitons développer. Pas évident…
Navigation Site Reviews
Noter la formation
€ HT / personne |
3 jours (21 heures) |
UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?
Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.
ILS SE SONT FORMÉS CHEZ NOUS