Sélectionner une page
Formations Data IA Formation PyTorch Fast.Ai : Deep Learning

Formation PyTorch Fast.Ai : Deep Learning

Rated 4,0 out of 5
Logo Formation PyTorch Deep Learning
Prix 1995€ HT / personne
Durée 3 jours (21 heures)

Paris | Classe Virtuelle

Il ne reste que quelques places
Cafés et déjeuners offerts en interentreprises
Disponible en intra-entreprise pour former votre équipe
Aide au Financement 4000€ de Bonus Atlas en CPF

Présentation

PyTorch et la librairie Fastai respectivement soutenus par Facebook Research (FAIR) et une communauté de développeurs autour de Jeremy Howard (co-fondateur de Kaggle) constituent un duo de choc pour découvrir de manière rapide la puissance des algorithmes de Deep Learning.

La release 1 de PyTorch sortie en décembre 2018 et la version 2 de Fastai sont disponibles de manière transparente sur l’environnement kernel de Kaggle ou colab de Google.

Après un rappel succinct du paradigme du Machine Learning, et des différentes taches où le Deep Learning surpasse les méthodes traditionnelles, nous implémenterons les taches classiques comme la classification d’images, de textes, les vecteurs de mots, les auto-encoders. Au travers de l’environnement Anaconda, nous utiliserons CUDA proposé par NVIDIA pour accélérer nos traitements.

Suivant le déroulement du cours et TP, une participation à un ou plusieurs challenges data sur Kaggle (ou autre) sera organisée. La comparaison avec le framework concurrent, TensorFlow de Google avec la libraire Keras (maintenant intégrée avec TF v2.0), sera abordée durant le cours.

À la fin du cours, les participants auront une compréhension approfondie des caractéristiques et des capacités de PyTorch, ainsi que de son rôle et de sa contribution dans l’IA par rapport à d’autres frameworks et bibliothèques. Les participants auront également reçu la pratique nécessaire pour mettre en œuvre PyTorch dans leurs propres projets.

Comme toutes nos formations, celle-ci vous présentera la dernière version stable en date et ses nouveautés : PyTorch 2.2 et Fastai 2.7.

 

Objectifs

  • Comprendre le concept de Deep Learning et être capable de l’utiliser avec pyTorch avec ou sans fast.ai
  • Savoir exploiter les ressources web ( github, arxiv) pour se constituer une bibliothèque de cas d’usages prête à l’emploi
  • Être capable d’installer et d’utiliser Pytorch/ Fastai de manière autonome
  • Comprendre le concept de Machine Learning et être capable de l’utiliser dans PyTorch

 

Public visé

  • Développeurs
  • Architectes
  • Big Data Data analyst
  • Data scientist

 

Pré-requis

  • Connaissance de Python
  • Connaissance de numpy sera en plus

 

Pré-requis techniques

  • Avoir Anaconda installé ou un accès à Google Collab

 

Pour aller plus loin

Programme de la formation PyTorch

 

Jour 1 – matin : Deep Learning : La révolution de l’Intelligence Artificielle

  • Définition du machine learning comme problème d’optimisation
  • Les typologies d’algorithmes de machine learning : supervisé (classification, régression), non-supervisé, semi-supervisé, autosupervisé, apprentissage par renforcement
  • Sous-apprentissage, surapprentissage, généralisation (courbe d’apprentissage), métrique et évaluation
  • Les Mathématiques derrière le Machine Learning : algèbre linéaire, statistiques/probabilités, descente de gradient appliqué à la régression linéaire
  • Les avantages et limites du Machine Learning expliqués sur la régression logistique et le SVM
  • Avantages du Deep Learning face au Machine learning expliqués sur le MLP et les CNN
  • Les raisons de passer au Deep Learning
  • Exemples de la vie réelle et scénarios applicables
  • Présentation de Pytorch
  • Présentation des surcouches fastai et pytorch ligthning

 

Jour 1 – après-midi : Installation et prise en main de Pytorch : manipulation de vecteurs et tenseurs avec Pytorch

  • Installation : installation de Pytorch, anaconda, drivers ; Google Collab
  • Utiliser Pytorch comme Numpy : tenseurs, opérations et variables
  • Cas d’usages
  • Création d’un module réseau de neurones
  • Chargement d’un dataset et découpage en dataset de train et de test avec Pytorch et Sklearn
  • Utilisation de métriques Sklearn puis de Tensorboard pour la visualisation des résultats
  • Optimisation des hyperparamètres et principe du AutoML
  • Sauvegarder et restaurer un modèle
  • Utiliser les callbacks

 

Jour 2 – matin : Introduction aux CNN et application au traitement d’images

  • Mise en application et architecture d’un CNN (convolution, pooling, data augmentation)
  • Comprendre et visualiser un CNN et le produit de convolution
  • Couches de convolution et de mise en commun (classification) dans une CNN
  • Transfert d’apprentissage et mise au point des réseaux de neurones convolutionnels
  • Explication de la backpropagation sur un exemple et implémentation en Pytorch
  • Classification d’images de bout en bout : téléchargement d’une base d’apprentissage,(chien/chat, ours : teddy,grizzly,black bear), utilisation d’une architecture à l’état de l’art (ResNet) par transfer learning
  • Comparaison de la création d’un CNN avec Pytorch et FastAI

 

Jour 2 – après-midi : Multi Layer Perceptron (MLP) sur des données tabulaires

  • Explication du concept d’embedding et son importance pour la réduction de dimension sémantique
  • Chargement de données csv avec la librairie Pandas
  • Création de variables quantitatives à partir de variables qualitatives/catégorielles, traitement des données manquantes (nan values), normalisation avec Pandas puis FastAI
  • Création d’un auto-encodeur
  • Application à la visualisation (PCA, T-SNE, UMAP) et clustering d’embeddings (application à la recommandation d’items)

 

Jour 3 – matin : Traitement du texte

  • Explication des words embeddings
  • Utilisation avec la librairie Spacy (word2vec, CBOW, Glove, TF-IDF)
  • Explication des sentences embeddings
  • Utilisation avec la librairie Universal Sentence Encoder
  • Utilisation des librairies Flair et HuggingFace pour des tâches classiques de NLP (sentiment analysis français et anglais, prédiction, …)

 

Jour 3 – après-midi : Introduction aux LSTMs et application à l’analyse et prédiction de séries temporelles

  • Mise en application et architecture d’un LSTM (séquence à séquence, prédiction/many-to-one, …)
  • RNN vs LSTM vs GRU
  • Explication du mécanisme d’attention (vs Transformer)
  • Création d’un LSTM
  • Application pour de la prédiction de séries temporelles (cours boursiers ou ventes)

Langues et Lieux disponibles

Langues

  • Français
  • Anglais / English

Lieux

  • France entière
    • Paris
    • Lille
    • Reims
    • Lyon
    • Toulouse
    • Bordeaux
    • Montpellier
    • Nice
    • Sophia Antipolis
    • Marseille
    • Aix-en-Provence
    • Nantes
    • Rennes
    • Strasbourg
    • Grenoble
    • Dijon
    • Tours
    • Saint-Étienne
    • Toulon
    • Angers
  • Belgique
    • Bruxelles
    • Liège
  • Suisse
    • Genève
    • Zurich
    • Lausanne
  • Luxembourg

Nos Formateurs Référents

Benjamin

Benjamin

Entrepreneur et formateur en Data Science et Big Data (No-SQL, MongoDB, Spark/Hadoop) depuis près de 5 années, j’ai un parcours académique d’expertise en recherche et développement en Deep Learning. Avec plusieurs projets autour du multimédia et de la multimodalité en vision et traitement d’images, du son et Natural Language Processing.

Témoignages

Rated 5,0 out of 5
17 mai 2023

Je recommande la formation

Majd S. de chez B-COM

vAfficher tous les témoignages

Rated 5,0 out of 5
17 mai 2023

Je recommande la formation

Majd S. de chez B-COM
Rated 4,0 out of 5
17 mai 2023

Les + : Partie théorique très bien détaillée avec un formateur qui connait bien son sujet.

Notebook avec des exercices pratiques et corrections disponibles

Ouverture et discussions possibles avec le formateur

Les – : Temps de formation trop limité par rapport au programme dispensé pour faire les exercices pratique en séance.

On en ressort avec une assez bonne connaissance théorique du sujet mais un manque de pratique qui ne nous permet pas d’être vraiment autonome.

Par ailleurs, le processus de certification n’inclut pas d’accompagnement tutoré, ce qui nous laisse seul devant le projet que nous souhaitons développer. Pas évident…

Zile L.
Rated 4,0 out of 5
17 mai 2023

Les + : La partie théorique, le catalogue de docs (notebooks, githubs, hugging face, et autres liens développés en live), la dispo et les connaissances du formateur

Les – : certains temps morts / indisponibilité des GPU sur google colab / à distance, on ne voit que les partages d’écrans ou le formateur à son bureau mais pas quand il est au tableau

Gildas P. de chez CREDIT AGRICOLE LEASNING& FACTORING
Rated 5,0 out of 5
27 octobre 2022

Les + : Très bon prof

Kim F. de chez SONERGIA
Rated 4,0 out of 5
27 octobre 2022

Les + : Orientation pratique de la formation

Les – : Peut-être prévoir aux candidats de venir avec un petit jeu de données caractéristique de leur besoin pour une demi-journée cas d’usage personnels.

Bastien B. de chez AGRO INNOVATION INTERNATIONAL
Rated 4,0 out of 5
15 septembre 2021

Un peu rapide beaucoup d’informations.

Pablo V. de chez SONERGIA
Rated 3,0 out of 5
15 septembre 2021

Je recommande la formation

Frédéric R. de chez SONERGIA
Rated 3,0 out of 5
15 septembre 2021

Bon panorama des différents outils et librairie de l’écosystème.

Manque de TP, il eu été interessant de passer du temps à implémenter quelque chose d’un peu gros.

Simon B. de chez Photobox
Rated 4,0 out of 5
23 juin 2021

Je recommande la formation

Bernard M. de chez
Rated 4,0 out of 5
23 juin 2021

pragmatisme

Gaëtan B. de chez ADEO
Rated 4,0 out of 5
23 juin 2021

Survol du domaine et présentation des dernières techno de l’état de l’art. Présentation intéressante du framework et des méthodes de codage.

Mise en pratique proposée

Beaucoup d’aspect théoriques sur la fin avec les LSTM / Transformers qui auraient mérités plus de temps pour en comprendre l’intuition derrière.

Peu de temps pour la mise en pratique, peut être ajouter une journée ?

Ajouter un prérequis Python et non C++/objet pour faciliter le déroulement des phases « programmation ».

Globalement formation intéressante qui a permis d’avoir un survol rapide des possibilités offertes par PyTorch avec quelques exemples sur cas d’école. A voir si le passage à l’échelle sur des problèmes plus concret se fera facilement ou pas…

Damien V. de chez INSTITUT SUPERIEUR DE L'AERONAUTIQUE ET DE L'ESPACE
Rated 4,0 out of 5
23 juin 2021

Flexibilité et connaissance approfondie du sujet par Benjamin

beaucoup de sujets à traiter en peu de temps

Mathieu T. de chez CSTB

Noter la formation

Prix 1995€ HT / personne
Durée 3 jours (21 heures)

Paris | Classe Virtuelle

Il ne reste que quelques places
Cafés et déjeuners offerts en interentreprises
Disponible en intra-entreprise pour former votre équipe
Aide au Financement 4000€ de Bonus Atlas en CPF

UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?

Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.

ILS SE SONT FORMÉS CHEZ NOUS

partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp
partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp