Sélectionner une page
Formations Data IA Formation TensorFlow : Deep Learning & AI

Formation TensorFlow

Rated 4,4 out of 5
Logo Formation TensorFlow
Prix 2520€ HT / personne
Durée 4 jours (28 heures)

Paris | Classe Virtuelle

Il ne reste que quelques places
Cafés et déjeuners offerts en interentreprises
Disponible en intra-entreprise pour former votre équipe
Aide au Financement 4000€ de Bonus Atlas en CPF

Présentation

 Notre formation Tensorflow vous permettra d’utiliser le framework TensorFlow, l’un des outils les plus utilisés pour l’apprentissage automatique et l’analyse de données.

Cette formation vous permettra de découvrir les bases de TensorFlow ainsi que ses applications dans la résolution de problèmes complexes. Tout au long de la formation, vous aurez l’opportunité de mettre en pratique vos connaissances grâce à des exercices pratiques et des exemples concrets.

Vous apprendrez comment déployer des modèles TensorFlow sur différentes plates-formes, telles que les applications mobiles et web, et comment les intégrer à des systèmes existants.

Nous nous pencherons ensuite sur les fonctions de coût, les optimiseurs et les différentes méthodes de régularisation pour améliorer les performances du modèle.

Comme dans toutes nos formations, celle-ci vous présentera la toute dernière version stable de TensorFlow 2.15, sortie en Mars 2023 couplée à Python 3.12.

 

Objectifs

  • Découvrir les nouveautés de la v2 et être capable d’installer et d’utiliser TensorFlow de manière autonome
  • Comprendre le concept de Deep Learning et être capable de l’utiliser avec TensorFlow
  • Manipuler des volumes importants de données en utilisant les bonnes pratiques grâce à TensorFlow
  • Configurer une machine pour runner des modèles de deep learning
  • Créer un pipeline de données avec data augmentation
  • Utiliser des modèles pré-construits (estimators) de TensorFlow sur un Dataset
  • Comprendre la théorie derrière les différents blocs des réseaux de neurones
  • Construire un réseau de neurones avec TensorFlow
  • Comprendre la théorie de l’entrainement d’un réseau de neurones
  • Lancer l’entrainement du réseau
  • Surveiller et affiner l’entrainement grâce à Tensorboard et à des callbacks
  • Utiliser des réseaux déjà pré-entraînés pour les appliquer à un cas précis
  • Appliquer les réseaux de neurones à différents cas d’application

 

Public visé

  • Data Analyst / Data Scientist / Data Engineer
  • Développeurs, Architectes Big Data, Lead Developer

 

Pré-requis

  • Connaissance de Python idéalement, ou langage récent de programmation
  • Connaissances en Mathématiques (exemple : gradient, moyenne/écart type), idéalement niveau bac+2 école d’ingénieur

 

PRÉ-REQUIS LOGICIELS

  • L’installation de TensorFlow peut se faire avec une compatibilité GPU sous Windows comme sur Linux
  • Ou bien pour celles et ceux qui n’ont pas un PC assez puissant ou qui ne veulent pas de cette complexité, vous pourrez tout à fait réaliser l’ensemble du cours sur Google Colab (qui met à disposition des GPUs gratuitement sous réserve d’avoir un compte)

 

RECOMMANDATIONS DE LECTURES AVANT ET APRÈS LA FORMATION

Je vous recommande les ressources suivantes pour vous aider à approfondir vos connaissances en TensorFlow :

  • Le blog TensorFlow de Google, qui contient des informations détaillées sur les dernières versions de TensorFlow et des astuces pour son utilisation
  • Le livre Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow de Aurélien Géron
  • La chaîne YouTube TensorFlow de Google, qui propose des tutoriels vidéo sur les principes de l’apprentissage automatique et de TensorFlow
  • Les forums de développeurs TensorFlow pour discuter avec d’autres utilisateurs et poser des questions sur le Framework
  • Le blog de Jason Brownlee, qui propose des astuces et des exemples de code pour l’apprentissage automatique et TensorFlow

Programme de notre formation TensorFlow version 2

 

Journée 1 matin : Manipulation de vecteurs et tenseurs avec TensorFlow

  • Installation
    • Installation de Tensorflow
    • Google Collab
  • Utiliser Tensorflow comme Numpy
    • Tenseurs et opérations
    • Variables
  • Cas d’usages
    • Huber Loss
    • Import d’images

 

Après-midi : Construire un pipeline de données

  • Tensorflow Data API
    • Concept de Dataset
    • Enchaîner les transformations
    • Shuffle de la donnée
    • Entrelacement
    • Création d’un pipeline de lecture de CSV complet
    • Optimisations
  • API de prétraitement Tensorflow
    • Utilité
    • Colonnes numériques
    • Colonnes catégorielles
    • Utilisation en tant que layer

 

Journée 2 matin : Introduction aux réseaux de neurones avec Keras

  • Keras
    • De la biologie aux neurones artificiels
    • Le neurone biologique
    • Calculs logiques avec des neurones
    • Le perceptron
    • Les MLPs et la rétropropagation
    • MLPs de régression
    • MLPs de classification
  • Implémenter des MLPs avec Tensorflow
    • Sauvegarder et restaurer un modèle
    • Utiliser des callbacks

 

Après-midi : Entraîner des Réseaux de Neurones

  • Le problème du “Vanishing Gradient”
    • Réutilisation de modèles pré-entraînés
    • Optimiseurs plus rapides
  • Mise en pratique
    • Création d’un classificateur d’image avec l’API Séquentielle
    • Création d’une régression avec l’API Séquentielle
    • Création de modèles complexes avec l’API Fonctionnelle
    • Optimisation des hyperparamètres

 

Journée 3 matin : CNN

  • La vision par ordinateur
  • L’architecture du cortex visuel
  • Les couches de convolutions
  • Les couches de Pooling
  • Les différentes architectures des réseaux de neurones convolutionnels (CNN)
  • Data Augmentation

 

Après-midi : Travaux pratique sur les Modèles

  • Implémentation d’un CNN Simple sur TensorFlow
  • Utilisation de modèles pré-entraînés
  • Modèles pré-entraînés pour du Transfer Learning
  • Classification et localisation d’objets

 

Journée 4 matin : Cas d’applications

  • Traitement des données séquentielles avec des RNNs et des CNNs
    • Les neurones et les layers récurrents
    • Entraîner un RNN
    • Prédire une série temporelle
  • Mise en pratique du Natural Language Processing with RNNs
    • Comment préparer les données textuelles ?
    • Comment séparer le dataset en de multiples fenêtres ?
    • Générer du fake Shakespear
    • Classification de texte : Analyse Sentimentale

 

Après-midi : Autoencoders

  • Representation Learning et Generative Learning avec des AutoEncodeurs et des GANs
    • Créer un PCA avec une partie d’AutoEncodeur
    • Construire un “Stacked Autoencoder” avec TensorFlow
    • Générer de faux vêtements avec des GANs

Module Complémentaire Tensorflow IoT – 2 jours supplémentaires (uniquement pour des formations d’équipe)

 

TensorFlow appliqué à l’IoT

  • Pourquoi utiliser un système l’embarqué ?
    • IoT et IA (Théorie)
      • État de l’art : Exemples concrets et possibilités d’application de l’AI à IoT
      • Les deux principales architectures
        • Cloud AI (Théorie)
        • Exemples avec Google Cloud
      • On device inference (Théorie)
      • Exemples d’applications sur Raspberry Pi

 

TENSORFLOW

  • Une brève revue
  • Contrainte
    • De Python à C++ (Théorie)
      • Python 3.X et n’importe quelle version de C++, en utilisant Bazel
    • Hardware (Théorie)
      • Raspberry (Ubuntu 16.04 ou 18.04) ARM64
    • Les VPU / TPU
      • Intel Movidius Neural Compute Stick

 

Présentation de TensorFlow Lite Optimisation

  • Initialiser un environnement (Théorie + Exercices)
    • R1.14 (stable) ou R2.0 (stable/preview)
  • Workflow
    • Présentation globale (Théorie)
    • Obtenir un modèle (Exercices)
      • Exemple avec InceptionV3
    • Convertir (exercices)
      • Utilisation de TensorFlow Lite Converter
      • Charger le graphique en C++
    • Déployer et appliquer
      • Sur un système Ubuntu (16.04 ou 18.04)
    • Optimiser (Exercices)
      • Quantization
  • Performance
    • Best practices (Théorie + Exercices)
      • Supprimer la redondance
      • Jouer avec le multi-threading

 

Module Complémentaire TensorFlow Avancé – 4 jours supplémentaires (uniquement pour des formations d’équipe)

 

Les Nouveautés TensorFlow 2.x

  • Construction de modèle facile avec l’API Keras
  • Déploiement de modèles robustes en production sur n’importe quelle plate-forme
  • Nettoyage des API obsolètes et réduction des duplications
  • Itération immédiate et un débogage intuitif
  • Nouvelles extensions
    • Tensors Ragged
    • TensorFlow Probability
    • Tensor2Tensor
  • Module de Compatibilité à TensorFlow 1
    • tensorflow.compat.v1

 

Comprendre le Deep Learning

  • Deep Learning : La révolution de l’Intelligence Artificielle
  • Les limites du Machine Learning
  • Avantages du Deep Learning face au Machine learning
  • Les raisons de passer au Deep
  • Exemples de la vie réelle et scénarios applicables
  • Les Math derrière le Machine Learning : Linear Algebra
    • Scalars
    • Vectors
    • Matrices
    • Tensors
    • Hyperplanes
  • Les Math derrière le Machine Learning : Statistics
    • Probability
    • Conditional Probabilities
    • Posterior Probability
    • Distributions
    • Samples vs Population
    • Resampling Methods
    • Selection Bias
    • Likelihood
  • Les algorithmes du Machine Learning
    • Regression
    • Classification
    • Clustering
  • Reinforcement Learning
  • Underfitting & Overfitting
  • Optimization
  • Convex Optimization

 

TensorFlow

  • Définition : Neural Networks
  • Biological Neuron
  • Perceptron
  • Multi-Layer Feed-Forward Networks
  • Apprentissage Neuronal (Learning Neural Networks)
  • Backpropagation Learning
  • Gradient Descent
  • Stochastic Gradient Descent
  • Quasi-Newton Optimization Methods
  • Generative vs Discriminative Models
  • Activation Functions
    • Linear
    • Sigmoid
    • Tanh
    • Hard Tanh
    • Softmax
    • Rectified Linear
  • Loss Functions
  • Loss Function Notation
  • Loss Functions for Regression
  • Loss Functions for Classification
  • Loss Functions for Reconstruction
  • Hyperparameters
  • Learning Rate
  • Regularization
  • Momentum
  • Sparsity

 

Comprendre les réseaux neuronaux

  • Defining Deep Learning
  • Defining Deep Networks
  • Common Architectural Principals of Deep Networks
  • Reinforcement Learning application in Deep Networks
  • Parameters
  • Layers
  • Activation Functions – Sigmoid, Tanh, ReLU
  • Loss Functions
  • Optimization Algorithms
  • Hyperparameters

 

Convolutional Neural Network (CNN Algorithm)

  • Introduction à CNN
  • Mise en application et architecture d’un CNN
  • Couches de convolution : Pooling layers in a CNN
  • Couches de convolution et de mise en commun dans une CNN
  • Comprendre et visualiser un CNN
  • Transfert d’apprentissage et mise au point des réseaux de neurones convolutionnels

 

Recurrent Neural Networks (RNN Algorithm)

  • Introduction au RNN Model
  • Cas d’utilisation du RNN
  • Modelling sequences
  • Apprentissage RNNs avec Backpropagation
  • Long Short-Term memory (LSTM)
  • Recursive Neural Tensor Network Theory
  • Recurrent Neural Network Model

 

RBM & Autoencoders

  • Restricted Boltzmann Machine
  • Applications de RBM
  • Collaborative Filtering avec RBM
  • Introduction à l’Autoencoders
  • Autoencoders applications
  • Comprendre et utiliser Autoencoders
  • Variational Autoencoders
  • Deep Belief Network

Pour aller plus loin

Introduction au Deep Learning

Formation Pytorch

Formation Metaflow

Formation Deep Learning pour l’interprétation et le traitement d’images

Formation Deep Learning pour le traitement du langage

Formation Deep Reinforcement Learning

Langues et Lieux disponibles

Langues

  • Français
  • Anglais / English

Lieux

  • France entière
    • Paris
    • Lille
    • Reims
    • Lyon
    • Toulouse
    • Bordeaux
    • Montpellier
    • Nice
    • Sophia Antipolis
    • Marseille
    • Aix-en-Provence
    • Nantes
    • Rennes
    • Strasbourg
    • Grenoble
    • Dijon
    • Tours
    • Saint-Étienne
    • Toulon
    • Angers
  • Belgique
    • Bruxelles
    • Liège
  • Suisse
    • Genève
    • Zurich
    • Lausanne
  • Luxembourg

Nos Formateurs Référents

Maxence

Maxence

Entrepreneur spécialiste en Intelligence Artificielle, il est le co-fondateur et CTO de Boby, un assistant personnel d’un nouveau genre. Son temps se divise entre du développement d’architectures de réseaux de neurones très orientés vers le domaine du NLP et du développement serveur en NodeJS.
Raphaël

Raphaël

Data Scientist

Diplômé de l’ENSTA Paris et de l’Université Paris-Saclay avec un double master en mathématiques appliquées et data science.Passionné de technique il a présenté lors de la conférence PyCon2018 un talk sur les GANs. Il est aussi contributeur Keras et créateur de tf-explain, une librairie d’interopérabilité pour TensorFlow 2.0 sur laquelle il parlera à PyData New-York en novembre 2019.

Témoignages

Rated 5,0 out of 5
1 février 2024

Les + : Formation assez complète, riche et dense qui permet de faire le tour de différents types de réseaux de neurones et qui allie théorie et pratique.

Les – : La durée de 4 jours relativement courte

Je souhaite suivre : Formation en Data Engineering

En synthèse : Très bien! Formateur très compétent et à l’écoute.

Merci Thomas

Ismaël I. de chez BPCE INFOGERANCE ET TECHNOLOGIES

Afficher tous les témoignages

Rated 5,0 out of 5
1 février 2024

Les + : Formation assez complète, riche et dense qui permet de faire le tour de différents types de réseaux de neurones et qui allie théorie et pratique.

Les – : La durée de 4 jours relativement courte

Je souhaite suivre : Formation en Data Engineering

En synthèse : Très bien! Formateur très compétent et à l’écoute.

Merci Thomas

Ismaël I. de chez BPCE INFOGERANCE ET TECHNOLOGIES
Rated 5,0 out of 5
1 février 2024

Je recommande la formation

Cyrille B. de chez EFLUID
Rated 4,0 out of 5
8 juin 2023

Les + : Application pratique approfondie

Les – : Passage rapide sur la théorie

Claire M. de chez Eramet IDEAS
Rated 5,0 out of 5
8 juin 2023

Les + : Manipulation, Alternance théorie/pratique. Expérience de terrain du formateur.

Les – : –

Je souhaite suivre : Je ne sais pas

En synthèse : L’accueil est impeccable, le cadre de travail très agréable. Le matériel pédagogique est également bien adapté aux besoins de la formation.

La formation est de haut niveau et demande de très solides connaissances. Le formateur a su se partager entre les stagiaires en présentiel et ceux en distanciel.

Philippe B. de chez SNCF Voyageurs - Direction du Matériel
Rated 4,0 out of 5
8 juin 2023

Je recommande la formation

Nicolas L. de chez MACIF - Service : Développement des compétences
Rated 5,0 out of 5
8 juin 2023

Les + : Beaucoup de cas d’usage concret et formateur disponible, les TPs sont bien et permettre de bien comprendre les problématiques.

Les – : Peut être un peut cours pour traiter l’ensemble des sujets, j’aurais aimer aborder l’apprentissage par renforcement et le sujet autour du déploiement des modèles et le suivi en production

Je souhaite suivre : pour le moment je n’ai pas d’autres besoin, je vais déjà digérer celle-ci 🙂

Vincent F. de chez Darva
Rated 4,0 out of 5
25 mai 2023

Les + : panorama global des applications possibles du deep learning

Les – : un peu trop dense

David M. de chez
Rated 5,0 out of 5
9 février 2023

Je recommande la formation

RENAUD L. de chez INSTITUT CURIE
Rated 4,0 out of 5
9 février 2023

Les + : multiples cas d’usage

Les – : bien comprendre la théorie

Je souhaite suivre : opencv ?

JULINE L. de chez SNCF Voyageurs - Direction du Matériel
Rated 4,0 out of 5
9 février 2023

Les + : Super formateur, formation très tournée pratique qui donne de bonnes bases en TensorFlow , on ne s’ennuie pas !

Locaux sympas.

Les – : Il manquerait un peu de théorique pour mieux comprendre les mathématiques derrière les concepts utilisés.

Maxime G. de chez Moss S.A.S
Rated 4,0 out of 5
15 septembre 2022

Bcp de pratique + échanges

Rapide

Merci au formateur !

Léa L. de chez V. MANE FILS
Rated 4,0 out of 5
15 septembre 2022

La structure du cours est bien pensée et le formateur est disponible et maîtrise son sujet

Format intensif de 4 jours avec peu de temps passé sur certains éléments, compréhensibles étant donné la richesse et la complexité du sujet traité

Guillaume B. de chez V. MANE FILS

Noter la formation

Prix 2520€ HT / personne
Durée 4 jours (28 heures)

Paris | Classe Virtuelle

Il ne reste que quelques places
Cafés et déjeuners offerts en interentreprises
Disponible en intra-entreprise pour former votre équipe
Aide au Financement 4000€ de Bonus Atlas en CPF

UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?

Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.

ILS SE SONT FORMÉS CHEZ NOUS

partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp
partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp