Formation TensorFlow

4,6 rating
Logo Formation TensorFlow

2800€

2520€ HT / personne

4 jours (28 heures)

Paris
Il ne reste que quelques places
Disponible aussi en intra-entreprise pour former votre équipe.

Présentation

TensorFlow est devenu en un temps record l’un des frameworks de référence pour le Deep Learning et l’Intelligence Artificielle, utilisé aussi bien dans la recherche qu’en entreprise pour des applications en production. 

 

Formez-vous dès maintenant au Framework IA de Référence !

Avec 25K contributeurs, Tensorflow fait partie du TOP 10 des projets les plus suivi actuellement sur GitHub et vous allez découvrir dans cette formation que ce n’est pas un hasard ! Des milliers de personnes contribuent également à ses dépendances, comme Numpy, Pytest, etc.

Découvrez comment résoudre des problèmes difficiles de Machine Learning avec la nouvelle librairie Open Source Tensorflow, le système révolutionnaire de Google d’apprentissage profond. Cette formation pratique vous montre comment construire, et quand utiliser, des architectures d’apprentissage profond. Vous apprendrez comment concevoir des systèmes capables de détecter des objets dans des images, comprendre la parole humaine, analyser la vidéo et prédire certains phénomènes. Nous aborderons ces concepts à travers des exemples pratiques afin que vous puissiez utiliser cette technologie dans vos projets Big Data. La formation AI & Deep Learning avec Tensorflow abordera les réseaux de neurones (convolutional neural networks). Vous maîtriserez également les concepts clés tels que la fonction SoftMax, les réseaux neuronaux à code automatique (Autoencoder Neural Networks), les réseaux récurrents, la machine Boltzmann restreinte (RBM, Restricted Boltzmann Machine).

Comme dans toutes nos formations, celle-ci vous présentera la toute dernière version stable de TensorFlow 2.0, sortie en Octobre 2019 couplée à Python 3.7.

 

Objectifs

  • Découvrir les nouveautés de la v2 et être capable d’installer et d’utiliser TensorFlow de manière autonome
  • Comprendre le concept de Deep Learning et être capable de l’utiliser avec TensorFlow
  • Manipuler des volumes importants de données en utilisant les bonnes pratiques grâce à TensorFlow
  • Configurer une machine pour runner des modèles de deep learning
  • Créer un pipeline de données avec data augmentation
  • Utiliser des modèles pré-construits (estimators) de TensorFlow sur un Dataset
  • Comprendre la théorie derrière les différents blocs des réseaux de neurones
  • Construire un réseau de neurones avec TensorFlow
  • Comprendre la théorie de l’entrainement d’un réseau de neurones
  • Lancer l’entrainement du réseau
  • Surveiller et affiner l’entrainement grâce à Tensorboard et à des callbacks
  • Utiliser des réseaux déjà pré-entraînés pour les appliquer à un cas précis
  • Appliquer les réseaux de neurones à différents cas d’application

 

Public visé

  • Data Analyst / Data Scientist / Data Engineer
  • Développeurs, Architectes Big Data, Lead Developer

 

Pré-requis

  • Connaissance de Python

 

Pour aller plus loin

Programme de notre formation TensorFlow version 2.0

 

Journée 1

Matin : Manipulation de vecteurs et tenseurs avec TensorFlow

  • Installation
    • Tensorflow vs Tensorflow-gpu
    • Google Colab
  • Calcul matriciel
    • Définition de tf.placeholder, tf.Tensor, tf.constant
    • Opérations classiques sur les tenseurs (addition, multiplication)
    • Cas d’application : Loading d’images sous forme de tenseurs
    • Manipulation plus avancée (reshaping)

 

Après-midi : Construire un pipeline de données

  • Bonnes pratiques : Données Pipeline
    • Entrainement vs Validation
  • Preprocessing
    • Normalisation
    • Missing values & Imputing
  • Numpy arrays
  • Data Generators
  • tf.Dataset
    • Initiate DataSet
    • Add preprocessing steps
    • Shuffling
  • Data Augmentation

 

Journée 2

Matin : Utiliser un modèle TensorFlow pré-construit

  • TensorFlow Estimators

 

Après-midi : Théorie des Réseaux de Neurones

  • Neural Networks Theory
    • Neuron
    • Dense Layers
    • Activations Functions
    • tanh
    • sigmoid
    • softmax
    • ReLU
    • Leaky ReLU
  • Multi-layer perceptrons
    • Réseau dense
    • Exemple
  • Convolutions
    • Kernels
    • Padding
    • Strides
  • Pooling
    • Max Pooling
    • Average Pooling
  • Réseau convolutionnel
    • Shapes
  • Building Neural Networks
    • tf.keras.layers
    • Dense
    • Activation
    • Conv2D
    • MaxPooling

 

Journée 3

Matin : Construire un réseau de neurones

  • Building Neural Networks (suite)
  • tf.keras Sequential API
    • Introduction à l’API
    • Cas d’usage : Réseaux convolutionnels simples
  • tf.keras Functional API
    • Introduction à l’API
    • Cas d’usage : Réseaux résiduels ResNet)
  • tf.keras Subclassing API
    • Introduction à l’API
    • Cas d’usage

 

Après-midi : Entrainement de Réseaux de Neurones

  • Learning Rate
  • Epochs, Batch Size
  • Losses
  • Gradient Methods
    • Gradient Descent
    • Stochastic Gradient Descent
    • Adam
  • Suivi de l’entrainement
    • TensorFlow Callbacks
      • tf.keras.callbacks.ModelCheckpoint
      • tf.keras.callbacks.ReduceLROnPlateau
    • TensorBoard
  • Overfitting / Underfitting
    • Regularization
    • Dropout
  • Architectures de Réseaux de Neurones classiques
  • Transfer Learning
  • Créer une boucle d’entrainement custom avec tf.GradientTape

 

Journée 4

Matin : Cas d’applications

  • Détection de visages & Classification d’émotion
  • Classification de séquences de textes
    • Introduction au NLP
    • Cas pratique

 

Après-midi : Cas d’applications (suite)

  • Génération d’images par Generative Adversarial Networks
    • Introduction aux Generative Adversarial Networks GAN
    • Cas pratique
  • Compression d’images avec des Autoencoders
    • Introduction aux Autoencoders
    • Cas pratique

 

Module Complémentaire Tensorflow IoT – 2 jours supplémentaires (uniquement pour des formations d’équipe)

 

TensorFlow appliqué à l’IoT

  • Pourquoi utiliser un système l’embarqué ?
    • IoT et IA (Théorie)
      • État de l’art : Exemples concrets et possibilités d’application de l’AI à IoT
      • Les deux principales architectures
        • Cloud AI (Théorie)
        • Exemples avec Google Cloud
      • On device inference (Théorie)
      • Exemples d’applications sur Raspberry Pi

TENSORFLOW

  • Une brève revue
  • Contrainte
    • De Python à C++ (Théorie)
      • Python 3.X et n’importe quelle version de C++, en utilisant Bazel
    • Hardware (Théorie)
      • Raspberry (Ubuntu 16.04 ou 18.04) ARM64
    • Les VPU / TPU
      • Intel Movidius Neural Compute Stick

Présentation de TensorFlow Lite Optimisation

  • Initialiser un environnement (Théorie + Exercices)
    • R1.14 (stable) ou R2.0 (stable/preview)
  • Workflow
    • Présentation globale (Théorie)
    • Obtenir un modèle (Exercices)
      • Exemple avec InceptionV3
    • Convertir (exercices)
      • Utilisation de TensorFlow Lite Converter
      • Charger le graphique en C++
    • Déployer et appliquer
      • Sur un système Ubuntu (16.04 ou 18.04)
    • Optimiser (Exercices)
      • Quantization
  • Performance
    • Best practices (Théorie + Exercices)
      • Supprimer la redondance
      • Jouer avec le multi-threading

 

Module Complémentaire TensorFlow Avancé – 4 jours supplémentaires (uniquement pour des formations d’équipe)

 

Les Nouveautés TensorFlow 2.0

  • Construction de modèle facile avec l’API Keras
  • Déploiement de modèles robustes en production sur n’importe quelle plate-forme
  • Nettoyage des API obsolètes et réduction des duplications
  • Itération immédiate et un débogage intuitif
  • Nouvelles extensions
    • Tensors Ragged
    • TensorFlow Probability
    • Tensor2Tensor
  • Module de Compatibilité à TensorFlow 1
    • tensorflow.compat.v1

Comprendre le Deep Learning

  • Deep Learning : La révolution de l’Intelligence Artificielle
  • Les limites du Machine Learning
  • Avantages du Deep Learning face au Machine learning
  • Les raisons de passer au Deep
  • Exemples de la vie réelle et scénarios applicables
  • Les Math derrière le Machine Learning : Linear Algebra
    • Scalars
    • Vectors
    • Matrices
    • Tensors
    • Hyperplanes
  • Les Math derrière le Machine Learning : Statistics
    • Probability
    • Conditional Probabilities
    • Posterior Probability
    • Distributions
    • Samples vs Population
    • Resampling Methods
    • Selection Bias
    • Likelihood
  • Les algorithmes du Machine Learning
    • Regression
    • Classification
    • Clustering
  • Reinforcement Learning
  • Underfitting & Overfitting
  • Optimization
  • Convex Optimization

 

TensorFlow

  • Définition : Neural Networks
  • Biological Neuron
  • Perceptron
  • Multi-Layer Feed-Forward Networks
  • Apprentissage Neuronal (Learning Neural Networks)
  • Backpropagation Learning
  • Gradient Descent
  • Stochastic Gradient Descent
  • Quasi-Newton Optimization Methods
  • Generative vs Discriminative Models
  • Activation Functions
    • Linear
    • Sigmoid
    • Tanh
    • Hard Tanh
    • Softmax
    • Rectified Linear
  • Loss Functions
  • Loss Function Notation
  • Loss Functions for Regression
  • Loss Functions for Classification
  • Loss Functions for Reconstruction
  • Hyperparameters
  • Learning Rate
  • Regularization
  • Momentum
  • Sparsity

 

Comprendre les réseaux neuronaux

  • Defining Deep Learning
  • Defining Deep Networks
  • Common Architectural Principals of Deep Networks
  • Reinforcement Learning application in Deep Networks
  • Parameters
  • Layers
  • Activation Functions – Sigmoid, Tanh, ReLU
  • Loss Functions
  • Optimization Algorithms
  • Hyperparameters

 

Convolutional Neural Network (CNN Algorithm)

  • Introduction à CNN
  • Mise en application et architecture d’un CNN
  • Couches de convolution : Pooling layers in a CNN
  • Couches de convolution et de mise en commun dans une CNN
  • Comprendre et visualiser un CNN
  • Transfert d’apprentissage et mise au point des réseaux de neurones convolutionnels

 

Recurrent Neural Networks (RNN Algorithm)

  • Introduction au RNN Model
  • Cas d’utilisation du RNN
  • Modelling sequences
  • Apprentissage RNNs avec Backpropagation
  • Long Short-Term memory (LSTM)
  • Recursive Neural Tensor Network Theory
  • Recurrent Neural Network Model

 

RBM & Autoencoders

  • Restricted Boltzmann Machine
  • Applications de RBM
  • Collaborative Filtering avec RBM
  • Introduction à l’Autoencoders
  • Autoencoders applications
  • Comprendre et utiliser Autoencoders
  • Variational Autoencoders
  • Deep Belief Network
Langues et Lieux disponibles

Langues

  • Français
  • Anglais / English

Lieux

  • France entière
    • Paris
    • Lille
    • Reims
    • Lyon
    • Toulouse
    • Bordeaux
    • Montpellier
    • Nice
    • Sophia Antipolis
    • Marseille
    • Aix-en-Provence
    • Nantes
    • Rennes
    • Strasbourg
    • Grenoble
    • Dijon
    • Tours
    • Saint-Étienne
    • Toulon
    • Angers
  • Belgique
    • Bruxelles
    • Liège
  • Suisse
    • Genève
    • Zurich
    • Lausanne
  • Luxembourg

Nos Formateurs Référents

Maxence

Maxence

Entrepreneur spécialiste en Intelligence Artificielle, il est le co-fondateur et CTO de Boby, un assistant personnel d’un nouveau genre. Son temps se divise entre du développement d’architectures de réseaux de neurones très orientés vers le domaine du NLP et du développement serveur en NodeJS.

Raphaël

Raphaël

Data Scientist

Diplômé de l’ENSTA Paris et de l’Université Paris-Saclay avec un double master en mathématiques appliquées et data science.Passionné de technique il a présenté lors de la conférence PyCon2018 un talk sur les GANs. Il est aussi contributeur Keras et créateur de tf-explain, une librairie d’interopérabilité pour TensorFlow 2.0 sur laquelle il parlera à PyData New-York en novembre 2019.

Témoignages

4,0 rating
28 février 2019

Formateur à l’écoute.
Pédagogie fondée sur du concret.
Bon équilibre pratique et théorique
Bon esprit de groupe.
Points d’amélioration:
Certains éléments auraient pu être plus détaillés sur le côté théorique pour en faciliter l’explication. (ex: les différentes tailles dans les CNN ou la convolution transposée)

Amaury de chez GE Medical Systems
Afficher tous les témoignages
4,0 rating
28 février 2019

Formateur à l’écoute.
Pédagogie fondée sur du concret.
Bon équilibre pratique et théorique
Bon esprit de groupe.
Points d’amélioration:
Certains éléments auraient pu être plus détaillés sur le côté théorique pour en faciliter l’explication. (ex: les différentes tailles dans les CNN ou la convolution transposée)

Amaury de chez GE Medical Systems
5,0 rating
28 février 2019

Personnellement j’aurais apprécié plus de théorie et de travail sur les concepts. Cela dit la formation porte sur l’outil Tensorflow et de ce point de vue, nous avons vu un large panel de problématique.

Olivier de chez Orange
5,0 rating
28 février 2019

Très bonne appréciation du formateur

Gil de chez PPRS Research
5,0 rating
20 décembre 2018

Globalement content de cette formation.
Je suis quelqu’un qui aime bien tout comprendre et savoir comment les choses fonctionnent.
Je savais qu’il s’agissait d’un domaine très complexe avec des problématiques compliquées et tout était nouveau pour moi.
J’ai appris pas mal de choses et Maxence a su vulgariser les 2-3 méthodes que l’on a utilisées. Il a su m’ouvrir l’esprit sur ce qu’il est possible de faire en Deep learning avec Tensorflow et sur tout l’écosystème. Les notions basiques sont acquises et j’ai globalement compris le reste.
Les problèmes étaient complexes et le domaine gigantesque, je prends donc cette formation comme une ouverture et un boost pour me permettre de me lancer dans les problématiques IA au sein de mon entreprise. Je compte faire une autre formation de machine learning simple ( pas deep) pour m’ouvrir un maximum les horizons.
Néanmoins je trouve que ça manquait de professionnalisme. Maxence est très gentil et smart, mais je pense qu’il est toujours possible de mieux préparer les exercices de manière à ce que l’on fonctionne en vrai TP. Il aurait peut-être mieux valu nous laisser faire dans certains cas, sans son aide pour qu’on avance. Ça n’a pas posé plus de problème que ça ceci dit.
Je sors avec cette impression que j’ai appris 1% de ce qui se fait, et que j’ai beaucoup de travail alors c’est très frustrant, mais ça me motive aussi.!

Jules T. chez Bureaux A Partager
5,0 rating
19 octobre 2018

3 jours étaient suffisants.
Après dans ce genre de formation, on aimerait bien aller plus en profondeur dans certaines techniques et/ou choix, mais qui nécessiterait beaucoup plus de temps.

David D. chez AirLiquide
4,0 rating
29 juin 2018

Bonne appréciation globale de la formation, formateur compétent et à l’écoute du groupe.
Avoir les différents exercices déjà prêts aurait aidé à gagner du temps, et de se concentrer sur les problématiques de ML.

Adnan A. chez 4Dconcept

Réponse d'Ambient Formations

Bonjour Adnan, et merci pour votre commentaire, cela nous aide beaucoup à améliorer notre formation. Maxence a pour habitude de créer du contenu différent, en fonction du groupe, mais aussi de l’actualité. Lors de la formation, c’est donc la Coupe du Monde qui a été mise en avant.

5,0 rating
28 juin 2018

Formation riche, permet d’acquérir les bonnes bases pour utiliser Tensorflow. Equipe sympathique et serviable. Bonne conditions de travail, ordinateurs, climatisation, boissons et gâteaux. Merci !

Patrick T. chez Safran
4,0 rating
28 juin 2018

J’ai appris beaucoup de choses !

Samuel B. chez Université Catholique de Lille
5,0 rating
26 janvier 2018

Malgré son jeune age et ses connaissances légères en théorie, Max a su captiver mon attention à travers sa veille technologique, sa franchise et ses hacks.

ZERYAB M. MOSS / THALES R.S
4,0 rating
26 janvier 2018

On touche beaucoup à Tensorflow, on a le temps de se confronter au premiers écueils avec l’aide du formateur. On finit par comprendre les différents types de réseaux de neurones entrevus dans la partie théorique. Le formateur parle de manière posée, sa manière de présenter est adaptée.
Concernant le contenu, la maîtrise de l’environnement et du monitoring devrait être plus développée, avec une partie du cours théorique dédié vraiment à ces APIs.

Arnaud B. MOSS/ THALES R.S
5,0 rating
4 août 2017

Formation complète sur Tensorflow et gain de temps ! Formateur compétent. Il n’y a plus qu’à mettre en application.

Alexis D. chez DeerCoders
Noter la formation

2800€

2520€ HT / personne

4 jours (28 heures)

Paris
Il ne reste que quelques places
Disponible aussi en intra-entreprise pour former votre équipe.

Une question ? Un projet ?

Pour des informations complémentaires, n’hésitez pas à nous contacter.