Formations BigData & NoSQL Formation TensorFlow : Deep Learning & AI

Formation TensorFlow

Rated 4.6 out of 5
Logo Formation TensorFlow
Prix 2520€ HT / personne
Durée 4 jours ( 28 heures )
Parcours CPF
Paris | à distance | FNE
Il ne reste que quelques places
Option OFFERTE de classe virtuelle (40€/j en supplément)
Disponible en intra-entreprise pour former votre équipe

Présentation

TensorFlow est devenu en un temps record l’un des frameworks de référence pour le Deep Learning et l’Intelligence Artificielle, utilisé aussi bien dans la recherche qu’en entreprise pour des applications en production.

 

Formez-vous dès maintenant au Framework IA de Référence !

Avec 25K contributeurs, Tensorflow fait partie du TOP 10 des projets les plus suivi actuellement sur GitHub et vous allez découvrir dans cette formation que ce n’est pas un hasard ! Des milliers de personnes contribuent également à ses dépendances, comme Numpy, Pytest, etc.

Découvrez comment résoudre des problèmes difficiles de Machine Learning avec la nouvelle librairie Open Source Tensorflow, le système révolutionnaire de Google d’apprentissage profond. Cette formation pratique vous montre comment construire, et quand utiliser, des architectures d’apprentissage profond. Vous apprendrez comment concevoir des systèmes capables de détecter des objets dans des images, comprendre la parole humaine, analyser la vidéo et prédire certains phénomènes. Nous aborderons ces concepts à travers des exemples pratiques afin que vous puissiez utiliser cette technologie dans vos projets Big Data. La formation AI & Deep Learning avec Tensorflow abordera les réseaux de neurones (convolutional neural networks). Vous maîtriserez également les concepts clés tels que la fonction SoftMax, les réseaux neuronaux à code automatique (Autoencoder Neural Networks), les réseaux récurrents, la machine Boltzmann restreinte (RBM, Restricted Boltzmann Machine).

Comme dans toutes nos formations, celle-ci vous présentera la toute dernière version stable de TensorFlow 2.4, sortie en Janvier 2020 couplée à Python 3.9.

 

Objectifs

  • Découvrir les nouveautés de la v2 et être capable d’installer et d’utiliser TensorFlow de manière autonome
  • Comprendre le concept de Deep Learning et être capable de l’utiliser avec TensorFlow
  • Manipuler des volumes importants de données en utilisant les bonnes pratiques grâce à TensorFlow
  • Configurer une machine pour runner des modèles de deep learning
  • Créer un pipeline de données avec data augmentation
  • Utiliser des modèles pré-construits (estimators) de TensorFlow sur un Dataset
  • Comprendre la théorie derrière les différents blocs des réseaux de neurones
  • Construire un réseau de neurones avec TensorFlow
  • Comprendre la théorie de l’entrainement d’un réseau de neurones
  • Lancer l’entrainement du réseau
  • Surveiller et affiner l’entrainement grâce à Tensorboard et à des callbacks
  • Utiliser des réseaux déjà pré-entraînés pour les appliquer à un cas précis
  • Appliquer les réseaux de neurones à différents cas d’application

 

Public visé

  • Data Analyst / Data Scientist / Data Engineer
  • Développeurs, Architectes Big Data, Lead Developer

 

Pré-requis

  • Connaissance de Python
  • Connaissances en Mathématique (exemple : gradient)

 

Pour aller plus loin

Programme de notre formation TensorFlow version 2

 

Journée 1

Matin : Manipulation de vecteurs et tenseurs avec TensorFlow

  • Installation
    • Installation de Tensorflow
    • Google Collab
  • Utiliser Tensorflow comme Numpy
    • Tenseurs et opérations
    • Variables
  • Cas d’usages
    • Huber Loss
    • Import d’images

 

Après-midi : Construire un pipeline de données

  • Tensorflow Data API
    • Concept de Dataset
    • Enchaîner les transformations
    • Shuffle de la donnée
    • Entrelacement
    • Création d’un pipeline de lecture de CSV complet
    • Optimisations
  • API de prétraitement Tensorflow
    • Utilité
    • Colonnes numériques
    • Colonnes catégorielles
    • Utilisation en tant que layer

 

Journée 2

Matin : Introduction aux réseaux de neurones avec Keras

  • Keras
    • De la biologie aux neurones artificiels
    • Le neurone biologique
    • Calculs logiques avec des neurones
    • Le perceptron
    • Les MLPs et la rétropropagation
    • MLPs de régression
    • MLPs de classification
  • Implémenter des MLPs avec Tensorflow
    • Sauvegarder et restaurer un modèle
    • Utiliser des callbacks

 

Après-midi : Entraîner des Réseaux de Neurones

  • Le problème du “Vanishing Gradient”
    • Réutilisation de modèles pré-entraînés
    • Optimiseurs plus rapides
  • Mise en pratique
    • Création d’un classificateur d’image avec l’API Séquentielle
    • Création d’une régression avec l’API Séquentielle
    • Création de modèles complexes avec l’API Fonctionnelle
    • Optimisation des hyperparamètres

 

Journée 3

Matin : CNN

  • La vision par ordinateur
  • L’architecture du cortex visuel
  • Les couches de convolutions
  • Les couches de Pooling
  • Les différentes architectures des réseaux de neurones convolutionnels (CNN)
  • Data Augmentation

 

Après-midi : Travaux pratique sur les Modèles

  • Implémentation d’un CNN Simple sur TensorFlow
  • Utilisation de modèles pré-entraînés
  • Modèles pré-entraînés pour du Transfer Learning
  • Classification et localisation d’objets

 

Journée 4

Matin : Cas d’applications

  • Traitement des données séquentielles avec des RNNs et des CNNs
    • Les neurones et les layers récurrents
    • Entraîner un RNN
    • Prédire une série temporelle
  • Mise en pratique du Natural Language Processing with RNNs
    • Comment préparer les données textuelles ?
    • Comment séparer le dataset en de multiples fenêtres ?
    • Générer du fake Shakespear
    • Classification de texte : Analyse Sentimentale

 

Après-midi : Autoencoders

  • Representation Learning et Generative Learning avec des AutoEncodeurs et des GANs
    • Créer un PCA avec une partie d’AutoEncodeur
    • Construire un “Stacked Autoencoder” avec TensorFlow
    • Générer de faux vêtements avec des GANs

 

Module Complémentaire Tensorflow IoT – 2 jours supplémentaires (uniquement pour des formations d’équipe)

 

TensorFlow appliqué à l’IoT

  • Pourquoi utiliser un système l’embarqué ?
    • IoT et IA (Théorie)
      • État de l’art : Exemples concrets et possibilités d’application de l’AI à IoT
      • Les deux principales architectures
        • Cloud AI (Théorie)
        • Exemples avec Google Cloud
      • On device inference (Théorie)
      • Exemples d’applications sur Raspberry Pi

TENSORFLOW

  • Une brève revue
  • Contrainte
    • De Python à C++ (Théorie)
      • Python 3.X et n’importe quelle version de C++, en utilisant Bazel
    • Hardware (Théorie)
      • Raspberry (Ubuntu 16.04 ou 18.04) ARM64
    • Les VPU / TPU
      • Intel Movidius Neural Compute Stick

Présentation de TensorFlow Lite Optimisation

  • Initialiser un environnement (Théorie + Exercices)
    • R1.14 (stable) ou R2.0 (stable/preview)
  • Workflow
    • Présentation globale (Théorie)
    • Obtenir un modèle (Exercices)
      • Exemple avec InceptionV3
    • Convertir (exercices)
      • Utilisation de TensorFlow Lite Converter
      • Charger le graphique en C++
    • Déployer et appliquer
      • Sur un système Ubuntu (16.04 ou 18.04)
    • Optimiser (Exercices)
      • Quantization
  • Performance
    • Best practices (Théorie + Exercices)
      • Supprimer la redondance
      • Jouer avec le multi-threading

 

Module Complémentaire TensorFlow Avancé – 4 jours supplémentaires (uniquement pour des formations d’équipe)

 

Les Nouveautés TensorFlow 2.x

  • Construction de modèle facile avec l’API Keras
  • Déploiement de modèles robustes en production sur n’importe quelle plate-forme
  • Nettoyage des API obsolètes et réduction des duplications
  • Itération immédiate et un débogage intuitif
  • Nouvelles extensions
    • Tensors Ragged
    • TensorFlow Probability
    • Tensor2Tensor
  • Module de Compatibilité à TensorFlow 1
    • tensorflow.compat.v1

Comprendre le Deep Learning

  • Deep Learning : La révolution de l’Intelligence Artificielle
  • Les limites du Machine Learning
  • Avantages du Deep Learning face au Machine learning
  • Les raisons de passer au Deep
  • Exemples de la vie réelle et scénarios applicables
  • Les Math derrière le Machine Learning : Linear Algebra
    • Scalars
    • Vectors
    • Matrices
    • Tensors
    • Hyperplanes
  • Les Math derrière le Machine Learning : Statistics
    • Probability
    • Conditional Probabilities
    • Posterior Probability
    • Distributions
    • Samples vs Population
    • Resampling Methods
    • Selection Bias
    • Likelihood
  • Les algorithmes du Machine Learning
    • Regression
    • Classification
    • Clustering
  • Reinforcement Learning
  • Underfitting & Overfitting
  • Optimization
  • Convex Optimization

 

TensorFlow

  • Définition : Neural Networks
  • Biological Neuron
  • Perceptron
  • Multi-Layer Feed-Forward Networks
  • Apprentissage Neuronal (Learning Neural Networks)
  • Backpropagation Learning
  • Gradient Descent
  • Stochastic Gradient Descent
  • Quasi-Newton Optimization Methods
  • Generative vs Discriminative Models
  • Activation Functions
    • Linear
    • Sigmoid
    • Tanh
    • Hard Tanh
    • Softmax
    • Rectified Linear
  • Loss Functions
  • Loss Function Notation
  • Loss Functions for Regression
  • Loss Functions for Classification
  • Loss Functions for Reconstruction
  • Hyperparameters
  • Learning Rate
  • Regularization
  • Momentum
  • Sparsity

 

Comprendre les réseaux neuronaux

  • Defining Deep Learning
  • Defining Deep Networks
  • Common Architectural Principals of Deep Networks
  • Reinforcement Learning application in Deep Networks
  • Parameters
  • Layers
  • Activation Functions – Sigmoid, Tanh, ReLU
  • Loss Functions
  • Optimization Algorithms
  • Hyperparameters

 

Convolutional Neural Network (CNN Algorithm)

  • Introduction à CNN
  • Mise en application et architecture d’un CNN
  • Couches de convolution : Pooling layers in a CNN
  • Couches de convolution et de mise en commun dans une CNN
  • Comprendre et visualiser un CNN
  • Transfert d’apprentissage et mise au point des réseaux de neurones convolutionnels

 

Recurrent Neural Networks (RNN Algorithm)

  • Introduction au RNN Model
  • Cas d’utilisation du RNN
  • Modelling sequences
  • Apprentissage RNNs avec Backpropagation
  • Long Short-Term memory (LSTM)
  • Recursive Neural Tensor Network Theory
  • Recurrent Neural Network Model

 

RBM & Autoencoders

  • Restricted Boltzmann Machine
  • Applications de RBM
  • Collaborative Filtering avec RBM
  • Introduction à l’Autoencoders
  • Autoencoders applications
  • Comprendre et utiliser Autoencoders
  • Variational Autoencoders
  • Deep Belief Network

Séminaire sur l’Intelligence Artificielle

Formation Pytorch

Formation Metaflow

Formation Deep Learning pour l’interprétation et le traitement d’images

Formation Deep Learning pour le traitement du langage

Formation Deep Reinforcement Learning

Langues et Lieux disponibles

Langues

  • Français
  • Anglais / English

Lieux

  • France entière
    • Paris
    • Lille
    • Reims
    • Lyon
    • Toulouse
    • Bordeaux
    • Montpellier
    • Nice
    • Sophia Antipolis
    • Marseille
    • Aix-en-Provence
    • Nantes
    • Rennes
    • Strasbourg
    • Grenoble
    • Dijon
    • Tours
    • Saint-Étienne
    • Toulon
    • Angers
  • Belgique
    • Bruxelles
    • Liège
  • Suisse
    • Genève
    • Zurich
    • Lausanne
  • Luxembourg

Nos Formateurs Référents

Maxence

Maxence

Entrepreneur spécialiste en Intelligence Artificielle, il est le co-fondateur et CTO de Boby, un assistant personnel d’un nouveau genre. Son temps se divise entre du développement d’architectures de réseaux de neurones très orientés vers le domaine du NLP et du développement serveur en NodeJS.

Raphaël

Raphaël

Data Scientist

Diplômé de l’ENSTA Paris et de l’Université Paris-Saclay avec un double master en mathématiques appliquées et data science.Passionné de technique il a présenté lors de la conférence PyCon2018 un talk sur les GANs. Il est aussi contributeur Keras et créateur de tf-explain, une librairie d’interopérabilité pour TensorFlow 2.0 sur laquelle il parlera à PyData New-York en novembre 2019.

Témoignages

Rated 5 out of 5
25 juin 2020

La pédagogie du formateur, il prends le temps de vérifier que tous les élèves ont bien tout compris.

IA avec OpenCV
Excellent formateur et équipe Ambient IT à notre écoute, avec le café chaque matin. Excellente prestation !! Bravo !

Moïse T. de chez EASY CENTER CORP CONSULTING
Afficher tous les témoignages
Rated 5 out of 5
25 juin 2020

La pédagogie du formateur, il prends le temps de vérifier que tous les élèves ont bien tout compris.

IA avec OpenCV
Excellent formateur et équipe Ambient IT à notre écoute, avec le café chaque matin. Excellente prestation !! Bravo !

Moïse T. de chez EASY CENTER CORP CONSULTING
Rated 4 out of 5
25 juin 2020

TP efficaces
/
/
/

Stéphane S. de chez Institut Franco-allemand de Recherches de Saint-Louis
Rated 4 out of 5
30 avril 2020

Formateur très compétent. Cas d’utilisation intéressant pour moi

Samuel G. de chez Adventiel
Rated 5 out of 5
30 avril 2020

Formateur très compétent et très agréable

Emeric B. de chez Agence Less Is More
Rated 5 out of 5
13 décembre 2019

Tout était parfait. La formation correspondait exactement à mes attentes, et je pense pour mettre en oeuvre ce que j’ai appris dans mon entreprise.

Nicolas chez Orme
Noter la formation
Prix 2520€ HT / personne
Durée 4 jours ( 28 heures )

Parcours CPF
Paris | à distance | FNE
Il ne reste que quelques places
Option OFFERTE de classe virtuelle (40€/j en supplément)
Disponible en intra-entreprise pour former votre équipe

UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?

Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.