Formations Data Framework Big Data Formation Apache Spark V3 et Tuning avancée

Formation Spark Tuning Avancé

Noté 4.3 sur 5
Logo Formation Spark et Tuning Avancé
Prix 2430€ HT / personne
Durée 4 jours (28 heures)

Paris | Classe Virtuelle

Il ne reste que quelques places
NewCafés et déjeuners offerts en interentreprises
Disponible en intra-entreprise pour former votre équipe
Je ne veux pas me déplacer ? Option classe virtuelle gratuite

Présentation

Conçu en 2009 aux États Unis, Apache Spark est un moteur d’analyse unifié pour le traitement de grande quantité de données à grande échelle. Cet outil se démarque par sa simplicité d’utilisation malgré sa capacité à délivrer des analyses sophisitiquées.

Cette formation Spark Tuning est destinée aux administrateurs voulant optimiser les performances de leur système de gestion de données. L’ajustement et l’optimisation des ressources (CPU cores et mémoires) joue un rôle important pour le maintien d’un système informatique de bonne qualité.

Après une introduction au langage Scala, et une explication de Spark, nous étudierons l’api RDD, les dataframes, le Spark Streaming. Nous verrons ensuite Spark en production et finirons sur une introduction au Machine Learning.

À chaque fois, des exercices pratiques sur des clusters de machines avec des datasets significatifs permettront d’assimiler par la pratique les concepts présentés.

Comme toutes nos formations, celle-ci vous présentera la dernière version stable en date (Spark 3.3.2 du 17 février 2023).

 

Objectifs

  • Être capable d’installer et d’utiliser Spark 3 et ses nouveautés de manière autonome
  • Être capable d’utiliser Scala comme langage principal dans Spark
  • Comprendre et optimiser les dataframes
  • Appréhender le tuning sur Spark en production en utilisant les bonnes pratiques

 

Public visé

  • Développeurs
  • Architectes
  • Administrateurs systèmes
  • DevOps

 

Pré-requis

  • Connaissances de base d’un système Unix
  • Connaissance de Python

Programme de la formation Spark et Tuning avancé

 

Jour 1 – Introduction Scala et Spark

  • Pourquoi Scala est le langage du Bigdata ?
  • Introduction au paradigme fonctionnel
  • Installation des environnements
  • Hands-on Scala
  • Syntaxe
  • Pattern matching
  • API collection
  • Les types fonctionnels
  • Pourquoi Spark ?
  • Architecture de Spark

 

Jour 2 – Comprendre et utiliser Spark

 

L’API RDD

  • Présentation des RDD
  • PairedRDD
  • Manipulation de l’api RDD (transformations , actions ….)
  • L’import et l’export depuis et vers : cSv, Avro et Elasticsearch

 

Dataframe

  • Présentation des Dataframes
  • L’api Dataframe et UDF
  • SqlContext
  • Utilisation de SQL avec des Dataframes
  • Les Datasets

 

Jour 3 – Dataframe et optimisation

 

Optimisation

  • L’analyse du DAG via Spark-UI
  • Pattern d’optimisation
  • Cache et persistance
  • Impact de la localité des données sur les performances

 

Spark streaming

  • StreamingContext
  • DStream
  • Continuous Aggregations
  • Analyse temps-réel depuis un Apache Kafka
  • Les problématiques des garanties de livraison
  • Spark vs Flink

 

Jour 4 – Spark en prod et conclusion

 

Spark en production

  • Spark en cluster : Yarn, Mesos, Standalone
  • Yarn client vs Yarn cluster
  • Stockage (HDFS, S3, Cassandra ….)

 

Architecture

  • Architecture Lambda
  • Architecture Kappa

 

Introduction au Machine Learning (Optionnel)

  • Les classes d’algorithmes pour le ML : supervisé et non supervisé
  • Les algorithmes de ML
  • Comment fonctionne l’algorithme de la régression linéaire et / ou de la régression
    logistique
  • Mise en pratique d’un algorithme de régression linéaire ou la régression logistique

 


2 modules spécifiques sont disponibles en Intra-entreprise uniquement

 

Module for Data Engineer – Spark Scala

 

Jour 1 – RDD & Dataframes

 

L’API RDD

  • Présentation des RDD
  • PairedRDD
  • Manipulation de l’api RDD (transformations , actions, etc.)
  • L’import et l’export depuis et vers : cSv, Parquet

 

Dataframe

  • Présentation des Dataframes
  • L’api Dataframe et UDF
  • Utilisation de SQL avec des Dataframes
  • Les Datasets

 

Jour 2 – Mise en prod & Optimisation

 

Optimisation

  • L’analyse du DAG via Spark-UI
  • Pattern d’optimisation
  • Cache et persistance
  • Impact de la localité des données sur les performances

 

Spark en production

  • Spark en cluster : Yarn, Mesos, Standalone
  • Yarn client vs Yarn cluster
  • Stockage (HDFS, S3, Cassandra, etc.)

 

Module for Data Scientist – Spark Python

 

Jour 1 – RDD & Dataframes

 

L’API RDD

  • Présentation des RDD
  • PairedRDD
  • Manipulation de l’api RDD (transformations, actions, etc.)
  • L’import et l’export depuis et vers : CSV, Parquet

 

Dataframe

  • Présentation des Dataframes
  • L’api Dataframe et UDF
  • Utilisation de SQL avec des Dataframes
  • Les Datasets

 

Jour 2 – Spark ML/ MLlib

 

Algorithmes

  • Les classes d’algorithmes pour le ML : supervisé et non supervisé
  • Les algorithmes de ML
  • Comment fonctionne l’algorithme de la régression linéaire, la régression
  • Logistique, Random Forest…
  • Clustering : KNN, K-mean

 

MLlib

  • Introduction à MLlib 2.0
  • Pipelines : Transformer, Estimator, Model
  • Cross-Validation
  • Hyperparameters tuning
  • ML persistence: sauvegarde et chargement des pipelines

Pour aller plus loin

Formation Spark Streaming

Formation Spark et Machine Learning

Formation Kafka

Formation Kibana

Formation MongoDB

Formation PostgreSQL

Langues et Lieux disponibles

Langues

  • Français
  • Anglais / English

Lieux

  • France entière
    • Paris
    • Lille
    • Reims
    • Lyon
    • Toulouse
    • Bordeaux
    • Montpellier
    • Nice
    • Sophia Antipolis
    • Marseille
    • Aix-en-Provence
    • Nantes
    • Rennes
    • Strasbourg
    • Grenoble
    • Dijon
    • Tours
    • Saint-Étienne
    • Toulon
    • Angers
  • Belgique
    • Bruxelles
    • Liège
  • Suisse
    • Genève
    • Zurich
    • Lausanne
  • Luxembourg

Nos Formateurs Référents

Walid

Walid

Développeur Java / Scala , passionné par la data et les architectures distribués .

Témoignages

Noté 4 sur 5
14 janvier 2020

Il y a peut être un peu trop de temps passé sur le rappel des notions de RDD, DataFrame et Dataset.

David chez La Poste

Afficher tous les témoignages

Noté 4 sur 5
14 janvier 2020

Il y a peut être un peu trop de temps passé sur le rappel des notions de RDD, DataFrame et Dataset.

David chez La Poste
Noté 5 sur 5
17 décembre 2019

2 jours sont un peu court, pépère un peu plus long pour des questions concernent des sujets du travail

Bo chez La Poste
Noté 4 sur 5
2 novembre 2017

Très bon formateur !

Hadrien C. de Orange Applications for Business

Noter la formation

Prix 2430€ HT / personne
Durée 4 jours (28 heures)

Paris | Classe Virtuelle

Il ne reste que quelques places
NewCafés et déjeuners offerts en interentreprises
Disponible en intra-entreprise pour former votre équipe
Je ne veux pas me déplacer ? Option classe virtuelle gratuite

UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?

Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.

ILS SE SONT FORMÉS CHEZ NOUS

partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp
partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp