Sélectionner une page
Formations Data ETL Formation Intégration de données avec Talend Data Fabric

Formation Intégration de données avec Talend Data Fabric

Niveau confirmé
Catégorie Essential
Logo Intégration avec Talend Data Fabric
Prix 2 100€ HT / personne
3 jours (21 heures)

Paris | Classe Virtuelle

Dernières places Virtuelle uniquement
Labs : Infrastructure DaaS avec Chrome
Cafés et encas offerts en interentreprises
En intra-entreprise pour former votre équipe
Aide au financement 2500€ Bonus Atlas CPF

Présentation

L’intégration de données avec Talend Data Fabric permet de concevoir, automatiser et superviser des workflows ETL pour centraliser et exploiter efficacement les données.

Notre formation Intégration de données avec Talend Data Fabric vous permettra de maîtriser la conception de flux ETL, la transformation et le nettoyage des données ainsi que l’automatisation des workflows.

Vous apprendrez à connecter différentes sources de données, structurer des traitements ETL, superviser les workflows et industrialiser vos pipelines de données dans Talend Data Fabric.

À l’issue de la formation, le stagiaire sera capable de concevoir et exécuter des workflows ETL.

Comme toutes nos formations, celle-ci vous présentera la dernière version stable de la technologie et ses nouveautés.

 

Objectifs

  • Concevoir et automatiser des flux ETL.
  • Transformer et nettoyer les données.

 

Public visé

  • Intégrateurs
  • Data engineers

 

Pré-requis

  • Connaissances en SQL et ETL de base

Programme de notre formation Intégration de données avec Talend Data Fabric

 

[Jour 1 – Matin]

Concevoir des flux ETL avec Talend Data Fabric

  • Comprendre les principes de l’ETL et de l’intégration de données
  • Prendre en main l’environnement Talend Data Fabric
  • Créer et organiser un projet ETL
  • Structurer un workflow de traitement de données
  • Identifier les composants adaptés aux besoins métier
  • Atelier pratique : Création d’un premier workflow ETL.

 

[Jour 1 – Après-midi]

Connecter et intégrer des sources de données

  • Connexion à des fichiers CSV, XML et JSON
  • Connexion aux bases de données relationnelles
  • Création et gestion des schémas de données
  • Utilisation des métadonnées du Repository
  • Organisation des connexions et réutilisation des composants
  • Atelier pratique : Intégration de plusieurs sources de données.

 

Transformer et nettoyer les données

  • Utilisation du composant tMap
  • Transformation et enrichissement des données
  • Application de filtres et tris
  • Gestion des jointures et des rejets
  • Préparation des données pour l’exploitation métier
  • Atelier pratique : Nettoyage et transformation d’un dataset.

 

[Jour 2 – Matin]

Automatiser les workflows ETL

  • Utilisation des variables de contexte
  • Planification et automatisation des traitements
  • Gestion des dépendances et des déclencheurs
  • Organisation des sous-Jobs et workflows
  • Réutilisation des traitements ETL
  • Atelier pratique : Automatisation d’un workflow Talend.

 

[Jour 2 – Après-midi]

Contrôler et superviser les traitements

  • Gestion des logs et des erreurs
  • Suivi de l’exécution des Jobs
  • Détection et traitement des anomalies
  • Exécution conditionnelle des traitements
  • Bonnes pratiques de supervision ETL
  • Atelier pratique : Analyse et correction d’erreurs dans un workflow.

 

Déployer et industrialiser les Jobs Talend

  • Génération d’un Job standalone
  • Gestion des versions des Jobs
  • Déploiement des workflows ETL
  • Industrialisation des traitements
  • Optimisation et maintenance des workflows
  • Atelier pratique : Déploiement d’un Job Talend complet.

 

[Jour 3 – Matin]

Intégrer des services et flux de données avancés

  • Connexion à des API et services Web
  • Extraction et traitement de données distantes
  • Gestion des échanges de données entre systèmes
  • Structuration des flux de données complexes
  • Bonnes pratiques d’intégration multi-sources
  • Atelier pratique : Intégration d’une API dans un workflow ETL.

 

[Jour 3 – Après-midi]

Cas pratique complet d’intégration de données

  • Analyse d’un besoin métier ETL
  • Conception d’un workflow de traitement
  • Transformation et nettoyage des données
  • Automatisation et supervision des traitements
  • Déploiement d’un pipeline ETL complet
  • Atelier pratique : Réalisation d’un projet complet avec Talend Data Fabric.

Pour aller plus loin

Formation PySpark

Formation GCP : Certification Professional Data Engineer

Formation dbt

Langues et Lieux disponibles

Langues

  • Français
  • Anglais / English

Lieux

  • France entière
    • Paris
    • Lille
    • Reims
    • Lyon
    • Toulouse
    • Bordeaux
    • Montpellier
    • Nice
    • Sophia Antipolis
    • Marseille
    • Aix-en-Provence
    • Nantes
    • Rennes
    • Strasbourg
    • Grenoble
    • Dijon
    • Tours
    • Saint-Étienne
    • Toulon
    • Angers
  • Belgique
    • Bruxelles
    • Liège
  • Suisse
    • Genève
    • Zurich
    • Lausanne
  • Luxembourg

Nos Formateurs Référents

Témoignages

⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !

Afficher tous les témoignages

⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !

Noter la formation

Prix 2 100€ HT / personne
3 jours (21 heures)

Paris | Classe Virtuelle

Dernières places Virtuelle uniquement
Labs : Infrastructure DaaS avec Chrome
Cafés et encas offerts en interentreprises
En intra-entreprise pour former votre équipe
Aide au financement 2500€ Bonus Atlas CPF

UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?

Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.

ILS SE SONT FORMÉS CHEZ NOUS

partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp
partenaire sncf
partenaire hp
partenaire allianz
partenaire sfr
partenaire engie
partenaire boursorama
partenaire invivo
partenaire orange
partenaire psa
partenaire bnp