Formation Préparation à la certification GCP Professional Data Engineer
2790€ HT / personne |
3 jours (21 heures) |
Présentation
Notre formation GCP Professional Data Engineer est conçue pour vous doter des compétences essentielles nécessaires à la création, à la gestion et à l’optimisation de solutions de données à grande échelle sur Google Cloud Platform.
Au cours de cette formation, vous développerez une expertise approfondie dans le domaine de l’ingénierie des données, en explorant en détail les fonctionnalités et les concepts clés de la plateforme GCP.
Vous apprendrez à appliquer ces connaissances de manière pratique pour concevoir des solutions de données efficaces et hautement évolutives.
Cette formation vous permettra d’acquérir une compréhension approfondie de concepts fondamentaux tels que le stockage des données, le traitement en temps réel, et les architectures de données distribuées.
Vous serez formé à configurer un environnement de développement optimal et à maîtriser le déploiement de solutions de données sur Google Cloud. Tout au long de la formation, nous mettrons l’accent sur l’utilisation efficace des outils et services GCP spécifiques à l’ingénierie des données.
Comme dans toutes nos formations, celle-ci vous présentera les dernières ressources de GCP
Objectifs
- Acquérir une compréhension approfondie du cycle de vie des données, des aspects techniques et des types de structures
- Comprendre les services GCP et les technologies hébergées
- Apprendre à concevoir et à opérationnaliser des systèmes de stockage efficaces
- Développer une expertise dans la conception de pipelines de données GCP
- Approfondir la conception et le choix de la structure de traitement des données
Public visé
- Professionnels du cloud
- Ingénieurs de données
Pré-requis
Des connaissances de base dans le domaine de l’ingénierie des données et une familiarité avec les services cloud seraient un atout.
Programme de notre formation GCP professional Data Engineer
Selection des technologies de stockages GCP
- Data Lifecycle (Ingest – Store – Process and Analyze – Explore and Visualize
- Technical Aspects of Data: Volume, Velocity, Variation, Access, and Security
- Types of Structure
- Structured
- Semi-Structured
- Unstructured
- Schema Design Considerations (Relational Design & NoSQL Design)
Construire et rendre opérationnels les systèmes de stockage
- Cloud SQL
- Cloud Spanner
- Cloud Bigtable
- Cloud Firestore
- BigQuery
- Cloud Memorystore
- Cloud Storage
- Unmanaged Databases (non autogérées)
Conception de pipelines de données
- Un aperçu des pipelines de données ( Étapes / Types de données )
- les composantes / services des pipelines GCP
- Migrer Hadoop et Spark sur GCP
Processing / Traitement des données
- Conception et choix de la structure.
- Conception d’un traitement distribué.
- Migrer un DataWarehouse ( Entrepôt de données )
Configuration de l’infrastructure de traitement
- Provisionnement et ajustement des ressources de traitement (Compute Engine, Kubernetes,Cloud Bigtable, Dataproc)
- Supervision des ressources de traitement (Stackdriver Monitoring, Stackdriver Logging, Stackdriver Trace)
La sécurité / Administration sur GCP
- Gestion des identités et des accès avec Cloud IAM
- Utiliser IAM avec les services de stockage et de traitement
- Data Security
- La confidentialité et l’API Data Loss Prevention
Conception de bases de données pour la fiabilité, l’évolutivité, et la disponibilité
- Conception de bases de données Bigtable pour l’évolutivité et la fiabilité (Scalability and Reliability)
- Conception de bases de données Cloud Spanner pour l’évolutivité et la fiabilité
- Conception de bases de données BigQuery pour DataWarehousing
Comprendre les opérations de données pour plus de flexibilité et la portabilité
- Catalogue et découverte avec Data Catalog
- Traitement des données avec Data Prep
- Visualisation des données avec Data Studio ( Looker studio )
- Exploration des données avec Cloud Datalab
- Orchestrer les Workflows avec Cloud Composer
Déployer des pipelines d’apprentissage automatique
- Structure des pipelines ML
- Data Ingestion
- Data Preparation
- Data Segregation
- Model Training
- Model Evaluation
- Model Deployment
- Model Monitoring
- Options GCP pour déploiement des pipelines de ML
- Cloud AutoML
- BigQuery ML
- Kubeflow
- Spark Machine Learning
Choisir l’infrastructure d’entraînement
- Accélérateurs matériels ( GPUs, TPUs, CPUs)
- Infrastructure distribuée et machine unique
- Edge Computing avec GCP ( Cloud IOT, Edge TPU ..etc)
La supervision et les alertes
- Les trois types d’algorithmes d’apprentissage automatique
- Deep Learning
- Ingénierie des modèles d’apprentissage automatique
- Sources d’erreurs courantes dans les modèles d’apprentissage automatique
Exploiter les modèles préconstruits en tant que service
- Visio (Vision AI, Video AI)
- Conversation (Dialogflow, Cloud Text-to-Speech API, Cloud Speech-to-Text API)
- Langage (Traduction, Langage naturel)
- Données structurées (Recommendations AI API, Cloud Inference API)
Pour aller plus loin
Formation Databricks
Formation Azure Databricks
Formation Azure Data Factory
Langues et Lieux disponibles
Langues
- Français
- Anglais / English
Lieux
-
France entière
- Paris
- Lille
- Reims
- Lyon
- Toulouse
- Bordeaux
- Montpellier
- Nice
- Sophia Antipolis
- Marseille
- Aix-en-Provence
- Nantes
- Rennes
- Strasbourg
- Grenoble
- Dijon
- Tours
- Saint-Étienne
- Toulon
- Angers
-
Belgique
- Bruxelles
- Liège
-
Suisse
- Genève
- Zurich
- Lausanne
-
Luxembourg
Afficher tous les témoignages
⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !
Noter la formation
2790€ HT / personne |
3 jours (21 heures) |
UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?
Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.
ILS SE SONT FORMÉS CHEZ NOUS