Formation Red Hat Ceph Storage
€ HT / personne |
5 jours (35 heures) |
Présentation
Notre formation Red Hat Ceph Storage vous permettra de comprendre, déployer et exploiter un cluster Ceph complet.
Vous pourrez ainsi gérer efficacement un stockage pétaoctet-scale pour des workloads critiques : datalakes, bases de données distribuées, sauvegardes, IA/ML ou services cloud-native. Vous serez également capable de garantir la tolérance aux pannes, d’automatiser le provisionnement de volumes pour vos pods Kubernetes, et de superviser l’ensemble de votre infrastructure de stockage.
À l’issue de cette formation, vous serez en mesure de déployer, sécuriser et faire évoluer une infrastructure Red Hat Ceph Storage en production.
Comme toutes nos formations, celle-ci est basée sur la dernière version stable de Ceph, avec des ateliers pratiques couvrant les cas d’usage terrain les plus courants de Red Hat Ceph Storage.
Objectifs
- Comprendre l’architecture distribuée de Ceph et son fonctionnement interne
- Déployer un cluster Ceph avec cephadm et gérer les services (MON, OSD, MGR, RGW…)
- Configurer et exploiter les trois types de stockage : objet (S3), bloc (RBD), fichier (CephFS)
- Intégrer Ceph dans un cluster Kubernetes avec CSI ou Rook
- Superviser et sécuriser une infrastructure Ceph (Prometheus, alerting, auto-guérison)
Public visé
- Data engineers
- DevOps
- Ingénieurs plateforme
- Administrateurs système
- Responsables infrastructure
Pré-requis
- Connaissances de base en administration Linux
- Notions de réseaux, disques et stockage (RAID, LVM…)
- Connaissance des environnements Kubernetes ou OpenStack appréciée
- Expérience en DevOps, infrastructure ou data engineering recommandée
Programme de notre formation Red Hat Ceph Storage
Panorama du stockage distribué
- Rappel sur les types de stockage : NAS, SAN, objet, bloc, fichier
- Limitations des architectures traditionnelles
- Pourquoi le software-defined storage (SDS) ?
- Cas d’usage data et cloud où Ceph est pertinent
- Positionnement de Ceph face à MinIO, HDFS, Lustre
- Présentation globale de Red Hat Ceph Storage
Architecture fondamentale de Ceph
- Ceph = cluster RADOS + interfaces (objet, bloc, fichier)
- Rôles des démons MON, MGR, OSD, MDS
- Le système CRUSH : distribution sans annuaire central
- Redondance, réplication et erasure coding
- Fonctionnement pair-à-pair et absence de SPOF
- Relations clients ↔ cluster Ceph
Déploiement d’un cluster Ceph avec cephadm
- Présentation de cephadm et des conteneurs Ceph
- Architecture en conteneurs (Podman ou Docker)
- Déploiement automatique des services MON, OSD, MGR
- Ajout/retrait dynamique de nœuds
- Atelier : Installation d’un cluster 3 nœuds avec cephadm (local ou cloud)
Découverte de l’interface Ceph
- CLI ceph : commandes principales
- Tableau de bord web (Dashboard MGR)
- Surveillance de l’état du cluster : health, status, PG
- Visualisation des performances et alertes
- Atelier : Prise en main du dashboard + exécution des commandes clés
Le stockage objet avec RADOS Gateway (RGW)
- Principe du stockage objet et compatibilité S3/Swift
- Configuration d’une passerelle RGW
- Création de buckets, utilisateurs et ACL
- Accès via AWS CLI, rclone, Python boto3
- Atelier : Déployer RGW + créer un bucket S3 Ceph + upload via AWS CLI
Le stockage bloc avec RBD
- RBD : présentation et cas d’usage (VM, bases, volumes)
- Création et mapping d’un volume bloc
- Formatage, montage, persistance
- Snapshots, clones, et rollback
- Atelier : Créer un volume RBD + héberger une base PostgreSQL
Le système de fichiers CephFS
- Structure POSIX, MDS, répertoires partagés
- Création de filesystem + montage client
- Concurrence, quota, verrouillage
- Cas d’usage : traitement ML, stockage de projets
- Atelier : Créer un CephFS partagé + accéder à plusieurs jobs ML/containers
Gestion des pools, placement et politique de réplication
- Pools : principes, création, propriétés
- Réplication vs Erasure coding : choix stratégique
- Tiering : hot vs cold storage
- Mapping CRUSH personnalisé
- Rebalancing et distribution dynamique
Intégration Kubernetes avec RBD et CephFS
- Présentation des pilotes CSI Ceph
- Création de StorageClass, PVC, PV
- Déploiement d’une app avec volume persistant
- Fonctionnement dans OpenShift, Rancher, K3s
- Atelier : Créer un PVC Ceph + attacher un pod PostgreSQL dans Kubernetes
Automatisation avec Ansible et cephadm
- ceph-ansible : installation complète depuis YAML
- cephadm : orchestration via CLI/API
- Gestion des rôles, labels, services
- Sécurité, variables et secrets
- Intégration avec pipeline CI/CD
Résilience et auto-guérison
- Détection de panne OSD/MON
- Reprise automatique des objets
- Simulation de panne disque ou service
- Taux de réplication minimal et tolérance
- Simulation : arrêter un OSD + observer la reconstruction et les logs
Supervision et alerting
- Intégration Prometheus et Grafana
- Exporters Ceph : métriques disponibles
- Dashboards types : IOPS, latence, erreurs
- Alertmanager : seuils, règles, notifications
- Personnalisation d’un dashboard Grafana Ceph
Sécurité et bonnes pratiques
- Authentification CephX, tokens, TLS
- ACL, rôles utilisateurs, contrôle d’accès
- Isolation des données et multi-tenancy
- Logs, journaux d’audit, rotation
- Durcissement des ports et services
Scénarios Data & AI/ML avec Ceph
- Ceph comme backend de datalake ou AI pipeline
- CephFS partagé pour jobs Spark, MLflow, JupyterHub
- Archivage de datasets via objet S3
- Partage de snapshots entre environnements de tests
- Optimisation SSD/HDD pour workloads IA
Exploitation à grande échelle
- Répartition géographique (multi-site RGW)
- Intégration dans cloud hybride
- Gestion de la croissance : ajout de racks, zones
- Sauvegarde, réplication, snapshots inter-clusters
- Gestion de la dette technique et des mises à jour
Pour aller plus loin
Formation OpenShift
Formation OpenShift Administrateur
Formation Kubernetes
Langues et Lieux disponibles
Langues
- Français
- Anglais / English
Lieux
-
France entière
- Paris
- Lille
- Reims
- Lyon
- Toulouse
- Bordeaux
- Montpellier
- Nice
- Sophia Antipolis
- Marseille
- Aix-en-Provence
- Nantes
- Rennes
- Strasbourg
- Grenoble
- Dijon
- Tours
- Saint-Étienne
- Toulon
- Angers
-
Belgique
- Bruxelles
- Liège
-
Suisse
- Genève
- Zurich
- Lausanne
-
Luxembourg
Témoignages
⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !
Afficher tous les témoignages
⭐⭐⭐⭐⭐ 4,8/5 sur Google My Business. Vous aussi, partagez votre expérience !
Noter la formation
€ HT / personne |
5 jours (35 heures) |
UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?
Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.
ILS SE SONT FORMÉS CHEZ NOUS