Ceph

Eine technische Einführung in das verteilte Speichersystem Ceph und seine Anwendungsbereiche

Ceph ist ein verteiltes Speichersystem, dass mit vielversprechenden Attributen wie "selbstheilend" und "selbstlernende Lastverteilung" beschrieben wird. In dieser Schulung lernen Sie am praktischen Beispiel die grundlegenden Funktionen von Ceph und seinen Komponenten kennen. Und lernen welche Performance- und Betriebsaspekte zu beachten sind, bevor Ceph in den Produktionsbetrieb übernommen wird. Dazu kommt noch ein Block zur Integration von Ceph in OpenStack

Praktische Inhalte werden über virtuelle Instanzen in einer OpenStack Public-Cloud-Umgebung vermittelt. Dabei steht jedem Teilnehmer ein virtueller Ceph-Cluster zur Verfügung.

Dieser 3-tägige Kurs besteht aus 2 Modulen, die auch einzeln gebucht werden können:

Trainer und Dozenten

Florian Haas ist seit 2011 aktives Mitglied der Ceph-Community, hat vielfach Kurse und Schulungen zum Thema abgehalten und ist eines der deutschsprachigen "Gesichter" von Ceph. Er hat über Ceph beim OpenStack Summit, bei LinuxCon Europe und am LinuxTag referiert, Kunden beim Einsatz von Ceph in verschiedensten Umgebungen unterstützt und alle Ecken und Kanten von Ceph genau kennengelernt.

Voraussetzungen

Sie sollten die Linux Grundlagen, wie z.B. die in unserem Kurs Linux Admin Grundlagen vermittelten Inhalte, gut beherrschen.

Erfahrung im Betrieb von Storage-Systemen ist von Vorteil; auch Detailkenntnisse über Dateisysteme und TCP/IP-Netzwerke sind hilfreich.

Inhalt

Ceph-Design und -Architektur

  • Object Storage
  • Distributed Storage
  • Horizontale Skalierbarkeit

Ceph-Serverkomponenten

  • Ceph Object Storage Daemons (OSDs)
  • Ceph Monitoring-Server (MONs)
  • Ceph Metadatenserver (MDSs)

Praktische Installation eines Ceph-Clusters

Verteilte Datenspeicherung in Ceph im Detail

  • CRUSH-Algorithmus
  • Einsatz von CRUSH für effiziente, hochverfügbare Datenspeicherung
  • Bedeutung von Pools und Placement Groups (PGs)

Ceph-Authentifizierung und Security

  • CephX-Identitäten
  • Berechtigungen (Capabilities)

RADOS block device (RBD)

  • RBD-Design
  • Kernel RBD (rbd.ko)
  • RBD-Integration in libvirt, Qemu/KVM and Cloudplattformen

RADOS Gateway (rgw)

  • Installation
  • Verwendung

Ceph-Dateisystem (CephFS)

  • ceph-fuse
  • Kernel CephFS
  • libcephfs

Performance von Speichersystemen

  • Performancemetriken and Benchmarks
  • I/O-Subsystem-Performance
  • Netzwerkperformance
  • Einfluss von CPU und RAM

Messung der Performance von Ceph-Systemen

  • Lokale I/O- und Netzwerk-Benchmarks
  • Ceph OSD Benchmarks
  • RADOS Benchmarks
  • RBD Benchmarks
  • CephFS Benchmarks

Ceph-Server-Performanceoptimierung

  • OSD-Performanceoptimierung
  • OSD-Filestores
  • OSD-Journals und journal devices (inklusive: SSD-Performance und ihre Auswirkungen auf Ceph-Cluster)
  • Optimierung der OSD-Datenverteilung
  • MON-Performanceoptimierung

Ceph-Client-Performanceoptimierung

  • RBD-Caching
  • RBD/libvirt/qemu-kvm-Integration

Kurzer Einstieg in OpenStack

  • Komponenten einer OpenStack Compute-Cloud: Keystone, Glance, Nova, Neutron, Horizon, Cinder
  • Orchestriertes Deployment einer OpenStack Compute Cloud

Motivation für den Einsatz von Ceph in OpenStack-Umgebungen

Integration

  • Integration von Ceph und OpenStack Glance
  • Integration von Ceph und OpenStack Cinder
  • Integration von Ceph und OpenStack Nova
  • Betrieb eines Ceph-Clusters als Ersatz für OpenStack Swift

Kurszeiten

Wer möchte, reist bis 22 Uhr am Vortag an und nutzt den Abend bereits zum Fachsimpeln am Kamin oder im Park.

An den Kurstagen dann von 9-18 Uhr (mit 2 Kaffee- und 1 Mittagspause) etwa 60% Schulungen und 40% Übungen. Selbstverständlich arbeitet jeder Teilnehmer am von uns gestellten Notebook oft parallel zum Referenten mit.

Anschließend Abendessen und Angebote für Fachsimpeln, Ausflüge uvm. Wir schaffen eine Atmosphäre, in der Fachleute sich ungezwungen austauschen. Wer das nicht will, wird zu nichts gezwungen und findet auch jederzeit Ruhe.