Was ist zu beachten, bevor Ceph in den Produktionsbetrieb übernommen wird? Diese Schulung behandelt ausführlich die Performance- und Betriebsaspekte von verteilten Ceph-Speichersystemen.
Dieser 1-tägige Kurs ist der zweite Teil einer Reihe zu Ceph, die normalerweise zusammen in einer Woche angeboten werden:
- Ceph Grundlagen
- Ceph-Optimierung (dieser Kurs)
- Ceph/Cloud Integration
Trainer und Dozenten
Florian Haas ist seit 2011 aktives Mitglied der Ceph-Community, hat vielfach Kurse und Schulungen zum Thema abgehalten und ist eines der deutschsprachigen "Gesichter" von Ceph. Er hat über Ceph beim OpenStack Summit, bei LinuxCon Europe und am LinuxTag referiert, Kunden beim Einsatz von Ceph in verschiedensten Umgebungen unterstützt und alle Ecken und Kanten von Ceph genau kennengelernt.
Voraussetzungen
Teilnehmer benötigen ein grundlegendes Verständnis der Ceph-Architektur und sollten idealerweise Ceph-Cluster bereits zumindest in Testumgebungen aufgesetzt und bedient haben. Über das Grundlagenwissen hinausgehende Kenntnisse in Linux-Betriebssystemadministration sind ebenfalls unbedingt notwendig. Erfahrung im Betrieb von Storage-Systemen ist von Vorteil; auch Detailkenntnisse über Dateisysteme und TCP/IP-Netzwerke sind hilfreich.
Inhalt
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- OSD-Filestores
- OSD-Journals und journal devices (inklusive: SSD-Performance und ihre Auswirkungen auf Ceph-Cluster)
- Optimierung der OSD-Datenverteilung
- MON-Performanceoptimierung
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- OSD-Filestores
- OSD-Journals und journal devices (inklusive: SSD-Performance und ihre Auswirkungen auf Ceph-Cluster)
- Optimierung der OSD-Datenverteilung
- MON-Performanceoptimierung
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Kurszeiten
Wer möchte, reist bis 22 Uhr am Vortag an und nutzt den Abend bereits zum Fachsimpeln am Kamin oder im Park.
An den Kurstagen dann von 9-18 Uhr (mit 2 Kaffee- und 1 Mittagspause) etwa 60% Schulungen und 40% Übungen. Selbstverständlich arbeitet jeder Teilnehmer am von uns gestellten Notebook oft parallel zum Referenten mit.
Anschließend Abendessen und Angebote für Fachsimpeln, Ausflüge uvm. Wir schaffen eine Atmosphäre, in der Fachleute sich ungezwungen austauschen. Wer das nicht will, wird zu nichts gezwungen und findet auch jederzeit Ruhe.
Termine und Anmeldung
-
13. November, 3 Tage
Ceph Grundlagen und Ceph-Optimierung - online anmelden -
15. November, 1 Tag
Ceph-Optimierung - online anmelden
Haben Sie einen anderen Wunschtermin?