07 März 2026

Proxmox mit Ceph: Hyperconverged Infrastructure aufbauen

Eine Hyperconverged Infrastructure (HCI) vereinfacht die IT-Infrastruktur erheblich, indem sie Compute-, Storage- und Netzwerkressourcen auf derselben Hardware-Plattform kombiniert. Die Kombination aus Proxmox® VE und Ceph® Storage bietet eine vollständig Open-Source-HCI-Lösung, die sowohl kosteneffizient als auch hochverfügbar ist.

Schwierigkeitsgrad: Fortgeschritten – Sie benötigen grundlegende Linux®-Kenntnisse und Erfahrung mit Virtualisierung.

Zeitaufwand: 4–6 Stunden für die komplette Installation und Konfiguration eines 3-Node-Clusters.

Benötigte Ressourcen:

  • Mindestens 3 identische Server mit jeweils 32 GB RAM
  • Separate Netzwerk-Interfaces für Cluster- und Storage-Kommunikation
  • SSD-Storage für Ceph®-OSDs (mindestens 2 Festplatten pro Node)
  • Proxmox®-VE-ISO-Images für die Installation
  • Grundlegende Netzwerkkonfiguration (VLANs empfohlen)

Warum Proxmox® mit Ceph® eine effiziente HCI-Lösung ist

Proxmox® mit Ceph® löst drei zentrale Probleme traditioneller IT-Infrastrukturen: komplexe Verwaltung, flexible Lizenzmodelle und nahtlose Skalierbarkeit. Während herkömmliche Setups separate Storage-Arrays, Virtualisierungs-Hosts und Management-Tools erfordern, integriert diese HCI-Lösung alle Komponenten nahtlos.

Die Kosteneffizienz ist ein wesentlicher Vorteil. Proxmox® VE bietet Enterprise-Features mit flexiblen Lizenzmodellen, während Ceph® als Software-Defined Storage Hardware-Arrays ersetzt. Aktuelle Preise finden Sie unter https://www.proxmox.com/de/produkte/proxmox-virtual-environment/preise.

Hochverfügbarkeit entsteht durch die verteilte Architektur von Ceph®. Ihre virtuellen Maschinen laufen auch bei Ausfall einzelner Nodes weiter, da die Storage-Replikation automatisch erfolgt. Der Proxmox®-Cluster sorgt für nahtlose VM-Migrationen zwischen den Hosts.

Die Skalierung erfolgt linear durch Hinzufügen weiterer Nodes. Sowohl Compute- als auch Storage-Kapazität wachsen gemeinsam, ohne dass Sie separate Systeme dimensionieren müssen. Diese Flexibilität macht die Lösung ideal für wachsende Unternehmen.

Hardwareanforderungen für Proxmox®-Ceph®-Cluster

Ein stabiler Proxmox®-Cluster mit Ceph® Storage erfordert sorgfältig dimensionierte Hardware. Die minimalen Anforderungen unterscheiden sich erheblich von den empfohlenen Produktionsspezifikationen.

Minimale Hardware-Spezifikationen

  • CPU: 4 Kerne pro Node (Intel® VT-x/AMD-V erforderlich)
  • RAM: 32 GB pro Node (8 GB für Proxmox®, 24 GB für Ceph® und VMs)
  • Storage: 2× SSD mit mindestens 240 GB für Ceph®-OSDs
  • Netzwerk: 2× Gigabit-Ethernet (Cluster und Storage getrennt)
  • Anzahl Nodes: mindestens 3 für Ceph®-Quorum

Empfohlene Produktionskonfiguration

  • CPU: 16+ Kerne pro Node für optimale VM-Performance
  • RAM: 128 GB+ pro Node (2 GB RAM pro TB Ceph® Storage)
  • Storage: NVMe-SSDs für OSDs, separate SSD für das Betriebssystem
  • Netzwerk: 10 Gigabit für Storage-Traffic, redundante Verbindungen

Das Netzwerkdesign ist kritisch für die Performance. Verwenden Sie separate VLANs für Management, Cluster-Kommunikation und Ceph®-Traffic. Ein dediziertes Storage-Netzwerk verhindert Engpässe bei der VM-Migration und Datenreplikation.

Proxmox®-VE-Cluster installieren und konfigurieren

Die Proxmox®-Installation bildet das Fundament Ihrer HCI-Lösung. Beginnen Sie mit der Installation auf dem ersten Node, bevor Sie den Cluster erweitern.

Installation des ersten Nodes

Booten Sie vom Proxmox®-VE-ISO und wählen Sie „Install Proxmox VE“. Konfigurieren Sie die Netzwerkeinstellungen während der Installation sorgfältig, da nachträgliche Änderungen den Cluster beeinträchtigen können.

Verwenden Sie statische IP-Adressen für alle Cluster-Nodes. Die Hostname-Auflösung muss funktionieren – tragen Sie alle Nodes in die /etc/hosts ein oder konfigurieren Sie DNS entsprechend.

Cluster-Erstellung

Melden Sie sich an der Proxmox®-Weboberfläche an und navigieren Sie zu „Datacenter“ → „Cluster“. Klicken Sie auf „Create Cluster“ und vergeben Sie einen aussagekräftigen Namen. Das System generiert automatisch die Cluster-Konfiguration.

Kopieren Sie den Join-Link aus den Cluster-Informationen. Diesen benötigen Sie für die weiteren Nodes. Wichtig: Notieren Sie sich den Cluster-Join-Token sicher – er wird nur einmal angezeigt.

Weitere Nodes hinzufügen

Installieren Sie Proxmox® VE auf den weiteren Servern mit identischer Netzwerkkonfiguration. Wählen Sie nach der Installation „Join an existing cluster“ und fügen Sie den kopierten Join-Link ein.

Prüfen Sie den Cluster-Status mit pvecm status auf der Kommandozeile. Alle Nodes sollten als „online“ erscheinen, bevor Sie mit der Ceph®-Installation fortfahren.

Ceph®-Storage-Cluster in Proxmox® einrichten

Die Ceph®-Integration in Proxmox® vereinfacht die Storage-Konfiguration erheblich. Alle Schritte erfolgen über die Weboberfläche, ohne komplexe Kommandozeilenbefehle.

Ceph®-Installation initialisieren

Navigieren Sie zu einem beliebigen Cluster-Node und wählen Sie „Ceph“ im linken Menü. Klicken Sie auf „Install Ceph“ und wählen Sie die aktuelle Ceph®-Version. Die Installation erfolgt automatisch auf allen Cluster-Nodes.

Nach der Installation konfigurieren Sie das Ceph®-Netzwerk. Geben Sie das IP-Subnetz für die Cluster-Kommunikation an – idealerweise ein separates VLAN für den Storage-Traffic.

Ceph®-Monitors erstellen

Ceph®-Monitors verwalten die Cluster-Metadaten und müssen auf einer ungeraden Anzahl von Nodes laufen. Für 3 Nodes erstellen Sie auf jedem Node einen Monitor über „Ceph“ → „Monitor“ → „Create“.

Die Monitor-Erstellung dauert einige Minuten. Prüfen Sie den Status unter „Ceph“ → „Monitor“ – alle Monitore sollten den Status „running“ anzeigen.

Object Storage Daemons (OSDs) konfigurieren

OSDs stellen den eigentlichen Speicherplatz bereit. Wählen Sie „Ceph“ → „OSD“ → „Create OSD“ und selektieren Sie eine verfügbare Festplatte. Wiederholen Sie diesen Vorgang für alle Storage-Devices auf allen Nodes.

Tipp: Verwenden Sie separate SSDs für das Ceph®-Journal oder aktivieren Sie BlueStore für optimale Performance. Die OSD-Erstellung formatiert die Festplatten vollständig.

Placement Groups dimensionieren

Ceph® berechnet automatisch die optimale Anzahl an Placement Groups (PGs). Für kleine Cluster sind die Standardwerte meist ausreichend. Bei mehr als 50 OSDs sollten Sie die PG-Anzahl manuell anpassen.

Welche Ceph®-Pools und RBD-Images benötigen Sie?

Ceph®-Pools organisieren Ihre Daten und definieren Replikationsstrategien. Die richtige Pool-Konfiguration beeinflusst sowohl Performance als auch Ausfallsicherheit Ihrer virtuellen Maschinen.

Pool-Typen verstehen

Replicated Pools speichern mehrere Kopien jedes Objekts auf verschiedenen OSDs. Für kritische VMs empfiehlt sich eine dreifache Replikation, die den Ausfall von zwei Nodes verkraftet. Der Storage-Overhead beträgt dabei das Dreifache der Nutzdaten.

Erasure-Coded-Pools bieten effizientere Speichernutzung durch mathematische Redundanz. Ein 4+2-Schema toleriert den Ausfall von 2 OSDs bei nur 50 % Overhead. Diese Pools eignen sich für Backup-Storage und weniger kritische Daten.

RBD-Images für VMs erstellen

Navigieren Sie zu „Ceph“ → „Pools“ → „Create“ und konfigurieren Sie einen Pool für VM-Storage. Wählen Sie „Replicated“ mit Size 3 für Produktionsumgebungen. Der Pool erscheint automatisch als Storage-Option bei der VM-Erstellung.

RBD-Images funktionieren wie virtuelle Festplatten. Proxmox® erstellt diese automatisch beim Anlegen neuer VMs. Die Images unterstützen Snapshots und können zwischen Pools verschoben werden.

Best Practices für Pool-Sizing

Planen Sie Pool-Größen konservativ. Ceph® warnt bei 80 % Füllstand und blockiert Schreibvorgänge bei 95 %. Für Produktionspools sollten Sie maximal 70 % der verfügbaren Kapazität einplanen.

Separate Pools für verschiedene Workloads verbessern die Performance. Erstellen Sie getrennte Pools für Betriebssystem-Images, Datenbank-Storage und Backup-Daten mit angepassten Replikationsfaktoren.

Wie credativ® bei Proxmox®-Ceph®-Implementierungen hilft

credativ® unterstützt Sie bei der professionellen Umsetzung Ihrer Hyperconverged Infrastructure mit umfassenden Services von der Planung bis zum laufenden Betrieb.

Unsere HCI-Services umfassen:

  • Hardware-Dimensionierung und Architekturdesign für optimale Performance
  • Professionelle Installation und Konfiguration von Proxmox®-Ceph®-Clustern
  • Migration bestehender virtueller Infrastrukturen ohne Ausfallzeiten
  • Performance-Tuning und Monitoring-Integration für Produktionsumgebungen
  • 24/7-Open-Source-Support mit direktem Zugang zu Proxmox®- und Ceph®-Spezialisten
  • Schulungen für Ihre IT-Teams zur eigenständigen Verwaltung der HCI-Lösung

Wir bringen über 25 Jahre Erfahrung mit Open-Source-Technologien ein und sind offizielle Proxmox®-Partner. Unsere Experten haben bereits zahlreiche HCI-Projekte erfolgreich realisiert und kennen die typischen Herausforderungen bei der Implementierung.

Kontaktieren Sie uns für eine kostenlose Beratung zu Ihrem Proxmox®-Ceph®-Projekt. Wir analysieren Ihre Anforderungen und entwickeln eine maßgeschneiderte HCI-Strategie für Ihr Unternehmen.

Transparenzhinweis

Proxmox® ist eine eingetragene Marke der Proxmox Server Solutions GmbH. credativ® ist autorisierter Reseller von Proxmox®-Produkten.

Ceph® ist eine eingetragene Marke der Ceph Community. Linux® ist eine eingetragene Marke von Linus Torvalds. Intel® ist eine eingetragene Marke der Intel Corporation.

Die Nennung der Marken dient ausschließlich der sachlichen Beschreibung von Migrationsszenarien und Dienstleistungen von credativ®. Es besteht keine geschäftliche Verbindung zu den genannten Markeninhabern ohne bestehende Partnerschaft.

Ähnliche Beiträge

Kategorien: credativ® Inside

über den Autor

Peter Dreuw

Head of Sales & Marketing

zur Person

Peter Dreuw arbeitet seit 2016 für die credativ GmbH und ist seit 2017 Teamleiter. Seit 2021 ist er Teil des Management-Teams als VP Services der Instaclustr. Mit der Übernahme durch die NetApp wurde seine neue Rolle "Senior Manager Open Source Professional Services". Im Rahmen der Ausgründung wurde er Mitglied der Geschäftsleitung als Prokurist. Sein Aufgabenfeld ist die Leitung des Vertriebs und des Marketings. Er ist Linux-Nutzer der ersten Stunden und betreibt Linux-Systeme seit Kernel 0.97. Trotz umfangreicher Erfahrung im operativen Bereich ist er leidenschaftlicher Softwareentwickler und kennt sich auch mit hardwarenahen Systemen gut aus.

Beiträge ansehen


Beitrag teilen: