Einführung
In unserem vorherigen Artikel haben wir NetApp Storage und NVMe-oF für bahnbrechende Leistung in Proxmox-Virtualisierungsumgebungen vorgestellt. Dieser Artikel führte LVM mit NVMe-oF über TCP im NetApp-Speicher mit Proxmox VE ein und hob dessen Potenzial hervor, eine hochleistungsfähige Speicherlösung bereitzustellen, die für latenzempfindliche Anwendungen wie virtualisierte Datenserver geeignet ist. Und es funktioniert über ein Ethernet-Netzwerk ohne andere spezielle Hardware wie Fibre Channel oder InfiniBand, die für viele Unternehmen unerschwinglich sein können.
Während NVMe-oF erhebliche Leistungsvorteile bietet, wird es hauptsächlich auf neueren und High-End NetApp ONTAP Speichersystemen, wie der AFF-Serie, unterstützt. Für Unternehmen mit älteren oder hybriden Speichersystemen bleibt iSCSI eine praktikable und kostengünstige Alternative, die die bestehende Ethernet-Infrastruktur nutzt und zuverlässige Leistung für Virtualisierungsumgebungen bietet.
In diesem Blogbeitrag werden wir die Verwendung von iSCSI (Internet Small Computer Systems Interface) im NetApp-Speicher mit Proxmox VE näher beleuchten.
Einrichtung
In diesem Beispiel verwendete Hard- und Software
- NetApp Speichersystem: Bietet gemeinsame Speicherfunktionen, die für das Clustering in virtuellen Umgebungen über iSCSI unerlässlich sind. Das Beispiel verwendet ONTAP Release 9.15.1.
- Proxmox VE Cluster: Eine open source Virtualisierungsplattform. Das Beispiel verwendet die aktuelle Version 8.2.
- Netzwerkinfrastruktur: Standard-Ethernet-Netzwerk (1GbE oder 10GbE).
- iSCSI-Initiator: In Proxmox VE integriert.
Was ist iSCSI
iSCSI (Internet Small Computer Systems Interface) ist ein Netzwerkprotokoll, das den Transport von Block-Level-Speicherdaten über IP-Netzwerke (Internet Protocol) ermöglicht. Das Protokoll erlaubt es Clients (genannt Initiatoren), SCSI-Befehle über TCP/IP an Speichergeräte (Ziele) auf entfernten Servern zu senden. Es ermöglicht die Verbindung von Speichergeräten über eine Standard-Netzwerkinfrastruktur, ohne spezielle Hardware und Verkabelung zu benötigen.
Es bietet eine flexible, kostengünstige und skalierbare Speicherlösung, die sich gut in Virtualisierungsumgebungen integrieren lässt und die notwendigen Funktionen und Leistung zur Unterstützung moderner virtualisierter Workloads bereitstellt.
Wie iSCSI funktioniert
- Initiator und Target: Die iSCSI-Kommunikation umfasst zwei Hauptkomponenten:
- Initiator: Die clientseitige Komponente, typischerweise ein Server oder Host, die die Verbindung zum Speichergerät initiiert.
- Target: Die serverseitige Komponente, typischerweise ein Speicher-Array oder -Gerät, das den Zugriff auf die Speicherressourcen bereitstellt.
- LUNs (Logical Unit Numbers): Speicherressourcen auf dem iSCSI-Target werden als LUNs dargestellt. Der Initiator greift auf diese LUNs zu, als wären sie lokale Festplatten, wodurch das Betriebssystem sie wie jedes andere Block-Speichergerät formatieren, partitionieren und verwenden kann.
Konfiguration
Auf NetApp-Speicher
Der Leitfaden geht davon aus, dass Benutzer die grundlegende Speichereinrichtung, einschließlich der Konfiguration von Storage Virtual Machines (SVMs), bereits vorgenommen haben. Es wird betont, dass die Verwaltung dieser Systeme dank der intuitiven Weboberfläche – dem ONTAP System Manager, der von NetApp Speichersystemen bereitgestellt wird – relativ unkompliziert ist. Benutzer können eine benutzerfreundliche Erfahrung bei der Verwaltung ihrer Speicherlösungen erwarten, da die Weboberfläche darauf ausgelegt ist, komplexe Aufgaben zu vereinfachen. Dies beinhaltet auch die gesamte Einrichtung für iSCSI-Speicher, die das allgemeine Aktivieren von iSCSI auf der SVM, das Einrichten der SAN Initiatorgruppe und deren Zuordnung zu LUNs erfordert.
Hinweis: Alle Änderungen können selbstverständlich auch automatisiert durch Orchestrierung der ONTAP API vorgenommen werden.
iSCSI-Target auf SVM aktivieren
Um iSCSI auf SVM-Ebene in einem NetApp Speichersystem zu aktivieren, können typischerweise die folgenden zusammengefassten Schritte ausgeführt werden, die über die Weboberfläche des Systems, den ONTAP System Manager, zugänglich sind.

Navigieren Sie zum Menü Storage. Navigieren Sie dann zu Storage VMs. Geben Sie den SVM-Namen an, den Sie konfigurieren möchten:
- iSCSI-Protokoll konfigurieren: Suchen Sie innerhalb der SVM-Einstellungen nach einem Abschnitt oder Tab, der sich auf Proto
kolle bezieht. Suchen Sie die iSCSI-Option und aktivieren Sie sie. Dies kann das Ankreuzen eines Kästchens oder das Umschalten eines Schalters in die Position „Ein“ beinhalten. - Änderungen speichern und anwenden: Nach dem Aktivieren von iSCSI stellen Sie sicher, dass Sie die Änderungen speichern. Es können zusätzliche Aufforderungen oder Schritte zur Bestätigung der Änderungen erforderlich sein, abhängig vom spezifischen NetApp-System und dessen Version.
Denken Sie daran, alle Voraussetzungen oder zusätzlichen Konfigurationseinstellungen zu prüfen, die für den iSCSI-Betrieb erforderlich sein könnten, wie z. B. Netzwerkeinstellungen, Lizenzierung oder Kompatibilitätsprüfungen der Hardware. Die genauen Schritte können je nach ONTAP-Version oder dem spezifischen NetApp-Modell, das Sie verwenden, leicht variieren. Beziehen Sie sich immer auf die neueste offizielle NetApp-Dokumentation oder Support-Ressourcen für die genaueste Anleitung.
SAN-Initiatorgruppe erstellen
Navigieren Sie zum Menü HOSTS. Navigieren Sie dann zu SAN-Initiatorgruppen. Wählen Sie den spezifischen Initiatorgruppennamen aus, den Sie konfigurieren möchten: 
- Host-Initiatoren konfigurieren: Suchen Sie auf jedem Proxmox VE-Knoten die Datei /etc/iscsi/initiatorname.iscsi und erfassen Sie den InitiatorName (iSCSI-Host-IQN). Fügen Sie jeden InitiatorName als Host-Initiatoren in der Initiatorgruppe im ONTAP System Manager hinzu.
- Änderungen speichern und anwenden: Nachdem Sie alle Initiatoren hinzugefügt haben, stellen Sie sicher, dass Sie die Änderungen speichern. Es können zusätzliche Aufforderungen oder Schritte zur Bestätigung der Änderungen erforderlich sein, abhängig vom spezifischen NetApp-System und dessen Version.
LUNs mit Initiatorgruppe erstellen
Navigieren Sie zum Menü Storage. Navigieren Sie dann zu LUNS. Wählen Sie den spezifischen LUN-Namen aus, den Sie konfigurieren möchten: 
- LUNs hinzufügen: Geben Sie die Anzahl der LUNs an, die Sie konfigurieren möchten. Stellen Sie das Host-Betriebssystem auf Linux ein. Wählen Sie die im vorherigen Schritt erstellte Initiatorgruppe aus.
- Änderungen speichern und anwenden: Nachdem Sie LUNs hinzugefügt haben, stellen Sie sicher, dass Sie die Änderungen speichern. Es können zusätzliche Aufforderungen oder Schritte zur Bestätigung der Änderungen erforderlich sein, abhängig vom spezifischen NetApp-System und dessen Version.
Konfiguration des Proxmox VE-Knotens
Allgemein
Nach der Konfiguration der NetApp-Storage-Appliance für die Erstellung des iSCSI-Targets und der LUNs können wir nun den Proxmox VE-Cluster so konfigurieren, dass er den iSCSI-Speicher verwendet und darauf zugreift. Dies kann einfach über die Proxmox-Weboberfläche konfiguriert werden. Im Allgemeinen besteht dieser Prozess aus:
- Verbindung mit dem iSCSI-Blockspeicher herstellen.
- Erstellen eines LVM (Logical Volume Manager), das über Knoten auf Proxmox VE gemeinsam genutzt werden kann. Diese Anweisungen funktionieren jedoch wahrscheinlich auch auf älteren und neueren Versionen.
Die nächsten Schritte in diesem Blogbeitrag werden den Prozess im Detail behandeln und Sie durch die notwendigen Schritte auf dem Proxmox VE führen, die auf der Proxmox-Weboberfläche durchgeführt werden können.
Verbindung mit dem iSCSI-Blockspeicher herstellen

Um diesen iSCSI-Block Storage auf dem Proxmox VE-Cluster zu verwenden, führen Sie die folgenden Schritte aus, um sich am Web-Frontend des Proxmox VE-Clusters anzumelden und den Storage auf Datacenter-Ebene hinzuzufügen:
Navigieren Sie zur Speicherkonfiguration: Gehen Sie zu Datacenter -> Storage -> Add -> iSCSI.
Details des neuen iSCSI-Speichers definieren:
- ID: iscsi1 (dies kann beliebiger Text sein und ist lediglich ein Bezeichner).

- Portal: Geben Sie die IP-Adresse der iSCSI-fähigen SVM ein.
- Target: Dies wird erkannt, wenn Sie die korrekte IP für die iSCSI-fähige SVM angeben.
- Nodes: <Wählen Sie alle Knoten aus, die den iSCSI-Speicher verwenden sollen>
- Aktivieren: Ja
- LUNs direkt verwenden: Nein
LVM auf dem iSCSI-Blockspeicher erstellen
Um diese LVM-Volume-Gruppe über iSCSI-Block Storage auf allen Proxmox VE-Knoten innerhalb des Clusters zu verwenden, muss die Volume-Gruppe auf Datacenter-Ebene hinzugefügt und integriert werden. Führen Sie diese Schritte aus, um sie über die Proxmox VE-Weboberfläche zu konfigurieren: 
Navigieren Sie zur Speicherkonfiguration: Gehen Sie zu Datacenter -> Storage -> Add -> LVM.
Details des neuen LVM-Speichers definieren:
- ID: shared_iscsi1 (dies kann beliebiger Text sein und ist lediglich ein Bezeichner)

- Basisspeicher: Bestehende Volume-Gruppen
- Volume-Gruppe: shared_iscsi1
- Inhalt: Disk-Image, Container
- Knoten: <Wählen Sie alle Knoten aus, die es verwenden sollen>
- Aktiviert: Ja
- Freigegeben: Ja
- Entfernte Volumes löschen: Nein
Klicken Sie auf Hinzufügen, um das neue Volume an die ausgewählten Knoten anzuhängen. Der LVM-Speicher steht dann zur Verfügung.
Fazit
Die Nutzung von iSCSI über TCP in Verbindung mit Proxmox VE in einer Virtualisierungsumgebung stellt eine überzeugende Lösung für Unternehmen dar, die nach kostengünstigen Shared-Storage-Architekturen suchen. Dieser Ansatz nutzt die weitverbreitete Verfügbarkeit und Kompatibilität von Ethernet-basierten Netzwerken und vermeidet die Notwendigkeit spezieller Hardware wie Fibre Channel, die für viele Unternehmen kostspielig sein kann.
Block-Level-Storage mit SAN-Protokollen (FC/iSCSI/NVMe-oF) ist jedoch typischerweise auf die von Proxmox VE unterstützten VM-Disk- und Container-Image-Inhaltstypen beschränkt. Darüber hinaus werden Gast-VM-Snapshots und Thin Provisioning derzeit nicht unterstützt, wenn LVM/iSCSI-Storage in Proxmox VE verwendet wird.
Es gibt Alternativen, die NetApp-Storage ebenfalls bereitstellen kann, um die umfassenderen Anforderungen von Proxmox VE zu erfüllen. Die NAS-Protokolle, wie z. B. NFS, unterstützen alle Inhaltstypen von Proxmox VE und werden typischerweise einmalig auf Datacenter-Ebene konfiguriert. Gast-VMs können Festplatten vom Typ raw, qcow2 oder VMDK auf NAS-Protokoll-Storage verwenden. Darüber hinaus werden Gast-VM-Snapshots und Thin Provisioning mit dem qcow2-Format unterstützt.
Bei Bedarf stehen wir Ihnen gerne zur Verfügung, um Ihnen weitere Einblicke in NetApp-Storage-Systeme zu geben, die sowohl Hardware- als auch Softwareaspekte abdecken. Unsere Expertise erstreckt sich auch auf open source Produkte, insbesondere bei der Einrichtung von Virtualisierungsumgebungen mit Technologien wie Proxmox und OpenShift oder bei deren Wartung mit Konfigurationsmanagement. Wir laden Sie ein, sich bei Bedarf an uns zu wenden.
Sie könnten auch daran interessiert sein, zu erfahren, wie Sie VMs von VMware ESXi zu Proxmox VE migrieren oder wie Sie den Proxmox Backup Server einbinden und NetApp Storage und NVMe-oF für bahnbrechende Leistung in Proxmox-Virtualisierungsumgebungen in Ihre Infrastruktur integrieren können.
Dieser Artikel wurde ursprünglich von Andrew Lee verfasst.
Veeam & Proxmox VE
Veeam hat einen strategischen Schritt unternommen, indem es die Open-Source-Virtualisierungslösung Proxmox VE (Virtual Environment) in sein Portfolio integriert hat. Dies signalisiert sein Engagement für die sich entwickelnden Bedürfnisse der Open-Source-Community und des Open-Source-Virtualisierungsmarktes und positioniert Veeam als zukunftsorientierten Akteur in der Branche, der bereit ist, die wachsende Verbreitung von Open-Source-Lösungen zu unterstützen. Die Kombination von Veeams Datenschutzlösungen mit der Flexibilität der Proxmox VE-Plattform bietet Unternehmen eine überzeugende Alternative, die Kosteneinsparungen und verbesserte Datensicherheit verspricht.
Mit Proxmox VE wird nun auch eine der wichtigsten und oft angefragten Open-Source-Lösungen und Hypervisoren nativ unterstützt – und dies könnte definitiv eine Wende auf dem Virtualisierungsmarkt bedeuten!
Möglichkeiten für Open-Source-Virtualisierung
In vielen Unternehmen ist bereits eine wichtige Hypervisor-Plattform im Einsatz, begleitet von einer robusten Backup-Lösung – oft Veeam. Bislang fehlte Veeam jedoch die direkte Unterstützung für Proxmox VE, was eine Lücke für diejenigen hinterließ, die diese Open-Source-Virtualisierungsplattform nutzen oder in Betracht ziehen. Die neueste Version von Veeam ändert dies, indem sie die Möglichkeit bietet, Backups und Wiederherstellungen direkt in Proxmox VE-Umgebungen zu erstellen und zu verwalten, ohne dass Agenten innerhalb der VMs erforderlich sind.
Diese Weiterentwicklung bedeutet, dass nun ganze VMs über jeden Hypervisor hinweg gesichert und wiederhergestellt werden können, was eine beispiellose Flexibilität bietet. Darüber hinaus können Unternehmen einen neuen Proxmox VE-basierten Cluster nahtlos in ihre bestehende Veeam-Einrichtung integrieren und alles von einem einzigen, zentralen Punkt aus verwalten. Diese Integration vereinfacht Abläufe, reduziert die Komplexität und verbessert die Gesamteffizienz von Datenschutzstrategien in Umgebungen mit mehreren Hypervisoren, indem einfach eine All-in-One-Lösung vorhanden ist.
Ein ebenfalls stark unterschätzter Vorteil sind die Möglichkeiten, ganze VMs einfach zu migrieren, zu kopieren, zu sichern und wiederherzustellen, selbst unabhängig von ihrem zugrunde liegenden Hypervisor – auch bekannt als Cross-Platform-Recovery. Dadurch können Administratoren VMs nun von VMware ESXi-Knoten / vSphere oder Hyper-V auf Proxmox VE-Knoten verschieben. Dies bietet eine hervorragende Lösung, um eine neue Virtualisierungsplattform risikofrei einzuführen und zu bewerten. Für Unternehmen, die ihre Virtualisierungs- und Backup-Infrastruktur vereinheitlichen möchten, stellt dieses Update einen bedeutenden Fortschritt dar.
Integration in Veeam
Die Integration eines neuen Proxmox-Clusters in eine bestehende Veeam-Umgebung ist ein Beweis für die Einfachheit und das benutzerzentrierte Design beider Systeme. Wer mit Veeam vertraut ist, wird den Prozess als intuitiv und minimal störend empfinden, was eine nahtlose Erweiterung der Virtualisierungsumgebung ermöglicht. Diese einfache Integration bedeutet, dass Ihr neuer Proxmox VE-Cluster schnell unter den schützenden Schirm der robusten Backup- und Replikationsdienste von Veeam gebracht werden kann.
Trotz der allgemeinen Einfachheit des Prozesses ist es wichtig zu erkennen, dass einzigartige Konfigurationen und spezifische Umgebungen ihre eigenen Herausforderungen mit sich bringen können. Diese Sonderfälle sind zwar nicht häufig, aber erwähnenswert, da sie besondere Aufmerksamkeit erfordern können, um eine reibungslose Integration zu gewährleisten. Seien Sie jedoch versichert, dass dies lediglich Nuancen in einem ansonsten unkomplizierten Verfahren sind und selbst diese mit etwas zusätzlicher Sorgfalt effektiv verwaltet werden können.
Übersicht
Ab Version 12.2 wird die Proxmox VE-Unterstützung durch ein Plugin aktiviert und integriert, das auf dem Veeam Backup-Server installiert wird. Veeam Backup für Proxmox verfügt über eine verteilte Architektur, die den Einsatz von Worker-Nodes erfordert. Diese Nodes funktionieren analog zu Data Movern und erleichtern die Übertragung von Virtual-Machine-Payloads von den Proxmox VE-Hosts zum vorgesehenen Backup-Repository. Die Worker laufen auf einer Linux-Plattform und werden nahtlos über die Veeam Backup Server-Konsole instanziiert. Ihre Rolle ist entscheidend und ähnelt der von Proxy-Komponenten in analogen Systemen wie AHV- oder VMware-Backup-Lösungen.
Ein solcher Worker wird mindestens einmal in einem Cluster benötigt. Für eine verbesserte Leistung könnte ein Worker pro Proxmox VE-Node in Betracht gezogen werden. Jeder Worker benötigt 6 vCPU, 6 GB Arbeitsspeicher und 100 GB Festplattenspeicher, was berücksichtigt werden sollte.
Anforderungen
Dieser Blogbeitrag geht davon aus, dass eine bereits vorhandene Installation von Veeam Backup & Replication in Version 12.2 oder höher bereits vorhanden und für eine andere Umgebung wie VMware vollständig konfiguriert ist. Es wird auch davon ausgegangen, dass der Proxmox VE-Cluster bereits vorhanden ist und Anmeldeinformationen mit den erforderlichen Rollen zur Durchführung der Backup-/Wiederherstellungsaktionen vorliegen.
Konfiguration
Die Integration und Konfiguration eines Proxmox VE-Clusters kann vollständig innerhalb der Veeam Backup & Replication Console-Anwendung erfolgen und erfordert keine zusätzlichen Befehle auf einer CLI. Die zuvor erwähnten Worker-Nodes können vollautomatisch installiert werden.
Hinzufügen eines Proxmox-Servers
Um einen neuen Proxmox-Server in die Veeam Backup & Replication-Umgebung zu integrieren, muss man den Prozess durch Zugriff auf die Veeam-Konsole initiieren. Anschließend navigieren Sie durch die dafür vorgesehenen Abschnitte, um die Hinzufügung abzuschließen:
Virtuelle Infrastruktur -> Server hinzufügen
Dieses Verfahren entspricht dem etablierten Protokoll zur Einbindung von Nodes anderer Virtualisierungsplattformen, die mit Veeam kompatibel sind.
Anschließend zeigt Veeam Ihnen eine Auswahl möglicher und unterstützter Hypervisoren:
- VM vSphere

- Microsoft Hyper-V
- Nutanix AHV
- RedHat Virtualization
- Oracle Virtualization Manager
- Proxmox VE
In diesem Fall wählen wir einfach Proxmox VE und fahren mit dem Einrichtungsassistenten fort.
In den nächsten Schritten des Einrichtungsassistenten müssen die Authentifizierungsdetails, der Hostname oder die IP-Adresse des Ziel-Proxmox VE-Servers sowie ein Snapshot-Speicher des Proxmox VE-Servers definiert werden.
Hinweis: Bei den Authentifizierungsdetails achten Sie darauf, funktionierende Anmeldeinformationen für den SSH-Dienst auf dem Proxmox VE-Server zu verwenden. Wenn Sie normalerweise die root@pam-Anmeldeinformationen für die Weboberfläche verwenden, müssen Sie Veeam einfach die root-Anmeldeinformationen bereitstellen. Veeam initiiert eine Verbindung zum System über das SSH-Protokoll.
In einem der letzten Schritte des Einrichtungsassistenten bietet Veeam an, den erforderlichen Worker-Node automatisch zu installieren. Ein solcher Worker-Node ist eine kleine VM, die innerhalb des Clusters auf dem Ziel-Proxmox VE-Server läuft. Im Allgemeinen ist ein einzelner Worker-Node für einen Cluster ausreichend, aber zur Verbesserung der Gesamtleistung wird ein Worker pro Node empfohlen.
Nutzung
Sobald der Proxmox VE-Server erfolgreich in das Veeam-Inventar integriert wurde, kann er so mühelos verwaltet werden wie jeder andere unterstützte Hypervisor, wie VMware vSphere oder Microsoft Hyper-V. Ein wesentlicher Vorteil, wie im Screenshot gezeigt, ist die Möglichkeit, verschiedene Hypervisoren und Server in Clustern zentral zu administrieren. Dies eliminiert die Notwendigkeit einer separaten Veeam-Instanz für jeden Cluster und optimiert die Abläufe. Dennoch kann es spezifische Szenarien geben, in denen individuelle Setups für jeden Cluster vorzuziehen sind.
Dadurch wird nicht nur die Arbeit des Administrators bei der Arbeit mit verschiedenen Servern und Clustern vereinfacht, sondern bietet endlich auch die Möglichkeit für Cross-Hypervisor-Wiederherstellungen.
Backup-Jobs erstellen
Das Erstellen eines neuen Backup-Jobs für eine einzelne VM oder sogar mehrere VMs in einer Proxmox-Umgebung ist so einfach und genau dasselbe, wie Sie es bereits von anderen Hypervisoren kennen. Werfen wir jedoch einen kurzen Blick auf die erforderlichen Aufgaben:
Öffnen Sie die Veeam Backup & Replication-Konsole auf Ihrem Backup-Server oder Ihrer Management-Workstation. Um einen Backup-Job zu erstellen, navigieren Sie zum Tab Home und klicken Sie auf Backup Job, wählen Sie dann Virtual machine aus dem Dropdown-Menü.
Wenn der Assistent New Backup Job geöffnet wird, müssen Sie einen Namen und eine Beschreibung für den Backup-Job eingeben. Klicken Sie auf Next, um mit dem nächsten Schritt fortzufahren. Nun müssen Sie die VMs auswählen, die Sie sichern möchten. Klicken Sie im Schritt
Der nächste Schritt besteht darin, anzugeben, wo Sie die Backup-Dateien speichern möchten. Wählen Sie im Schritt Storage das Backup-Repository aus und legen Sie die Aufbewahrungsrichtlinie fest, die bestimmt, wie lange Sie die Backup-Daten aufbewahren möchten. Nachdem Sie dies eingerichtet haben, klicken Sie auf Next.
Wenn Sie mehrere Backup-Proxys konfiguriert haben, können Sie im nächsten Schritt festlegen, welchen Sie verwenden möchten. Wenn Sie sich nicht sicher sind oder es bevorzugen, können Sie Veeam Backup & Replication den besten Proxy für den Job automatisch auswählen lassen. Klicken Sie nach Ihrer Auswahl auf Next.
Nun ist es an der Zeit, den Zeitplan für die Ausführung des Backup-Jobs festzulegen. Im Schritt
Überprüfen Sie alle Einstellungen auf der Übersichtsseite, um sicherzustellen, dass sie korrekt sind. Wenn alles in Ordnung ist, klicken Sie auf Finish, um den Backup-Job zu erstellen.

Wenn Sie den Backup-Job sofort ausführen möchten, um sicherzustellen, dass alles wie erwartet funktioniert, können Sie dies tun, indem Sie mit der rechten Maustaste auf den Job klicken und Start auswählen. Alternativ können Sie warten, bis die geplante Zeit den Job automatisch auslöst.
Wiederherstellen einer gesamten VM
Der Wiederherstellungs- und Replikationsprozess für eine vollständige VM-Wiederherstellung entspricht den Standardverfahren. Er umfasst jedoch nun die wichtige Funktion der Cross-Hypervisor-Wiederherstellung. Diese Funktionalität ermöglicht die Migration von VMs zwischen verschiedenen Hypervisor-Typen ohne Kompatibilitätsprobleme. Wenn beispielsweise Proxmox VE in einem Unternehmensumfeld eingeführt wird, können Administratoren VMs mühelos von einem bestehenden Hypervisor auf den Proxmox VE-Cluster migrieren. Sollten während der Testphase Probleme auftreten, unterstützt der Prozess auch die Rückmigration zum ursprünglichen Hypervisor. Werfen wir einen Blick auf die Details.
Öffnen Sie die Veeam Backup & Replication-Konsole auf Ihrem Backup-Server oder Ihrer Management-Workstation. Um einen Backup-Job zu erstellen, navigieren Sie zum Tab Home und klicken Sie auf Backup Job, wählen Sie dann Virtual machine aus dem Disk-Menü.
Wählen Sie die Option Entire VM restore, die den Assistenten zur Wiederherstellung einer vollständigen virtuellen Maschine startet. Im ersten Schritt des Assistenten werden Sie aufgefordert, ein Backup auszuwählen, aus dem Sie wiederherstellen möchten. Sie sehen eine Liste der verfügbaren Backups; wählen Sie dasjenige aus, das die VM enthält, die Sie wiederherstellen möchten, und fahren Sie mit dem nächsten Schritt fort, indem Sie auf Next klicken.
Nun müssen Sie den Wiederherstellungspunkt festlegen. Typischerweise ist dies das aktuellste Backup, aber Sie können bei Bedarf auch einen früheren Punkt wählen. Nachdem Sie den Wiederherstellungspunkt ausgewählt haben, fahren Sie mit dem nächsten Schritt fort.
Der Assistent fordert Sie dann auf, das Ziel für die VM anzugeben. Dies ist der sehr praktische Punkt für die Cross-Hypervisor-Wiederherstellung, wo dies der ursprüngliche Speicherort oder ein neuer Speicherort sein kann, wenn Sie eine Migration durchführen oder die vorhandene VM nicht überschreiben möchten. Konfigurieren Sie die Netzwerkeinstellungen nach Bedarf, um sicherzustellen, dass die wiederhergestellte VM den entsprechenden Netzwerkzugriff hat.
Im nächsten Schritt haben Sie Optionen bezüglich des Power-Zustands der VM nach der Wiederherstellung. Sie können wählen, ob die VM automatisch eingeschaltet oder ausgeschaltet bleiben soll, je nach Ihren Bedürfnissen.
Bevor Sie den Wiederherstellungsprozess abschließen, überprüfen Sie alle Einstellungen, um sicherzustellen, dass sie Ihrem gewünschten Ergebnis entsprechen. Dies ist Ihre Chance, zurückzugehen und notwendige Anpassungen vorzunehmen. Sobald Sie mit der Konfiguration zufrieden sind, fahren Sie mit der Wiederherstellung der VM fort, indem Sie auf Finish klicken.
Der Wiederherstellungsprozess beginnt, und sein Fortschritt kann in der Veeam Backup & Replication-Konsole überwacht werden. Je nach Größe der VM und der Leistung Ihres Backup-Speichers und Netzwerks kann die Wiederherstellung einige Zeit in Anspruch nehmen.
Dateiwiederherstellung
Öffnen Sie die Veeam Backup & Replication-Konsole auf Ihrem Backup-Server oder Ihrer Management-Workstation. Um einen Backup-Job zu erstellen, navigieren Sie zum Tab Home und klicken Sie auf Backup Job, wählen Sie dann Virtual machine aus dem Disk-Menü.
Wählen Sie Restore guest files. Der Assistent für die dateibasierte Wiederherstellung wird gestartet und führt Sie durch die notwendigen Schritte. Der erste Schritt besteht darin, das VM-Backup auszuwählen, aus dem Sie Dateien wiederherstellen möchten. Durchsuchen Sie die Liste der verfügbaren Backups, wählen Sie das passende aus und klicken Sie dann auf Next, um fortzufahren.
Wählen Sie den Wiederherstellungspunkt aus, den Sie für die dateibasierte Wiederherstellung verwenden möchten. Dies ist typischerweise das aktuellste Backup, aber Sie können bei Bedarf auch ein früheres auswählen. Nachdem Sie den Wiederherstellungspunkt ausgewählt haben, klicken Sie auf Next, um fortzufahren.
In diesem Schritt müssen Sie möglicherweise das Betriebssystem der VM auswählen, aus der Sie Dateien wiederherstellen. Dies ist besonders wichtig, wenn das Backup von einem anderen Betriebssystem stammt als dem auf dem Veeam Backup & Replication-Server, da dies den Typ der für die Wiederherstellung erforderlichen Helper Appliance bestimmt.
Veeam Backup & Replication fordert Sie auf, eine Helper Appliance bereitzustellen, wenn das Backup von einem Betriebssystem stammt, das vom Windows-basierten Veeam Backup & Replication-Server nicht nativ unterstützt wird. Befolgen Sie die Anweisungen auf dem Bildschirm, um die Helper Appliance bereitzustellen, die den dateibasierten Wiederherstellungsprozess erleichtern wird.
Sobald die Helper Appliance bereit ist, können Sie das Dateisystem des Backups durchsuchen. Navigieren Sie durch das Backup, um die Dateien oder Ordner zu finden, die Sie wiederherstellen möchten.
Nachdem Sie die Dateien oder Ordner zur Wiederherstellung ausgewählt haben, werden Sie aufgefordert, das Ziel auszuwählen, an das Sie die Daten wiederherstellen möchten. Sie können am ursprünglichen Speicherort wiederherstellen oder einen neuen Speicherort angeben, je nach Ihren Anforderungen.
Überprüfen Sie Ihre Auswahl, um zu bestätigen, dass die richtigen Dateien wiederhergestellt werden und am richtigen Ziel ankommen. Wenn alles in Ordnung ist, fahren Sie mit der Wiederherstellung fort, indem Sie auf Finish klicken.
Der dateibasierte Wiederherstellungsprozess beginnt, und Sie können den Fortschritt in der Veeam Backup & Replication-Konsole überwachen. Die Zeit, die für die Wiederherstellung benötigt wird, hängt von der Größe und Anzahl der wiederherzustellenden Dateien sowie von der Leistung Ihres Backup-Speichers und Netzwerks ab.
Fazit
Zusammenfassend lässt sich sagen, dass das neueste Update für Veeam eine sehr wichtige und willkommene Integration mit Proxmox VE einführt, die eine erhebliche Lücke für Unternehmen schließt, die diese Open-Source-Virtualisierungsplattform übernommen haben. Durch die Ermöglichung direkter Backups und Wiederherstellungen ganzer VMs über verschiedene Hypervisoren hinweg, ohne dass In-VM-Agenten erforderlich sind, bietet Veeam nun eine beispiellose Flexibilität und Einfachheit bei der Verwaltung gemischter Umgebungen. Diese Weiterentwicklung optimiert nicht nur Abläufe und verbessert Datenschutzstrategien, sondern ermöglicht es Unternehmen auch, neue Open-Source-Virtualisierungsplattformen wie Proxmox VE mit minimalem Risiko einfach zu migrieren und zu bewerten. Es ist großartig zu sehen, dass immer mehr Unternehmen Anstrengungen unternehmen, Open-Source-Lösungen zu unterstützen, was die anhaltende Bedeutung von Open-Source-basierten Produkten in Unternehmen unterstreicht.
Zusätzlich bleibt für diejenigen, die neu mit Proxmox beginnen, der Proxmox Backup Server eine praktikable Open-Source-Alternative, und Sie finden unseren Blogbeitrag zur Konfiguration des Proxmox Backup Servers direkt hier. Insgesamt stellt dieses Update einen bedeutenden Schritt zur Vereinheitlichung von Virtualisierungs- und Backup-Infrastrukturen dar, der sowohl Vielseitigkeit als auch einfache Integration bietet.
Wir stehen Ihnen jederzeit für weitere Beratungs-, Planungs- und Integrationsbedürfnisse zur Verfügung. Egal, ob Sie neue Virtualisierungsplattformen erkunden, Ihre aktuelle Infrastruktur optimieren oder fachkundige Beratung zu Ihren Backup-Strategien suchen, unser Team ist bestrebt, Ihren Erfolg auf jedem Schritt des Weges zu gewährleisten. Zögern Sie nicht, uns für personalisierten Support und maßgeschneiderte Lösungen zu kontaktieren, um Ihre einzigartigen Anforderungen in Virtualisierungs- oder Backup-Umgebungen zu erfüllen.
Wie und wann man Software-Defined Networks in Proxmox VE einsetzt
Was ist Software-Defined Networking?
Wie man ein SDN konfiguriert
Nachdem wir nun die Grundlagen und Möglichkeiten von Software-Defined Networking (SDN) kennen, wird es interessant, ein solches Netzwerk innerhalb eines Proxmox-Clusters einzurichten.
Proxmox bietet Unterstützung für Software-Defined Networking (SDN), sodass Benutzer verschiedene Arten von Netzwerkkonfigurationen integrieren können, um ihren spezifischen Netzwerkanforderungen gerecht zu werden. Mit Proxmox haben Sie die Flexibilität, aus verschiedenen SDN-Typen auszuwählen, darunter „Simple“, das wahrscheinlich auf unkomplizierte Netzwerkeinrichtungen ohne Bedarf an erweiterten Funktionen abzielt. Für Umgebungen, die eine Netzwerksegmentierung erfordern, ist VLAN-Unterstützung verfügbar, die die Möglichkeit bietet, den Datenverkehr innerhalb verschiedener virtueller LANs zu isolieren und zu verwalten. Komplexere Szenarien profitieren möglicherweise von der QinQ-Unterstützung, die mehrere VLAN-Tags auf einer einzigen Schnittstelle ermöglicht. Auch und sehr interessant für Rechenzentren: Proxmox bietet auch VxLAN-Unterstützung, die Layer-2-Netzwerke über eine Layer-3-Infrastruktur erweitert, was die Anzahl der möglichen VLANs erheblich erhöht, die sonst auf 4096 VLANs begrenzt wären. Zuletzt zu erwähnen ist die EVPN-Unterstützung, die ebenfalls Teil des SDN-Angebots von Proxmox ist, die erweiterte Layer-2- und Layer-3-Virtualisierung ermöglicht und eine skalierbare Steuerungsebene mit BGP (Border Gateway Protocol) für Multi-Tenancy-Umgebungen bietet.
In diesem Leitfaden führen wir Sie durch den Prozess der Einrichtung eines optimierten Software-Defined Network (SDN) innerhalb einer Proxmox-Clusterumgebung. Das Hauptziel ist die Einrichtung eines neuen Netzwerks, einschließlich seiner eigenen Netzwerkkonfiguration, die automatisch auf alle Knoten innerhalb des Clusters übertragen wird. Dieses neu erstellte Netzwerk wird durch seinen eigenen IP-Bereich erstellt, in dem virtuelle Maschinen (VMs) ihre IP-Adressen dynamisch über DHCP erhalten. Diese Einrichtung macht eine manuelle IP-Weiterleitung oder Network Address Translation (NAT) auf den Host-Maschinen überflüssig. Ein weiterer Vorteil dieser Konfiguration ist die Konsistenz, die sie bietet; das Gateway für die VMs bleibt immer konstant, unabhängig von dem spezifischen Host-Knoten, auf dem sie betrieben werden.
Konfiguration
Die Konfiguration von Software-Defined Networking (SDN) ist in den neuesten Proxmox VE-Versionen sehr einfach geworden, da der gesamte Prozess in der Proxmox-Weboberfläche durchgeführt werden kann. Daher verbinden wir uns einfach mit der Proxmox-Management-Weboberfläche, die typischerweise erreichbar ist unter:
- https://HOSTNAME:8006
Die SDN-Optionen sind im Datacenter-Kapitel im Unterkapitel SDN integriert. Alle weiteren Arbeiten werden nur innerhalb dieses Kapitels durchgeführt. Daher navigieren wir zu:
–> Datacenter
—-> SDN
——–> Zonen
Das Menü auf der rechten Seite bietet die Möglichkeit, eine neue Zone hinzuzufügen, wobei die neue Zone vom Typ Simple ausgewählt wird. Es öffnet sich ein neues Fenster, in dem wir direkt die erweiterten Optionen unten aktivieren. Anschließend werden weitere erforderliche Details angegeben.

ID: devnet01
MTU: Auto
Nodes: All
IPAM: pve
Automatic DHCP: Activate
Die ID stellt die eindeutige Kennung dieser Zone dar. Es kann sinnvoll sein, ihr einen wiedererkennbaren Namen zu geben. Normalerweise müssen wir die MTU-Größe für diese Art von Standard-Setups nicht anpassen. Es kann jedoch immer einige Sonderfälle geben. In den Node-Abschnitten kann diese Zone bestimmten Nodes oder einfach allen zugewiesen werden. Es kann auch Szenarien geben, in denen Zonen nur auf bestimmte Nodes beschränkt sind. Entsprechend unseren erweiterten Optionen können weitere Details wie DNS-Server und auch die Forward- & Reverse-Zonen definiert werden. Für dieses grundlegende Setup wird dies nicht verwendet, aber die automatische DHCP-Option muss aktiviert werden.
Nun werden die nächsten Schritte im Kapitel VNets durchgeführt, wo die zuvor erstellte Zone mit einem virtuellen Netzwerk verknüpft wird. Im selben Schritt werden wir auch zusätzliche Netzwerkinformationen wie den Netzwerkbereich usw. angeben.

Beim Erstellen eines neuen VNet muss eine Kennung oder ein Name angegeben werden. Es ist oft sinnvoll, den Namen des virtuellen Netzwerks an den zuvor generierten Zonennamen anzupassen. In diesem Beispiel werden die gleichen Namen verwendet. Optional kann ein Alias definiert werden. Wichtig ist die Auswahl der gewünschten Zone, die verwendet werden soll (z. B. devnet01). Nach dem Erstellen des neuen VNet haben wir die Möglichkeit, im selben Fenster ein neues Subnetz zu erstellen, indem wir auf die Schaltfläche Create Subnet klicken.
Innerhalb dieses Dialogs werden einige grundlegende Netzwerkinformationen eingegeben. Im Allgemeinen müssen wir das gewünschte Subnetz in CIDR-Notation angeben (z. B. 10.11.12.0/24). Die Definition der IP-Adresse für das Gateway ist ebenfalls möglich. In diesem Beispiel wird das Gateway auf der IP-Adresse 10.11.12.1 platziert. Wichtig ist die Aktivierung der Option SNAT. SNAT (Source Network Address Translation) ist eine Technik, um die Quell-IP-Adresse des ausgehenden Netzwerkverkehrs so zu ändern, dass es so aussieht, als ob er von einer anderen IP-Adresse stammt, die normalerweise die IP-Adresse des Routers oder der Firewall ist. Diese Methode wird häufig verwendet, um mehreren Geräten in einem privaten Netzwerk den Zugriff auf externe Netzwerke zu ermöglichen.
Nach dem Erstellen und Verknüpfen der Zone, des VNet und des Subnetzes kann die Konfiguration einfach auf der Weboberfläche angewendet werden, indem auf die Schaltfläche „Apply“ geklickt wird. Die Konfiguration wird nun mit den gewünschten Nodes synchronisiert (in unserem Beispiel alle).
Nutzung
Nach dem Anwenden der Konfiguration auf die Nodes innerhalb des Clusters müssen virtuelle Maschinen noch diesem Netzwerk zugewiesen werden. Glücklicherweise kann dies einfach über die reguläre Proxmox-Weboberfläche erfolgen, die nun auch das neu erstellte Netzwerk devnet01 im Networking-Kapitel der VM bereitstellt. Aber auch bereits vorhandene virtuelle Maschinen können diesem Netzwerk zugewiesen werden.
Wenn es um DevOps und Automatisierung geht, ist dies auch in der API verfügbar, wo virtuelle Maschinen dem neuen Netzwerk zugewiesen werden können. Eine solche Aufgabe könnte im folgenden Beispiel in Ansible wie folgt aussehen:
- name: Create Container in Custom Network
community.general.proxmox:
vmid: 100
node: de01-dus01-node03
api_user: root@pam
api_password: {{ api_password }}
api_host: de01-dus01-node01
password: {{ container_password }}
hostname: {{ container_fqdn }}
ostemplate: 'local:vztmpl/debian-12-x86_64.tar.gz'
netif: '{"net0":"name=eth0,ip=dhcp,ip6=dhcp,bridge=devnet01"}'
Virtuelle Maschinen, die diesem Netzwerk zugewiesen sind, erhalten sofort IP-Adressen innerhalb unseres zuvor definierten Netzwerks 10.11.12.0/24 und können ohne weitere Bedürfnisse auf das Internet zugreifen. VMs können auch über Nodes im Cluster verschoben werden, ohne dass das Gateway angepasst werden muss, selbst wenn ein Node heruntergefahren oder für Wartungsarbeiten neu gestartet wird.
Fazit
Zusammenfassend lässt sich sagen, dass die Integration von Software-Defined Networking (SDN) in Proxmox VE einen großen Vorteil aus technischer Sicht, aber auch aus Benutzersicht darstellt, da diese Funktion auch über die Proxmox-Weboberfläche nutzbar ist. Diese einfache Konfiguration ermöglicht es auch Personen mit begrenzter Netzwerkerfahrung, noch komplexere Netzwerkeinrichtungen einzurichten und zu verwalten.
Proxmox erleichtert es auch mit einfachen SDNs, grundlegende Netzwerke zu erstellen, die virtuelle Maschinen mit dem Internet verbinden. Sie müssen sich nicht mit komplizierten Einstellungen oder Gateways auf den Hauptknoten befassen. Dies beschleunigt die Inbetriebnahme virtueller Setups und verringert die Wahrscheinlichkeit von Fehlern, die zu Sicherheitsproblemen führen könnten.
Für Leute, die gerade erst anfangen, hat Proxmox eine benutzerfreundliche Website, die es einfach macht, Netzwerke einzurichten und zu steuern. Das ist wirklich hilfreich, weil es bedeutet, dass sie nicht viel kompliziertes Zeug lernen müssen, um loszulegen. Stattdessen können sie mehr Zeit damit verbringen, mit ihren virtuellen Computern zu arbeiten, und sich nicht zu viele Sorgen darüber machen, wie sie alles verbinden.
Leute, die mehr über Technologie wissen, werden es mögen, wie Proxmox ihnen erlaubt, komplexe Netzwerke einzurichten. Das ist gut für große Setups, weil es das Netzwerk besser laufen lassen, mehr Verkehr bewältigen und verschiedene Teile des Netzwerks voneinander trennen kann.
Genau wie andere nützliche Integrationen (z. B. Ceph) bietet auch die SDN-Integration große Vorteile für seine Benutzerbasis und zeigt die laufende Integration nützlicher Tools in Proxmox.
NetApp-Speicher und NVMe-oF für bahnbrechende Leistung in Proxmox-Virtualisierungsumgebungen
Was ist NVMe-oF
NVMe over Fabrics (NVMe-oF) ist ein hochmodernes Protokoll, das entwickelt wurde, um die beeindruckende Leistung und die geringe Latenz von NVMe-Speichergeräten über Netzwerk-Fabrics zu übertragen. Diese Innovation ist besonders transformativ für Rechenzentren, da sie die Trennung von Speicher- und Rechenressourcen ermöglicht, wodurch Administratoren die Möglichkeit erhalten, diese Ressourcen flexibler und mit größerer Skalierbarkeit bereitzustellen, was es perfekt für Virtualisierungs-Workloads macht.
NVMe-oF ist vielseitig in seiner Unterstützung für mehrere Transportschichten, wo es über Fibre Channel (FC), Ethernet mit dem TCP/IP-Protokoll mit RDMA-Funktionen über RoCE oder iWARP und sogar InfiniBand betrieben werden kann, wobei jede einzigartige Leistungsmerkmale bietet, die auf unterschiedliche Bereitstellungsanforderungen zugeschnitten sind.
NVMe-oF über TCP
Wenn NVMe-oF über Ethernet mit TCP bereitgestellt wird, bringt es die Vorteile von NVMe-Speicher in die größtmögliche Bandbreite von Umgebungen, ohne dass eine spezialisierte Netzwerkinfrastruktur wie Fibre Channel oder InfiniBand erforderlich ist. Dies ermöglicht den Zugriff auf Hochleistungsspeicher durch die Nutzung des gängigen und vertrauten TCP-Stacks, wodurch Komplexität und Kosten erheblich reduziert werden. Die Einführung von NVMe-oF mit TCP wird durch die weite Verbreitung von Ethernet und Fachwissen weiter erleichtert, was es zu einer überzeugenden Wahl für Unternehmen macht, die ihre Speichernetzwerke ohne eine komplette Überarbeitung aufrüsten möchten.
Die Effizienz des Protokolls bleibt auch über TCP gut erhalten, wodurch NVMe-Befehle mit minimalem Overhead übergeben werden können, was die Latenz gering hält und für latenzempfindliche Anwendungen wie virtualisierte Datenserver entscheidend ist.
NetApp-Speicher konfigurieren
Allgemein
Der Leitfaden setzt voraus, dass Benutzer die grundlegende Speichereinrichtung bereits vorgenommen haben, einschließlich der Konfiguration von Storage Virtual Machines (SVMs). Er hebt hervor, dass die Verwaltung dieser Systeme dank der intuitiven Weboberfläche, die von NetApp-Speichersystemen bereitgestellt wird, relativ unkompliziert ist. Benutzer können eine benutzerfreundliche Erfahrung bei der Verwaltung ihrer Speicherlösungen erwarten, da die Weboberfläche darauf ausgelegt ist, komplexe Aufgaben zu vereinfachen. Dies umfasst auch die gesamte Einrichtung für NVMe-oF-Speicher, was erfordert, NVMe generell auf der SVM zu aktivieren, den NVMe-Namespace und das NVMe-Subsystem einzurichten.
Hinweis: Alle Änderungen können selbstverständlich auch automatisiert durch Orchestrierung der OnTap API vorgenommen werden.
NVMe auf SVM aktivieren
Um NVMe auf SVM-Ebene in einem NetApp-Speichersystem zu aktivieren, kann dies typischerweise durch Befolgen dieser zusammengefassten Schritte erfolgen, die über die Weboberfläche des Systems zugänglich sind. Navigieren Sie einfach zum Menü Storage, dann zu Storage VMs und wählen Sie schließlich den spezifischen SVM-Namen aus, den Sie konfigurieren möchten:
- NVMe-Protokoll konfigurieren: Suchen Sie innerhalb der SVM-Einstellungen nach einem Abschnitt oder Tab, der sich auf Protokolle bezieht. Suchen Sie die NVMe-Option und aktivieren Sie sie. Dies kann das Aktivieren eines Kontrollkästchens oder das Umschalten eines Schalters in die Position ‚Ein‘ beinhalten.
- Änderungen speichern und anwenden: Nachdem Sie NVMe aktiviert haben, stellen Sie sicher, dass Sie die Änderungen speichern. Es können zusätzliche Aufforderungen oder Schritte zur Bestätigung der Änderungen erforderlich sein, abhängig vom spezifischen NetApp-System und seiner Version.
Denken Sie daran, alle Voraussetzungen oder zusätzlichen Konfigurationseinstellungen zu prüfen, die für den NVMe-Betrieb erforderlich sein könnten, wie Netzwerkeinstellungen, Lizenzierung oder Kompatibilitätsprüfungen der Hardware. Die genauen Schritte können je nach ONTAP-Version oder dem spezifischen NetApp-Modell, das Sie verwenden, leicht variieren. Beziehen Sie sich immer auf die neueste offizielle NetApp-Dokumentation oder Support-Ressourcen für die genaueste Anleitung.
Das NVMe-Subsystem erstellen
Anschließend kann ein neues NVMe-Subsystem auf dem NetApp-Speichersystem erstellt werden. Dies kann durch Auswahl des Abschnitts Hosts und Auswahl von NVMe Subsystem erfolgen, um den Prozess des Hinzufügens eines neuen Subsystems zu starten. Ein neuer Assistent öffnet sich, der zusätzliche Informationen zum neu zu erstellenden Subsystem erfordert:
Name: <Ein Bezeichner des NVMe-Subsystems>
Storage VM: <Die zuvor angepasste SVM>
Host-Betriebssystem: Linux (wichtig für die Blockgröße)
Host NQN: <NQN des Proxmox VE-Knotens>
Es ist unerlässlich sicherzustellen, dass alle Informationen, insbesondere der Host-NQN, korrekt eingegeben werden, um Konnektivitätsprobleme zu vermeiden. Konsultieren Sie zusätzlich die offizielle NetApp-Dokumentation für versionsspezifische Anweisungen oder zusätzliche Konfigurationsschritte, die erforderlich sein könnten.
Den NVMe-Namespace erstellen
Als letzten Schritt muss der NVMe-Namespace erstellt werden. Um einen NVMe-Namespace auf einem NetApp-Speichersystem hinzuzufügen, melden Sie sich zunächst bei der Weboberfläche an und navigieren Sie zum Abschnitt Storage, gefolgt von der Auswahl von NVMe Namespaces. In diesem Bereich initiieren Sie den Prozess der Erstellung eines neuen Namespace. Sie werden aufgefordert, spezifische Details für den Namespace anzugeben, wie seinen Namen, seine Größe und die zugehörige SVM, die ihn verwalten wird.
Hinweis: Beachten Sie auch einen wichtigen Hinweis zum Performance Service Level, der möglicherweise auf ein benutzerdefiniertes Profil umgestellt werden sollte, um Einschränkungen zu vermeiden.
Sobald Sie alle erforderlichen Informationen eingegeben haben, werden Sie typischerweise fortfahren, die Leistungsmerkmale auszuwählen, wie das Service Level oder die Tiering-Richtlinie, abhängig von Ihren Leistungsanforderungen und den Fähigkeiten Ihres NetApp-Systems.
Nachdem Sie diese Einstellungen konfiguriert haben, müssen Sie Ihre Auswahl überprüfen und die neue Namespace-Konfiguration speichern, um sie zur Verwendung verfügbar zu machen. Es ist wichtig sicherzustellen, dass der Namespace ordnungsgemäß konfiguriert ist, um den Anforderungen Ihrer Umgebung für optimale Leistung und Kompatibilität zu entsprechen. Überprüfen Sie immer auf zusätzliche Schritte oder Voraussetzungen, indem Sie die NetApp-Dokumentation konsultieren, die für Ihre ONTAP-Version oder Ihr Speichermodell relevant ist.
Die Konfiguration auf der Speicherseite ist nun abgeschlossen. Die nächsten Schritte werden auf dem/den Proxmox VE-Knoten durchgeführt.
Proxmox-Knoten konfigurieren
Allgemein
Nach der Konfiguration der NetApp-Speicherappliance müssen alle Proxmox VE-Knoten innerhalb des Clusters für die Nutzung und den Zugriff auf den NVMe-oF-Speicher konfiguriert werden. Leider unterstützt Proxmox VE diese Art von Speicher nicht von Haus aus. Daher kann dies nicht einfach über die Proxmox-Weboberfläche konfiguriert werden. Glücklicherweise basiert Proxmox VE auf Debian Linux, von wo aus alle benötigten Abhängigkeiten und Konfigurationen bezogen werden können, aber es erfordert, dass wir alles über die Kommandozeile (CLI) erledigen. Abhängig von der Anzahl der Knoten innerhalb des Clusters können weitere Konfigurationsmanagement-Tools wie Ansible den anfänglichen Einrichtungsprozess beschleunigen und für neue potenzielle Knoten in der Zukunft wiederholbar machen. Wir können Sie auch bei der Einrichtung maßgeschneiderter Konfigurationsmanagement-Umgebungen unterstützen, die Ihren Anforderungen entsprechen.
Im Allgemeinen besteht dieser Prozess aus:
- Erforderliche Pakete installieren.
- Die Kernel-Module aktivieren.
- Erkennung des Speichers.
- Verbindung mit dem Speicher herstellen.
- Eine LVM-Volume-Gruppe erstellen.
- Den Speicher in der Proxmox-Weboberfläche zuweisen.
Die nächsten Schritte in diesem Blogbeitrag werden den Prozess detailliert behandeln und Sie durch die erforderlichen Schritte auf den Proxmox VE-Knoten führen, die auf der Kommandozeile ausgeführt werden müssen.
Erforderliche Pakete installieren
Die Nutzung und der Zugriff auf NVMe-oF erfordert, dass die zugehörigen User-Land-Tools (nvme-cli) auf dem Proxmox VE-Knoten vorhanden sind. Debian Linux stellt diese Tools bereits im Debian-Repository bereit. Daher ist der gesamte Installationsprozess sehr einfach. Das Paket kann einfach mit dem folgenden Befehl installiert werden:
apt-get install nvme-cli
Dieses Paket stellt auch bereits das erforderliche Kernel-Modul bereit, das einfach durch Ausführen von geladen werden kann:
modprobe nvme_tcp
Anschließend sollte das Modul hinzugefügt werden, um beim Booten geladen zu werden:
echo "nvme_tcp" > /etc/modules-load.d/20-nvme_tcp.conf
Nach diesen Schritten kann eine Verbindung mit dem Speicher initialisiert werden.
Verbindung mit dem Speicher herstellen
Die Interaktion mit dem NetApp-Speicher und seiner NVMe-oF-Funktionalität ist ein mehrstufiger Prozess und erfordert den Austausch der NVMe Qualified Name (NQN)-Adresse jedes Proxmox VE-Knotens, der auf den NVMe-Speicher zugreift. Die NQN-Adresse eines Proxmox VE-Knotens kann durch Ausführen des Befehls abgerufen werden:
cat /etc/nvme/hostnqn
![]()
Fügen Sie die Host-NQN-Adresse zu Ihrem NetApp-Export hinzu, um den Knoten den Zugriff darauf zu ermöglichen. Eine Beispielausgabe ist im Screenshot angegeben.
Erkennung & Verbindung
Im nächsten Schritt werden die NVMe-Geräte erkannt und mit dem Proxmox VE-Knoten verbunden. Der Erkennungs- und Verbindungsprozess erfolgt einfach durch Ausführen der folgenden Befehle:
nvme discover -t tcp -a 192.168.164.100 -s 4420
nvme connect -t tcp -n na01-nqn01 -a 192.168.164.100 -s 4420
Um diese Konfiguration systemneustartfest zu machen, werden die Befehle auch zur nvme-Discovery-Datei hinzugefügt. Die nvmf-autoconnect systemd-Unit-Datei stellt sicher, dass dies geladen wird. Daher muss diese systemd-Unit-Datei ebenfalls aktiviert werden.
echo "discover -t tcp -a 192.168.164.100 -s 4420" >> etc/nvme/discovery.conf
systemctl enable nvmf-autoconnect.service
Volume-Gruppe
Die letzten Schritte werden teilweise auf der Kommandozeile und teilweise über die Proxmox-Weboberfläche durchgeführt, um den neuen Speicher zum Cluster hinzuzufügen.
Wichtig:
Diese Schritte dürfen nur auf einem einzelnen Proxmox VE Host-Knoten und nicht auf allen durchgeführt werden. Die Integration erfolgt auf Clusterebene und betrifft alle Proxmox VE-Knoten, sobald dies geschehen ist.
Der letzte Befehl auf der Kommandozeile führt zur Erstellung einer neuen LVM Volume Group (VG) auf dem neuen NVMe-Gerät, was einfach durch Ausführen des Befehls geschehen kann:
vgcreate shared_nvme01 /dev/nvme0n1
Die neu erstellte LVM Volume Group (VG) kann durch Ausführen des Befehls validiert werden:
vgdisplay shared_nvme01
Eine Ausgabe wie im angegebenen Screenshot sollte zurückgegeben werden, einschließlich aller weiteren Details dieser VG. Nach der Validierung der Informationen sind alle Aufgaben auf der Kommandozeile abgeschlossen.
Um diese LVM Volume Group schließlich auf allen Proxmox VE-Knoten innerhalb des Clusters zu verwenden, muss diese Volume Group auf Clusterebene hinzugefügt und integriert werden. Dazu müssen wir uns im Web-Frontend des Clusters anmelden und dies unter hinzufügen:
- Datacenter
- Storage
- Hinzufügen
- LVM
Im neuen Fenster müssen weitere Details für den neuen LVM-Speicher definiert werden:
- ID: shared_nvme01 (dies kann beliebiger Text sein und ist lediglich ein Bezeichner)
- Basisspeicher: Bestehende Volume-Gruppen
- Volume-Gruppe: shared_nvme01
- Inhalt: Disk-Image, Container (kann variieren)
- Knoten: <Wählen Sie alle Knoten aus, die es verwenden sollen>
- Aktiviert: Ja
- Freigegeben: Ja
- Entfernte Volumes löschen: Nein

Durch Klicken auf Hinzufügen wird dies als neues Volume an die ausgewählten Knoten angehängt und kann direkt verwendet werden.
Fazit
Die Nutzung von NVMe over Fabrics (NVMe-oF) über TCP in Verbindung mit Proxmox VE in einer Virtualisierungsumgebung stellt eine überzeugende Lösung für Organisationen dar, die kostengünstige und dennoch hochleistungsfähige Speicherarchitekturen suchen. Dieser Ansatz nutzt die weite Verbreitung und Kompatibilität von Ethernet-basierten Netzwerken, wodurch die Notwendigkeit spezialisierter Hardware wie Fibre Channel oder InfiniBand vermieden wird, die für viele Unternehmen kostenintensiv sein kann.
Durch die Integration von NVMe-oF mit Proxmox, einer beliebten Open-Source-Virtualisierungsplattform, können Benutzer von deutlich verbesserten Datenübertragungsgeschwindigkeiten und geringerer Latenz im Vergleich zu traditionellen Speicherlösungen profitieren. NVMe-oF kann nicht nur mit Proxmox VE, sondern auch auf anderen Betriebssystemen wie FreeBSD und Hypervisoren wie bhyve verwendet werden. Dies bietet einen großen Vorteil für latenzempfindliche Workloads, wie virtualisierte Datenbankserver, wo schneller Datenzugriff für die Leistung entscheidend ist. Das NVMe-Protokoll ist darauf ausgelegt, das volle Potenzial von Solid-State-Speichertechnologien auszuschöpfen. Bei Verwendung über ein Netzwerk-Fabric mittels TCP kann es eine nahezu lokale NVMe-Leistung liefern, indem es sehr kostengünstig ist.
Gerne stehen wir Ihnen zur Verfügung, um weitere Einblicke in NetApp-Speichersysteme zu geben, die sowohl Hardware- als auch Softwareaspekte abdecken. Unsere Expertise erstreckt sich auch auf Open-Source-Produkte, insbesondere bei der Einrichtung von Virtualisierungsumgebungen mit Technologien wie Proxmox und OpenShift oder deren Wartung mit Konfigurationsmanagement. Wir laden Sie ein, sich bei Bedarf an uns zu wenden.
Es könnte Sie auch interessieren zu erfahren, wie Sie VMs von VMware ESXi zu Proxmox VE migrieren oder wie Sie den Proxmox Backup Server in Ihre Infrastruktur integrieren können.
Integration des Proxmox Backup Servers in Proxmox-Cluster
Proxmox Backup Server
In der heutigen digitalen Landschaft, in der Daten die zentrale Rolle spielen, ist die Gewährleistung ihrer Sicherheit und Integrität für Unternehmen jeder Größe von größter Bedeutung. Hier kommt der Proxmox Backup Server ins Spiel, eine robuste Lösung, die mit ihren beispiellosen Funktionen und ihrem Open-Source-Charakter die Datensicherungsstrategien revolutionieren wird.

Im Kern ist der Proxmox Backup Server eine umfassende Backup-Lösung, die entwickelt wurde, um kritische Daten und Anwendungen in virtualisierten Umgebungen auf Basis von Proxmox VE mühelos zu schützen. Im Gegensatz zu herkömmlichen Backup-Methoden bietet der Proxmox Backup Server einen optimierten Ansatz, der die mit Datensicherung und -wiederherstellung verbundenen Komplexitäten vereinfacht.
Eines der herausragenden Merkmale des Proxmox Backup Servers ist seine nahtlose Integration mit der Proxmox Virtual Environment (PVE), wodurch ein kohärentes Ökosystem für die Verwaltung virtualisierter Umgebungen entsteht. Diese Integration ermöglicht eine effiziente Sicherung und Wiederherstellung von Linux-Containern und virtuellen Maschinen, was minimale Ausfallzeiten und maximale Produktivität gewährleistet. Ohne die Notwendigkeit von Backup-Clients auf jedem Container oder jeder virtuellen Maschine bietet diese Lösung dennoch die Möglichkeit, das gesamte System sowie einzelne Dateien direkt aus dem Dateisystem zu sichern und wiederherzustellen.
Der Proxmox Backup Server bietet eine benutzerfreundliche Oberfläche, die ihn sowohl für erfahrene IT-Profis als auch für Neueinsteiger zugänglich macht. Mit seinem intuitiven Design können Benutzer Backup-Aufgaben einfach konfigurieren, den Fortschritt überwachen und Daten mit nur wenigen Klicks abrufen, wodurch umfangreiche Schulungen oder technisches Fachwissen überflüssig werden.
Datensicherheit hat für Unternehmen aller Branchen oberste Priorität, und der Proxmox Backup Server erfüllt diese Anforderung. Gebündelt mit Lösungen wie ZFS bietet er alle Enterprise-Dateisystemfunktionen wie Verschlüsselung im Ruhezustand, Verschlüsselung während der Übertragung, Prüfsummen, Snapshots, Deduplizierung und Komprimierung. Zudem kann die Integration von iSCSI– oder NFS-Speicher aus Enterprise-Speicherlösungen wie von NetApp genutzt werden.
Ein weiterer bemerkenswerter Aspekt des Proxmox Backup Servers ist seine Kosteneffizienz. Als Open-Source-Lösung beseitigt er die finanziellen Barrieren (auch in Verbindung mit den Proxmox VE-Lösungen), die mit proprietärer Backup-Software verbunden sind.
Integration des Proxmox Backup Servers in Proxmox-Cluster
Allgemein
Dieser Leitfaden setzt voraus, dass Sie bereits mindestens ein Proxmox VE-System in Betrieb haben und auch ein System, auf dem eine grundlegende Installation des Proxmox Backup Servers durchgeführt wurde. In diesem Beispiel ist der Proxmox Backup Server auf einer einzelnen Festplatte installiert, wobei der Datenspeicher an ein zusätzliches Blockgerät angehängt wird, das die Backups enthält. Proxmox VE- und Proxmox Backup Server-Instanzen müssen sich nicht im selben Netzwerk befinden, müssen aber gegenseitig erreichbar sein. Die Integration erfordert administrativen Zugriff auf das Datacenter der Proxmox VE-Instanz(en) und den Backup Server.
Voraussetzungen
- Proxmox VE (einschließlich des Datacenters).
- Proxmox Backup Server (Basisinstallation).
- Administrativer Zugriff auf alle Systeme.
- Netzwerkerreichbarkeit.
- Speichergerät, das die Backups enthält (in diesem Fall ein dediziertes Block-Speichergerät).
Administration: Proxmox Backup Server
Wie die Proxmox VE-Umgebung verfügt auch der Proxmox Backup Server über ein sehr intuitives Web-Frontend. Im Gegensatz zum Web-Frontend von Proxmox VE, das auf tcp/8006 läuft, ist der Proxmox Backup Server auf tcp/8007 erreichbar. Daher werden alle nächsten Aufgaben unter https://<IP-PROXMOX-BACKUP-SERVER>:8007 durchgeführt.
Nach der Anmeldung am Web-Frontend begrüßt die Dashboard-Übersicht den Benutzer.

Datenspeicher hinzufügen / Speicher verwalten
Die anfänglichen und wichtigsten Aufgaben bestehen darin, den Speicher zu verwalten und einen nutzbaren Datenspeicher für die Virtualisierungsumgebung hinzuzufügen, der die Backup-Daten enthält. Daher wechseln wir zum Kapitel Administration und klicken auf Speicher / Festplatten. Dies bietet eine Übersicht über die verfügbaren Geräte auf dem Proxmox Backup Server.
Wie bereits erwähnt, verwendet dieses Beispiel ein dediziertes Block-Speichergerät, das mit ZFS genutzt wird, um von Prüfsummen, Deduplizierung und Komprimierung zu profitieren, was natürlich auch zusätzlich mit mehreren Festplatten (sogenannten raidz-Levels) oder mit anderen Lösungen wie Ordner- oder NFS-Freigaben verwendet werden kann. Zurück zu unserem Beispiel sehen wir das leere /dev/sdb-Gerät, das zum Speichern aller Backup-Dateien verwendet wird.
Durch Klicken auf ZFS in der oberen Menüleiste kann ein ZFS-Pool als Datenspeicher erstellt werden. Dabei müssen ein Name, der RAID-Level, die Komprimierung und die zu verwendenden Geräte definiert werden.
Wie bereits erwähnt, können wir mehrere Festplatten anschließen und einen gewünschten RAID-Level definieren. Das gegebene Beispiel besteht nur aus einer einzelnen Festplatte, die hier definiert wird. Komprimierung ist optional, aber die Verwendung von LZ4 als Komprimierung wird empfohlen. Als verlustfreier Datenkompressionsalgorithmus zielt LZ4 darauf ab, einen guten Kompromiss zwischen Geschwindigkeit und Kompressionsrate zu bieten, was auf heutigen Systemen sehr transparent ist.
Stellen Sie sicher, dass die Option Als Datenspeicher hinzufügen (Standard) aktiviert ist, da dies den angegebenen Namen direkt als nutzbaren Datenspeicher erstellt. In unserem Beispiel wird dies backup01 sein.
Beachten Sie, dass dieser Teil nicht erforderlich ist, wenn Sie eine NFS-Freigabe verwenden. Verwenden Sie dies auch nicht in Verbindung mit Hardware-RAID-Controllern.
Benutzer für Backup hinzufügen
Im nächsten Schritt wird ein dedizierter Benutzer erstellt, der für die Datenspeicherberechtigungen und für die Proxmox VE-Instanzen zur Authentifizierung und Autorisierung verwendet wird. Dies ermöglicht selbst komplexe Setups mit verschiedenen Datenspeichern, verschiedenen Benutzern einschließlich unterschiedlicher Zugriffsebenen (z. B. Lesen, Schreiben, Auditieren,…) auf verschiedenen Clustern und Instanzen. Um es für Demonstrationen einfach zu halten, wird nur ein einziger Benutzer für alles verwendet.
Ein neuer Benutzer wird konfiguriert, indem Sie im linken Menü Konfiguration, Zugriffssteuerung und Benutzerverwaltung auswählen. Dort kann ein neuer Benutzer durch einfaches Definieren eines Namens und eines Passworts erstellt werden. Der Standard-Realm sollte für den Proxmox Backup-Authentifizierungsanbieter auf dem Standardwert bleiben. Je nach Komplexität des verwendeten Namensschemas können Sie auch sinnvolle Benutzer erstellen. Im gegebenen Beispiel heißt der Benutzer dc01cluster22backup01.
Berechtigung des Benutzers für Datenspeicher hinzufügen
Angesichts der bereits erwähnten Möglichkeit, komplexe Setups bezüglich Authentifizierung und Autorisierung zu erstellen, muss der Datenspeicher mindestens einem einzelnen Benutzer zugeordnet werden, der darauf zugreifen kann. Daher kehren wir zum Datenspeicher zurück und wählen den zuvor erstellten backup01-Datenspeicher aus. In der oberen Menüleiste können die Berechtigungen im Kapitel Berechtigungen erstellt und angepasst werden. Zunächst wird nun eine neue erstellt. In der folgenden Übersicht müssen der Datenspeicher oder Pfad, der Benutzer und die Rolle definiert werden:

Pfad: /datastore/backup01
Benutzer: dc01cluster22backup01@pbs
Rolle: DatastoreAdmin
Propagieren: True
Um einen kurzen Überblick über die möglichen Rollen zu geben, wird dies kurz ohne weitere Erläuterung erwähnt:
- Admin
- Audit
- DatastoreAdmin
- DatastoreAudit
- DatastoreBackup
- DatastorePowerUser
- DatastoreReader
Administration: Proxmox VE
Die Integration des Backup-Datenspeichers wird von den Proxmox VE-Instanzen über das Datacenter durchgeführt. Infolgedessen wird das Proxmox VE Web-Frontend nun für weitere administrative Aktionen verwendet. Das Proxmox VE Web-Frontend läuft auf tcp/8006. Daher werden alle nächsten Aufgaben unter https://<IP-PROXMOX-VE-SERVER>:8006 durchgeführt.

Speicher hinzufügen
Die Integration des Proxmox Backup Servers funktioniert auf die gleiche Weise wie die Verwaltung und das Hinzufügen eines freigegebenen Speichers zu einem Proxmox-Datacenter.
Im linken Menü wählen wir das aktive Datacenter aus und wählen die Speicher-Optionen. Dort finden wir alle nativ unterstützten Speicheroptionen von Proxmox (wie NFS, SMB/CIFS, iSCSI, ZFS, GlusterFS,…) und wählen schließlich den Proxmox Backup Server als dediziertes Element aus.
Anschließend müssen die Details zum Hinzufügen dieses Datenspeichers zum Datacenter eingegeben werden. Die folgenden Optionen müssen definiert werden:
ID: backup22
Server: <FQDN-ODER-IP-DES-BACKUP-SERVERS>
Benutzername: dc01cluster22backup01@pbs
Passwort: <DAS-PASSWORT-DES-BENUTZERS>
Aktivieren: True
Datenspeicher: backup01
Fingerabdruck: <SYSTEM-FINGERABDRUCK-DES-BACKUP-SERVERS>
Optional können auch die Backup-Aufbewahrung und Verschlüsselung konfiguriert werden, bevor der neue Backup-Datenspeicher hinzugefügt wird. Während die Backup-Aufbewahrung auch auf dem Proxmox Backup Server konfiguriert werden kann (was empfohlen wird), sollte die Aktivierung der Verschlüsselung in Betracht gezogen werden. Das Auswählen und Aktivieren der Verschlüsselung erfolgt einfach durch die Einstellung auf Client-Verschlüsselungsschlüssel automatisch generieren. Je nach Ihrer vorherigen Einrichtung kann auch ein bereits vorhandener Schlüssel hochgeladen und verwendet werden.
Nachdem dieser Backup-Datenspeicher zum Datacenter hinzugefügt wurde, kann dieser sofort für Backups verwendet werden und die Integration ist abgeschlossen.
Fazit
Proxmox bietet mit dem Proxmox Backup Server eine Enterprise-Backup-Lösung zur Sicherung von Linux-Containern und virtuellen Maschinen. Mit Funktionen wie inkrementellen und vollständig deduplizierten Backups, die die Vorteile verschiedener Open-Source-Lösungen nutzen, zusammen mit starker Verschlüsselung und Datenintegrität, ist diese Lösung ein Beweis dafür, dass Open-Source-Software mit proprietärer Unternehmenssoftware konkurrieren kann. Zusammen mit Proxmox VE können unternehmensähnliche Virtualisierungsumgebungen erstellt und verwaltet werden, ohne die typischen Enterprise-Funktionen zu vermissen. Proxmox VE und der Proxmox Backup Server können auch zusätzlich zu Speicher-Appliances von Anbietern wie NetApp verwendet werden, indem direkt iSCSI oder NFS genutzt wird.
Dieses einfache Beispiel dient als Grundlage, es gibt aber natürlich viel komplexere Szenarien, die erstellt und auch berücksichtigt werden sollten. Gerne stellen wir Ihnen weitere Informationen zur Verfügung und unterstützen Sie bei der Erstellung solcher Setups. Wir bieten auch Unterstützung bei der
Migration von VMs von VMware ESXi zu Proxmox
Als Reaktion auf Broadcoms jüngste Änderungen im Abonnementmodell von VMware überdenken immer mehr Unternehmen ihre Virtualisierungsstrategien. Angesichts erhöhter Bedenken hinsichtlich Lizenzkosten und Feature-Zugänglichkeit wenden sich Unternehmen open source Lösungen zu, um mehr Flexibilität und Kosteneffizienz zu erzielen.
Vorteile von Open-Source-Lösungen
In der dynamischen Landschaft des modernen Geschäftslebens stellt die Entscheidung für open source Lösungen für die Virtualisierung einen strategischen Vorteil für Unternehmen dar. Mit Plattformen wie KVM, Xen und sogar LXC-Containern können Unternehmen von der Abwesenheit von Lizenzgebühren profitieren, was erhebliche Kosteneinsparungen ermöglicht und Ressourcen in Innovation und Wachstum umleitet. Diese finanzielle Flexibilität ermöglicht es Unternehmen, strategische Investitionen in ihre IT-Infrastruktur zu tätigen, ohne die Belastung durch proprietäre Lizenzkosten. Darüber hinaus fördert die Open-Source-Virtualisierung die Zusammenarbeit und Transparenz, sodass Unternehmen ihre Umgebungen an ihre individuellen Bedürfnisse anpassen und nahtlos in bestehende Systeme integrieren können. Durch die Community-gesteuerte Entwicklung und robuste Support-Netzwerke erhalten Unternehmen Zugang zu einem reichen Wissens- und Ressourcenpool, der die Zuverlässigkeit, Sicherheit und Skalierbarkeit ihrer virtualisierten Infrastruktur gewährleistet. Die Nutzung der Open-Source-Virtualisierung bietet nicht nur greifbare finanzielle Vorteile, sondern stattet Unternehmen auch mit der Agilität und Anpassungsfähigkeit aus, die sie benötigen, um in einer sich ständig weiterentwickelnden digitalen Landschaft erfolgreich zu sein.
Migrieren einer VM
Voraussetzungen
Um einen reibungslosen Migrationsprozess von VMware ESXi zu Proxmox zu gewährleisten, müssen mehrere wichtige Schritte unternommen werden. Zunächst muss der SSH-Zugriff sowohl auf dem VMware ESXi-Host als auch auf dem Proxmox-Host aktiviert werden, um die Remote-Verwaltung und -Administration zu ermöglichen. Zusätzlich ist es entscheidend, Zugriff auf beide Systeme zu haben, um den Migrationsprozess zu erleichtern. Des Weiteren ist die Herstellung einer SSH-Verbindung zwischen VMware ESXi und Proxmox für eine nahtlose Kommunikation zwischen den beiden Plattformen unerlässlich. Dies gewährleistet eine effiziente Datenübertragung und -verwaltung während der Migration. Darüber hinaus ist es zwingend erforderlich, das Proxmox VE-System oder den Cluster ähnlich dem ESXi-Setup zu konfigurieren, insbesondere hinsichtlich der Netzwerkkonfigurationen. Dies beinhaltet die Sicherstellung der Kompatibilität mit VLANs oder VXLANs für komplexere Setups. Zusätzlich sollten beide Systeme entweder auf lokalem Speicher laufen oder Zugriff auf gemeinsamen Speicher, wie NFS, haben, um die Übertragung von virtuellen Maschinendaten zu erleichtern. Schließlich ist es vor Beginn der Migration unerlässlich zu überprüfen, ob das Proxmox-System über ausreichend verfügbaren Speicherplatz verfügt, um die importierte virtuelle Maschine aufzunehmen und so einen erfolgreichen Übergang ohne Speicherengpässe zu gewährleisten.
SSH auf ESXi aktivieren
Der SSH-Server muss aktiviert sein, um den Inhalt vom ESXi-System an den neuen Speicherort auf dem Proxmox-Server zu kopieren. Die virtuelle Maschine wird später auf den Proxmox-Server kopiert. Daher ist es notwendig, dass das Proxmox-System eine SSH-Verbindung über tcp/22 zum ESXi-System herstellen kann:
- Melden Sie sich beim VMware ESXi-Host an.
- Navigieren Sie zu Konfiguration > Sicherheitsprofil.
- Aktivieren Sie SSH unter Dienste.
Quellinformationen über VM auf ESXi finden

Eine der herausfordernden Aufgaben ist das Auffinden des Speicherorts der virtuellen Maschine, die die virtuelle Festplatte enthält. Der Pfad kann in der Web-UI des ESXi-Systems gefunden werden:
- Suchen Sie den ESXi-Knoten, auf dem die virtuelle Maschine ausgeführt wird, die migriert werden soll
- Identifizieren Sie die zu migrierende virtuelle Maschine (z. B. pgsql07.gyptazy.ch).
- Ermitteln Sie den Speicherort der virtuellen Festplatte (VMDK), die der VM zugeordnet ist, über das Konfigurationsfeld.
- Der VM-Speicherortpfad sollte angezeigt werden (z. B. /vmfs/volumes/137b4261-68e88bae-0000-000000000000/pgsql07.gyptazy.ch).
- VM stoppen und herunterfahren.
Eine neue leere VM auf Proxmox erstellen
- Erstellen Sie eine neue leere VM in Proxmox.
- Weisen Sie die gleichen Ressourcen wie im ESXi-Setup zu.
- Stellen Sie den Netzwerktyp auf VMware vmxnet3 ein.
- Stellen Sie sicher, dass die benötigten Netzwerkressourcen (z. B. VLAN, VXLAN) ordnungsgemäß konfiguriert sind.
- Stellen Sie den SCSCI-Controller für die Festplatte auf VMware PVSCSI ein.
- Erstellen Sie keine neue Festplatte (diese wird später von der ESXi-Quelle importiert).
- Jede VM erhält eine von Proxmox zugewiesene ID (notieren Sie diese, sie wird später benötigt).
VM von ESXi zu Proxmox kopieren
Der Inhalt der virtuellen Maschine (VM) wird vom ESXi- auf das Proxmox-System mithilfe des open source Tools rsync zur effizienten Synchronisierung und Kopie übertragen. Daher müssen die folgenden Befehle vom Proxmox-System aus ausgeführt werden, wo wir ein temporäres Verzeichnis zur Speicherung des VM-Inhalts erstellen:
mkdir /tmp/migration_pgsql07.gyptazy.ch cd /tmp/migration_pgsql07.gyptazy.ch rsync -avP root@esx02-test.gyptazy.ch:/vmfs/volumes/137b4261-68e88bae-0000-000000000000/pgsq07.gyptazy.ch/* .
Abhängig von der Dateigröße der virtuellen Maschine und der Netzwerkkonnektivität kann dieser Vorgang einige Zeit dauern.
VM in Proxmox importieren
Anschließend wird die Festplatte mit dem qm-Dienstprogramm importiert, wobei die VM-ID (die während des VM-Erstellungsprozesses erstellt wurde) definiert wird, sowie der Festplattenname (der kopiert wurde) und der Zieldatenspeicher auf dem Proxmox-System angegeben werden, wo die VM-Festplatte gespeichert werden soll:
qm disk import 119 pgsql07.gyptazy.ch.vmdk local-lvm
Abhängig vom Erstellungsformat der VM oder dem Exportformat kann es mehrere Festplattendateien geben, die auch mit _flat ergänzt werden können. Dieses Verfahren muss für alle verfügbaren Festplatten wiederholt werden.
VM starten
Im letzten Schritt sollten alle Einstellungen, Ressourcen, Definitionen und Anpassungen des Systems gründlich überprüft werden. Nach der Validierung kann die VM gestartet werden, um sicherzustellen, dass alle Komponenten für den Betrieb in der Proxmox-Umgebung korrekt konfiguriert sind.
Fazit
Dieser Artikel behandelt nur eine von vielen möglichen Methoden für Migrationen in einfachen, eigenständigen Setups. In komplexeren Umgebungen mit mehreren Host-Knoten und verschiedenen Speichersystemen wie Fibre Channel oder Netzwerkspeicher gibt es erhebliche Unterschiede und zusätzliche Überlegungen. Darüber hinaus kann es spezifische Anforderungen in Bezug auf Verfügbarkeit und Service Level Agreements (SLAs) geben, die zu berücksichtigen sind. Dies kann für jede Umgebung sehr spezifisch sein. Sie können sich jederzeit gerne an uns wenden, um eine persönliche Beratung zu Ihren spezifischen Migrationsanforderungen zu erhalten. Gerne bieten wir Ihnen auch unsere Unterstützung in verwandten Bereichen in open source wie Virtualisierung (z. B. OpenStack, VirtualBox) und Themen im Zusammenhang mit Cloud-Migrationen an.
Nachtrag
Am 27. März hat Proxmox seinen neuen Import-Assistenten (pve-esxi-import-tools) veröffentlicht, der Migrationen von VMware ESXi-Instanzen in eine Proxmox-Umgebung erheblich vereinfacht. In einem kommenden Blogbeitrag werden wir weitere Informationen zu den neuen Tools und Anwendungsfällen bereitstellen, in denen diese nützlicher sein könnten, aber auch die Randfälle behandeln, in denen der neue Import-Assistent nicht verwendet werden kann.



Was ist Software-Defined Networking?