Einleitung
Ein Proxmox Cluster ist das Herzstück meines Homelabs. Mit drei Nodes erreiche ich echte High Availability und kann VMs live zwischen Hosts migrieren. In diesem Artikel teile ich meinen Weg von einzelnen Servern zu einem produktionsreifen Cluster.
Warum ein Cluster?
Bevor ich ins Detail gehe, hier die Vorteile, die mich überzeugt haben:
High Availability: VMs starten automatisch auf anderen Nodes bei Hardware-Ausfall
Live Migration: VMs zwischen Hosts verschieben ohne Downtime
Zentrales Management: Alle Nodes über eine Web-UI verwalten
Shared Storage: Ceph oder andere verteilte Storage-Lösungen
Load Balancing: Ressourcen optimal auf Nodes verteilen
Hardware-Anforderungen
Mein Cluster besteht aus drei identischen Nodes:
Pro Node
- CPU: Intel Xeon E-2236 (6 Cores / 12 Threads)
- RAM: 64 GB ECC DDR4
- System: 2× 512 GB NVMe SSD (RAID 1)
- Storage: 4× 2 TB SATA SSD (für Ceph)
- Network: 2× 10 GbE (Redundanz)
Wichtig: Für echte HA braucht man mindestens 3 Nodes (Quorum). Mit nur 2 Nodes riskiert man Split-Brain-Szenarien.
Netzwerk-Design
Ein durchdachtes Netzwerk-Design ist kritisch:
Management Network: 192.168.1.0/24
- Node 1: 192.168.1.11
- Node 2: 192.168.1.12
- Node 3: 192.168.1.13
Ceph Public Network: 10.10.10.0/24
- Node 1: 10.10.10.11
- Node 2: 10.10.10.12
- Node 3: 10.10.10.13
Ceph Cluster Network: 10.10.20.0/24
- Node 1: 10.10.20.11
- Node 2: 10.10.20.12
- Node 3: 10.10.20.13
Separation: Management, Ceph Public und Ceph Cluster sollten getrennt sein für beste Performance.
Installation Schritt für Schritt
1. Proxmox Basis-Installation
Auf jedem Node Proxmox VE installieren:
| |
2. Hostname und /etc/hosts konfigurieren
| |
3. Cluster erstellen
Auf dem ersten Node (pve1):
| |
Auf den anderen Nodes joinen:
| |
Cluster-Status prüfen:
| |
Ceph Storage Setup
Ceph bietet verteiltes Storage mit Redundanz:
Installation
| |
Netzwerk konfigurieren
| |
Monitors erstellen
| |
OSDs hinzufügen
| |
Pools erstellen
| |
High Availability konfigurieren
HA Manager aktivieren
| |
VMs für HA konfigurieren
In der Web-UI für jede kritische VM:
- VM auswählen → “More” → “Manage HA”
- State: “started”
- Group: “homelab”
- Max Restart: 3
- Max Relocate: 3
Wichtig: Nur VMs mit Shared Storage (Ceph) können HA nutzen!
Migration & Live Migration
Live Migration testen
| |
Wartungsmodus
Node in Wartung versetzen:
| |
Monitoring & Wartung
Wichtige Befehle
| |
Backup-Strategie
Meine Backup-Konfiguration:
| |
Backups gehen auf:
- Lokales Storage (schnell)
- NFS-Share auf Synology
- Offsite zu Hetzner (via Bareos)
Best Practices
Do’s
✅ Mindestens 3 Nodes für echte HA
✅ Separate Netzwerke für Management/Ceph
✅ ECC RAM verwenden
✅ Identische Hardware für alle Nodes
✅ Regelmäßige Backups (auch von Ceph)
✅ UPS für alle Nodes
✅ Monitoring aufsetzen (Grafana)
Don’ts
❌ Nur 2 Nodes ohne Quorum-Device
❌ Ceph über Gigabit Ethernet
❌ Verschiedene Proxmox-Versionen mischen
❌ Alle Nodes gleichzeitig updaten
❌ HA ohne Shared Storage
❌ Split-Brain ignorieren
Troubleshooting
Quorum verloren
| |
Ceph Probleme
| |
Cluster-Trennung
| |
Performance-Tuning
Ceph Optimierungen
| |
Netzwerk-Tuning
| |
Kosten & ROI
Meine Investition:
- 3× Server: ~4.500 €
- Networking: ~800 €
- USV: ~600 €
- Gesamt: ~5.900 €
Vergleich Cloud: 3× dedizierte Server bei Hetzner würden ~180 €/Monat kosten. Nach 33 Monaten amortisiert.
Fazit
Der Aufbau eines Proxmox Clusters ist ein spannendes Projekt. Die initiale Komplexität zahlt sich durch:
- Keine Single Points of Failure
- Wartungsfenster ohne Downtime
- Professionelle Infrastruktur
- Lerneffekt ist enorm
Für Homelabs absolut empfehlenswert, wenn man mehr als 2-3 VMs betreibt und Wert auf Verfügbarkeit legt.
Nächste Schritte
In kommenden Artikeln:
- Backup-Strategie mit Bareos
- Monitoring mit Grafana/Prometheus
- Automatisierung mit Terraform
- Disaster Recovery Tests
Ressourcen
Fragen oder Anmerkungen? Schreib mir eine Email!