Zum Inhalt springen

GPU Hosting

Zuletzt aktualisiert: 08.05.2026Autor: Redaktion DomainProvider.de · Lesezeit: 4 Min.

GPU Hosting bezeichnet die Bereitstellung von Servern, die mit dedizierten Grafikprozessoren (GPUs) ausgestattet sind. Während herkömmliche Server auf CPUs setzen, die Aufgaben sequentiell verarbeiten, können GPUs tausende Berechnungen parallel ausführen. Diese Eigenschaft macht GPU-Server zur ersten Wahl für rechenintensive Aufgaben wie das Training von KI-Modellen, Echtzeit-Inference, 3D-Rendering, Videoencoding und wissenschaftliche Simulationen.

Warum sind GPUs für bestimmte Aufgaben besser geeignet als CPUs?

CPUs sind Generalisten: Sie verarbeiten wenige Aufgaben gleichzeitig, aber mit hoher Taktrate und komplexer Logik. Eine moderne CPU hat typischerweise 8 bis 128 Kerne. GPUs hingegen sind Spezialisten für parallele Berechnungen: Eine NVIDIA H100 verfügt über knapp 17.000 CUDA-Kerne, die einfache mathematische Operationen gleichzeitig ausführen können.

Beim Training neuronaler Netze werden Millionen von Matrixmultiplikationen durchgeführt — eine Aufgabe, die sich perfekt parallelisieren lässt. Was eine CPU in Wochen berechnet, schafft eine GPU in Stunden. Dasselbe gilt für das Rendering von 3D-Szenen, bei dem jeder Pixel unabhängig berechnet werden kann, oder für wissenschaftliche Simulationen mit großen Datenmengen.

Für klassisches Webhosting, Datenbanken oder Fileserver bringen GPUs keinen Vorteil. Diese Aufgaben profitieren von schnellen CPUs, viel Arbeitsspeicher und schnellem Speicher. GPU Hosting ist gezielt für Workloads konzipiert, die massive Parallelverarbeitung erfordern.

Welche GPU-Hardware kommt beim Hosting zum Einsatz?

NVIDIA dominiert den Markt für Rechenzentrums-GPUs. Die verbreitetsten Modelle sind die A100, die H100 und die neueste Generation B200. Die NVIDIA A100 mit 80 GB HBM2e-Speicher ist nach wie vor weit verbreitet und bietet ein gutes Verhältnis aus Leistung und Verfügbarkeit. Die H100 liefert beim KI-Training bis zu dreimal mehr Leistung als die A100 und unterstützt den Transformer Engine, der speziell für große Sprachmodelle optimiert ist.

Die B200 als neueste Generation verdoppelt die Leistung der H100 erneut und verfügt über 192 GB HBM3e-Speicher. Für Inference-Aufgaben — also das Ausführen bereits trainierter Modelle — bietet NVIDIA mit der L40S eine kosteneffizientere Alternative.

AMD positioniert sich mit der Instinct MI300X als Konkurrent, insbesondere für Inference-Workloads. Die Verfügbarkeit im Hosting-Bereich ist allerdings deutlich geringer als bei NVIDIA-Modellen. Beim GPU Hosting ist die Anbindung der GPUs über NVLink oder InfiniBand ebenso wichtig wie die reine GPU-Leistung, da bei verteiltem Training die Kommunikation zwischen den GPUs den Engpass darstellen kann.

Welche Mietmodelle gibt es für GPU Hosting?

GPU Hosting wird in drei Hauptmodellen angeboten. On-Demand-Instanzen stehen sofort zur Verfügung und werden stundenweise abgerechnet. Sie eignen sich für Experimente, kurze Trainingsläufe und variable Workloads. Die Kosten sind höher als bei langfristigen Verträgen, bieten aber maximale Flexibilität.

Reserved Instances binden den Nutzer für einen definierten Zeitraum — typisch sind ein, drei oder zwölf Monate. Dafür sinken die Kosten pro GPU-Stunde erheblich, teilweise um 40 bis 60 Prozent gegenüber On-Demand-Preisen. Dieses Modell eignet sich für planbare Workloads wie regelmäßiges Modelltraining oder dauerhaften Inference-Betrieb.

Spot-Instanzen nutzen ungenutzte Kapazitäten des Anbieters zu stark reduzierten Preisen. Der Nachteil: Die Instanz kann mit kurzer Vorwarnung entzogen werden, wenn ein zahlungskräftigerer Nutzer die Kapazität benötigt. Spot-Instanzen eignen sich für fehlertolerante Aufgaben mit Checkpointing, bei denen ein Abbruch keine Daten verliert.

Was kostet GPU Hosting und worauf sollten Sie achten?

Die Kosten variieren stark nach GPU-Modell und Anbieter. Eine einzelne A100 kostet im On-Demand-Betrieb zwischen 1,50 und 3,00 Euro pro Stunde, eine H100 zwischen 3,00 und 5,00 Euro. Für das Training großer KI-Modelle werden häufig Cluster aus acht oder mehr GPUs benötigt, wodurch die Kosten schnell im vierstelligen Bereich pro Tag liegen.

Neben der GPU-Leistung sind weitere Faktoren entscheidend: Die Menge des GPU-Speichers begrenzt die Größe der Modelle, die auf einer einzelnen GPU trainiert werden können. Die Netzwerkanbindung zwischen GPUs bestimmt die Effizienz bei verteiltem Training. Schneller NVMe-Speicher auf dem Server verhindert, dass die Datenzufuhr zum Engpass wird.

Für Unternehmen, die den Einstieg in KI-Anwendungen planen, bietet GPU Hosting eine Alternative zum Kauf eigener Hardware. Die Investitionskosten für einen einzelnen Server mit acht H100-GPUs liegen im sechsstelligen Bereich. Hosting ermöglicht den Einstieg ohne Vorabinvestition und die flexible Anpassung der Ressourcen an den tatsächlichen Bedarf.