High Performance Computing (HPC)


High Performance Computing (HPC) auf Bare-Metal-Servern

Meistern Sie die Herausforderungen rund um das High Performance Computing und die Verarbeitung großer Datenmengen mit den passenden IT-Lösungen. Um die damit verbundenen Anforderungen in puncto Performance, RAM und Speicherplatz zu erfüllen, benötigen Sie robuste und leistungsstarke Server, die speziell für diesen Zweck konzipiert wurden. Unsere Bare Metal Dedicated Server sind dafür bestens geeignet.

Ihre HPC-Infrastruktur mit den Servern von OVHcloud

Eine Architektur für High Performance Computing basiert auf drei Säulen: Rechenleistung, Netzwerkkapazität und Speicherkapazität. Für eine stabile Rechenleistung und eine effiziente Datenverarbeitung ist das Zusammenspiel der Serverkomponenten entscheidend. Unsere Bare-Metal-Server sind mit leistungsstarken Komponenten der neuesten Generation ausgestattet und auf Ihre Anforderungen abgestimmt. Insbesondere die High Grade Reihe bietet gewaltige Leistung, mit einem ultraschnellen und überaus resilienten Netzwerk. Skalieren Sie Ihre Infrastruktur im Laufe der Zeit, indem Sie Ihrem Cluster Nodes hinzufügen und/oder zusätzliche Ressourcen zuweisen (RAM, Storage, Bandbreite).

Beispiellose Rechenleistung

Die AMD EPYC- und Intel Gold-Prozessoren und -Dual-Prozessoren der neuesten Generation verhelfen unseren Servern zu außergewöhnlicher Leistung. Für die anspruchsvollsten Projekte bietet unser HGR-AI Server 4 NVIDIA V100S-GPUs für optimale Rechenleistung und schnellere HPC-Vorgänge.

Icons/concept/Counter Created with Sketch.

Eine ausgewogene Plattform

Mit einer Speicherkapazität von 128 GB bis 2 TB pro Server werden Ihre Anwendungen nicht mehr durch Latenz wegen des Festplattenzugriffs beeinträchtigt und können problemlos nebeneinander laufen. Der DDR4-ECC-RAM unserer Server sorgt für starke Leistung und Zuverlässigkeit.

Ein Cluster mit hoher Resilienz

Bündeln Sie Ihre Ressourcen zuverlässig und sicher mit unserem privaten Breitbandnetzwerk und der garantierten Bandbreite von bis zu 50 Gbit/s*. Die Funktion OVHcloud Link Aggregation gewährleistet eine hohe Resilienz.

* Bei der die High Grade Reihe

Icons/concept/Database/Database Created with Sketch.

Leistungsstarker Speicher

Mit dem inbegriffenen SATA-, SAS- oder NVMe-Storage können Sie das für Sie passende Preis-Leistungs-Verhältnis wählen. Darüber hinaus können Sie mit unseren Angeboten für externen Storage Ihren Speicherplatz nach Belieben erweitern und Ihre Daten jederzeit teilen und sichern – und zwar ohne Ihr Budget zu sprengen.

baremetal_highperfcomputing_1

Beschreibung

Wählen Sie in unseren Scale und High Grade Reihen die Server aus, die am besten zu Ihrem Projekt passen. Sie können Ihre Infrastruktur mit nur wenigen Klicks individuell anpassen, indem Sie Arbeitsspeicher, Storage sowie öffentliche und private Bandbreite nach Bedarf auswählen.

Die High Grade Server zeichnen sich durch ihre „Hot-Swap“-Festplatten aus, mit denen Sie die Speicherkapazität Ihrer Maschinen erhöhen können – und zwar ganz ohne Unterbrechungen.

Zahlreiche Betriebssysteme sind zur Vorinstallation verfügbar. Sie haben mit der Funktion Bring Your Own Image aber auch die Möglichkeit, die Distribution oder das Betriebssystem Ihrer Wahl zu importieren.

Zudem profitieren Sie von unserem leistungsstarken DDoS-Schutz, um Sie vor Distributed-Denial-of-Service-Angriffen zu schützen. Zum effizienten Verteilen Ihrer Workloads unabhängig vom Standort können Sie den OVHcloud Loadbalancer hinzufügen.

Optionen und Inklusiv-Dienste

  • Zahlreiche Optionen für RAM und Storage
  • Garantierte private Bandbreite von bis zu 25 Gbit/s für Scale und bis zu 50 Gbit/s für die High Grade Server (optional)
  • OVHcloud Link Aggregation (OLA), ohne zusätzliche Kosten verfügbar und standardmäßig aktiviert
baremetal_highperfcomputing_2

Beschreibung

Ergänzen Sie Ihren HPC-Cluster schnell um HGR-AI-1 Server mit vier NVIDIA V100S-GPUs, um Ihre Rechenleistung deutlich zu steigern.

Die Server dieser Reihen bieten vier Netzwerkverbindungen mit einer Kapazität von jeweils 25 Gbit/s. Sie können sie für die Kommunikation zwischen den Nodes Ihres Clusters verwenden, um von einer privaten Bandbreite von bis zu 100 Gbit/s zu profitieren.

Ergänzend zu unseren Bare-Metal-Servern können Sie Cloud Disk Array oder die Enterprise File Storage Lösung nutzen, um für die nötige Leistung und Hochverfügbarkeit zum Speichern der Daten Ihrer kritischen Anwendungen zu sorgen.

Optionen und Inklusiv-Dienste

  • Zahlreiche Optionen für RAM und Storage
  • Garantierte private Bandbreite von bis zu 50 Gbit/s für High Grade Server (optional)
  • OVHcloud Link Aggregation (OLA), ohne zusätzliche Kosten verfügbar und standardmäßig aktiviert

Die verschiedenen Use Cases des High Performance Computing

High Performance Computing (HPC) ist für diverse Geschäftsbereiche, die komplexe parallele Rechenvorgänge erfordern, von entscheidender Bedeutung. Diese Technologie bietet erhebliche Vorteile in verschiedenen Branchen, z. B. in der wissenschaftlichen Forschung, im Finanzsektor und Gesundheitswesen und in der Fertigungsindustrie.

Wissenschaftliche Forschung

In der wissenschaftlichen Forschung ermöglichen HPC-Systeme die komplexe Simulationen und die Verarbeitung großer Datenmengen in kurzer Zeit. Genau dafür wird HPC beispielsweise auch in der Physik und Chemie verwendet. Aufgrund ihrer außergewöhnlichen Leistung kommen oft AMD EPYC- und Intel Xeon-Prozessoren sowie NVIDIA-GPUs zum Einsatz.

Finanzsektor

In der Finanzwelt ist intensives Computing für Risikomodelle und Marktanalysen unerlässlich. HPC-Lösungen ermöglichen die Verarbeitung großer Mengen an Finanzdaten und verbessern so die Genauigkeit von Vorhersagen und spekulativen Entscheidungen. Server mit leistungsstarken Prozessoren und NVMe-Storage optimieren die Performance von Finanzanwendungen.

Gesundheitswesen

Im Gesundheitsbereich beschleunigt HPC die genomische Sequenzierung und die biomedizinische Forschung. Dedizierte Bare-Metal-Server mit hoher Speicherkapazität und NVIDIA-GPUs ermöglichen eine schnelle Verarbeitung medizinischer Daten, wodurch Diagnosen schneller gestellt und Behandlungen besser abgestimmt werden können.

Fertigung

In der Fertigung wird HPC für die Modellierung und Simulation von Prototypen verwendet, wodurch die Produktion optimiert und die Kosten gesenkt werden können. AMD EPYC- und Intel Xeon-Prozessoren bieten die Rechenleistung, die Sie für detaillierte und komplexe Simulationen benötigen.

Künstliche Intelligenz und Machine Learning

In der Industrie im Allgemeinen ermöglichen HPC-Lösungen die Realisierung von Machine-Learning- und AI-Projekten (Artificial Intelligence). Server mit NVIDIA-GPUs bieten eine hohe Rechenleistung und sind besonders effizient für das Trainieren von AI-Modellen.

Entertainment

Das High Performance Computing revolutioniert den Entertainment-Bereich, indem es beispielsweise das Rendern komplexer Special Effects wie 3D-Modellierungen oder physische Simulationen sowie eine schnelle Datenverarbeitung ermöglicht. Entertainment-Plattformen nutzen diese Technologie unter anderem, um Multimedia-Inhalte in Echtzeit zu verwalten und den Nutzer:innen ein dynamisches, immersives Erlebnis zu bieten.

Häufig gestellte Fragen

Was ist High Performance Computing?

Die Hochleistungsdatenverarbeitung – auch High Performance Computing (HPC) genannt – wird für komplexe Verarbeitungsvorgänge verwendet, die Geschwindigkeiten weit über denen eines Standardcomputers erfordern. Für Suchvorgänge oder die Verarbeitung großer Datenströme stellt eine HPC-Architektur umfangreiche Rechenressourcen zur Verfügung. So werden Workloads zügig und gleichmäßig abgearbeitet. Die besten Komponenten werden basierend auf ihrer Leistung und ihrer Fähigkeit ausgewählt, jeden einzelnen Schritt der Verarbeitung zu unterstützen. Arbeitsspeicher sowie Netzwerk-, Speicher- und Rechenkapazitäten müssen für flüssiges Arbeiten aufeinander abgestimmt sein. Eine HPC-Lösung lässt sich auch als Hybrid-Architektur umsetzen und bietet so eine noch größere Flexibilität. Möglich ist eine Kombination aus verschiedenen Produkten wie Dedicated Servern und Cloud-Computing-Diensten – und das in mehreren Regionen.

Wie funktioniert High Performance Computing?

Zum Bereitstellen einer HPC-Lösung muss ein Cluster aus physischen Servern erstellt werden. Dieser Cluster enthält alle für das HPC erforderlichen Hardware-Ressourcen. Insbesondere wird auf das Gleichgewicht zwischen Leistung und Kapazität einer jeden Ressource geachtet – je nach Anforderungen eines bestimmten Projekts. Speicherkapazität, Verarbeitungsgeschwindigkeit, Übertragungsfluss zwischen den Servern: Alles wird für maximale Effizienz berechnet. Die Agilität, die durch die Skalierbarkeit der Ressourcen und Server entsteht, muss im Laufe der Zeit mit den wachsenden Anforderungen von Anwendungen, Diensten und Algorithmen Schritt halten können.

Was ist der Unterschied zwischen AMD EPYC- und Intel Xeon-Prozessoren für HPC-Anwendungen?

AMD EPYC- und Intel Xeon-Prozessoren sind zwar beide für HPC-Anwendungen geeignet, weisen jedoch unterschiedliche Merkmale auf. AMD EPYC-Prozessoren bieten eine große Anzahl an Cores und eine hohe Speicherkapazität, was ideal für Aufgaben ist, die eine hohe Parallelität erfordern. Die Intel Xeon-Prozessoren zeichnen sich durch ihre robuste Single-Core-Leistung und ihre breite Kompatibilität mit verschiedenen Unternehmensanwendungen aus. Die Entscheidung für eine der beiden Optionen hängt von den spezifischen Anforderungen Ihrer Workload ab – je nachdem, ob es sich um komplexe Simulationen, Datenverarbeitung oder Machine-Learning-Projekte handelt.

Wie verbessern NVIDIA-GPUs die Leistung von HPC-Servern?

Die NVIDIA-GPUs verbessern die Performance von HPC-Servern durch die Bereitstellung erweiterter Rechenleistung für AI-Aufgaben. Die L4-GPU basiert auf der Ada Lovelace-Architektur und wurde für eine Vielzahl von Workloads entwickelt, einschließlich Grafik, Simulation und Datenanalyse. Die L40S mit ihren Tensor Cores der vierten Generation ist hervorragend für das Training und die Inferenz in der AI geeignet. Durch die Integration dieser GPUs stellt OVHcloud Unternehmen eine leistungsstarke AI-Infrastruktur bereit, die den anspruchsvollsten Anforderungen in Sachen High Performance Computing gerecht werden kann.

Was sind die Vorteile von NVMe-Festplatten gegenüber SATA- oder SAS-Festplatten in einer HPC-Umgebung?

NVMe-Festplatten bieten in HPC-Umgebungen erhebliche Vorteile gegenüber SATA- oder SAS-Festplatten. Ihre größter Pluspunkt ist ihre extrem hohe Datenübertragungsgeschwindigkeit, die die Latenz drastisch reduziert und die Leistung des Systems insgesamt erhöht. NVMe-Festplatten können große Datenmengen bewältigen und die Anforderungen von HPC-Anwendungen im Hinblick auf intensive Lese-/Schreibvorgänge erfüllen. Dies führt zu einer schnelleren Verarbeitung von Simulationen, Datenanalysen und anderen IT-Aufgaben, sodass Unternehmen das Beste aus ihrer HPC-Infrastruktur herausholen können.

Wie sorgen Bare-Metal-Server für mehr Sicherheit für HPC-Anwendungen?

Bare-Metal-Server bieten eine erhöhte Sicherheit für HPC-Anwendungen, da sie einem einzigen User zugewiesen sind. So werden Risiken in Zusammenhang mit der gemeinsamen Nutzung mit anderen Kunden eliminiert, wie sie in geteilten Cloud-Umgebungen bestehen. Sie haben die volle Kontrolle über den Zugriff auf die Hardware, wodurch Schwachstellen reduziert werden können. Darüber hinaus bieten die Bare-Metal-Server von OVHcloud erweiterte Sicherheitsoptionen wie den DDoS-Schutz, um die Lösung vor Distributed-Denial-of-Service-Angriffen zu schützen. Diese physische Isolierung und die integrierten Sicherheitsmaßnahmen sorgen für einen optimalen Schutz sensibler Daten und kritischer Anwendungen.

Wie wichtig ist die Netzwerkbandbreite in einem HPC-Cluster?

Die Netzwerkbandbreite ist in einem HPC-Cluster von entscheidender Bedeutung, da sie die Geschwindigkeit und Effizienz der Kommunikation zwischen den Nodes bestimmt. Eine hohe Bandbreite, wie die 50 Gbit/s für die High Grade Server von OVHcloud, minimiert Engpässe und sorgt für einen schnellen und kontinuierlichen Datenfluss. Dies ist für HPC-Anwendungen unerlässlich, die einen intensiven Datenaustausch erfordern – wie es beispielsweise bei wissenschaftlichen Simulationen oder verteilten Berechnungen der Fall ist. Eine angemessene Bandbreite sorgt dafür, dass die Computing-Ressourcen optimal genutzt werden können, was die Leistung des Clusters insgesamt verbessert.