Big Data & Analytik
Big Data und Analytik auf Bare Metal-Servern
Big Data-Projekte erfordern Infrastrukturen, die für die Verarbeitung großer Datenmengen ausgelegt sind. Nutzen Sie das ganze Potential Ihrer Daten mit der Rohleistung der Dedicated Bare Metal-Server von OVHcloud.

Meistern Sie die Herausforderungen von Big Data - mit den OVHcloud Servern.
Die Bare Metal-Cloud-Server wurden für die Herausforderungen von Big Data entwickelt. Sicherheit ist dabei der zentrale Aspekt der Architektur. Sie bieten die volle Rechenleistung und Speicherkapazität, um Ihre Daten in Echtzeit zu verarbeiten.
Basisleistung
Unsere Bare Metal-Server werden ohne virtuelle Schicht bereitgestellt und bieten maximale Basisleistung. Sie sind mit NVMe-Festplatten und Prozessoren der neuesten Generation von Intel und AMD ausgestattet - die beste Hardware für Big Data-Anwendungen. Sie können einfach Ressourcen hinzufügen und so Ihre Infrastruktur erweitern.
Ein resilientes Netzwerk
Unser Netzwerk basiert auf 4 Netzwerkanbindungen und verfügt über einen sehr hohen Durchsatz. Es gewährleistet die Dienstkontinuität und eine optimale Resilienz. Diese wird durch ein SLA von 99,99% garantiert. Der Traffic ist unbegrenzt, daher fallen keine Mehrkosten dafür an.
Eine komplett isolierte Infrastruktur
Ihre Server sind zu 100% Ihrer Nutzung vorbehalten. Dadurch ist Ihnen eine konstante Leistung und die Sicherheit Ihrer sensiblen Daten garantiert.
Große Festplattenkapazität
Mit bis zu 360 TB Speicherplatz profitieren Sie von einer hohen Anzahl an Ein- und Ausgabe-Befehlen pro Sekunde (IOPS): Die leistungsstarke SSD Technologie macht es möglich.
Big Data

Beschreibung
Bare Metal-Server von OVHcloud sind für den Aufbau von Hadoop-Clustern ausgelegt. Setzen Sie mehrere Datennodes ein und nutzen Sie für deren schnelle Verbindung untereinander unser internes Netzwerk vRack: 50 Gbit/s garantiert für die High Grade-Reihe. Auch Tools und Projekte des Hadoop-Ökosystems lassen sich verwenden, wie Apache Spark, Kettle, Ouzi oder Mawazo. Informationsverwaltung und Geschäftsanalysen werden dadurch unkomplizierter.
Kapazität nach Bedarf: Festplatten lassen sich in der Reihe High Grade bei laufendem Betrieb hinzufügen und austauschen (Hot Swap). Außerdem können Sie weitere Nodes für Ihr Cluster über das vRack einsetzen.
Inklusivoptionen und -dienstleistungen
- Zahlreiche Optionen für RAM und Storage.
- Private Bandbreite von 50 Gbit/s garantiert auf High Grade (als Option).
- OVHcloud Link Aggregation (OLA) verfügbar ohne zusätzliche Kosten.
Wir empfehlen folgende Bare Metal-Server

Für komplexe und hochgradig resiliente Infrastrukturen konzipierte Serverreihe. Prozessoren und Dual-Prozessoren mit 24 bis 48 Cores, maximaler Storage von 24 TB NVMe-SSD-Speicher, garantierte private Bandbreite von bis zu 25 Gbit/s.

Die leistungsstärksten und skalierbarsten Server, optimiert für kritische Workloads. Dual-Prozessoren mit 8 bis 32 Cores, maximaler Storage von 36 x SAS-HDD mit 22 TB oder 24 x NVMe-SSD mit 15,36 TB, bis zu 24 Festplatten (Hot Swap), garantierte private Bandbreite von bis zu 25 Gbit/s.

Empfohlen für hohe Anforderungen an verteilte Speicherkapazitäten.
Prozessoren mit 20 und 24 Cores, maximaler Storage von 360 TB, SSD NVMe oder SSD SAS, bis zu 24 Festplatten (Hot Swap) und garantierte private Bandbreite von bis zu 50 Gbps.
Wie ist eine Big Data-Infrastruktur aufgebaut?
Big Data-Infrastrukturen tragen zwar den Anforderungen der jeweiligen Projekte Rechnung, die Grundlage ist ihnen aber allen gemein: Hardware. Diese Art der Nutzung erfordert Server mit hoher Rechenleistung (CPU), einen großen Arbeitsspeicher (RAM) und umfangreichen Speicherplatz (Festplatten, SSD und NVMe). Diese Server kommunizieren über ein Breitbandnetzwerk, das ausreichend schnelle Datentransfers für die Etappen eines Big Data-Projekts ermöglicht. Die Big Data-Infrastruktur sammelt und speichert beeindruckende Datenmengen, analysiert diese in einer möglichst kurzen Verarbeitungszeit und liefert den für das Projekt verantwortlichen IT-Teams schließlich ein Ergebnis, mit dem sie arbeiten können. Der Aufbau der Big Data-Infrastruktur hängt von der verwendeten Technologie ab. Von diesen Technologien gibt es verschiedene - alle weisen ihre Vorteile und bestimmten Eigenschaften auf und entsprechen den Anforderungen von Unternehmen. Zu diesen Technologien gehören Apache Hadoop, Apache Spark, MongoDB, Cassandra, Rapidminer und viele andere mehr.