NVIDIA Networking InfiniBand

Als weltweit führender Hersteller von InfiniBand Produkten bietet NVIDIA Networking die beste Performance für Ihre Machine Learning, High Performance Computing und Datenbank Plattformen. Besonders Latenz-kritische Systeme profitieren von den InfiniBand Netzen. Durch den Fokus auf Interkonnektivität, Multi-Host-Umgebungen und die Unterstützung von unterschiedlichen Formfaktoren bietet NVIDIA Networking die perfekte Lösung für jedes Rechenzentrum.

Icon Infiniband

NVIDIA Networking InfiniBand.

Icon Infiniband

3 GUTE GRÜNDE

Interkonnektiv

Die Virtual Protocol Interconnect (VPI) Technologie von NVIDIA Networking erlaubt es, die Vielzahl von Kommunikationsprotokollen und Netzwerk-Fabrics zu vereinen. Die automatische Erkennung der Fabric (InfiniBand, Ethernet oder Data Center Ethernet) vereinfacht darüber hinaus die Implementierung. Des Weiteren werden IP over InfiniBand (IPoIB) und RDMA over Converged Ethernet (RoCE) unterstützt.

Multi-Host Unterstützung

Die Multi-Host Technologie verbindet mehrere Compute- und Storage-Hosts in einem Adapter. Um Performance-Einbußen zu vermeiden, werden die PCIe Interfaces unabhängig voneinander umgesetzt. Die Technologie erlaubt den Betrieb von heterogenen Compute- und Storage-Racks mit direkter Interkonnektivität zwischen Compute-, Storage- und Netzwerk-Komponenten.

Niedrige Latenzen für zeitkritische Aufgaben

InfiniBand bietet unvergleichlich niedrige Latenzen für anspruchsvolle und zeitkritische Aufgaben und ist daher die erste Wahl für Cluster-Datenbanken und parallelisierte Applikationen. Die Verarbeitung von Netzwerkprotokollen und RDMA befreien die CPU von Verwaltungsaufgaben für eine bessere Nutzung der Rechenkapazitäten.

3 GUTE GRÜNDE

Interkonnektiv

Die Virtual Protocol Interconnect (VPI) Technologie von NVIDIA Networking erlauben es, die Vielzahl von Kommunikationsprotokollen und Netzwerk-Fabrics zu vereinen. Die automatische Erkennung der Fabric (InfiniBand, Ethernet oder Data Center Ethernet) vereinfacht darüber hinaus die Implementierung. Des Weiteren werden IP over InfiniBand (IPoIB) und RDMA over Converged Ethernet (RoCE) unterstützt.

Multi-Host Unterstützung

Die Multi-Host Technologie verbindet mehrere Compute- und Storage-Hosts in einem Adapter. Um Performance Einbußen zu vermeiden, werden die PCIe Interfaces unabhängig voneinander umgesetzt. Die Technologie erlaubt den Betrieb von heterogenen Compute- und Storage-Racks mit direkter Interkonnektivität zwischen Compute-, Storage- und Netzwerk-Komponenten.

Niedrige Latenzen für zeitkritische Aufgaben

InfiniBand bietet unvergleichlich niedrige Latenzen für anspruchsvolle und zeitkritische Aufgaben und ist daher die erste Wahl für Cluster-Datenbanken und parallelisierte Applikationen. Die Verarbeitung von Netzwerkprotokollen und RDMA befreien die CPU von Verwaltungsaufgaben für eine bessere Nutzung der Rechenkapazitäten.

Fragen? Fragen!

Ich bin Sebastian Wiedemann aus dem HCD Vertriebsteam. Ich berate Sie gerne oder helfe Ihnen bei Fragen weiter. Sie erreichen mich telefonisch unter +49 89 215 36 92-0 oder per Kontaktformular.

Jetzt beraten lassen

Fragen? Fragen!

Ich bin Sebastian Wiedemann aus dem HCD Vertriebsteam. Ich berate Sie gerne oder helfe Ihnen bei Fragen weiter. Sie erreichen mich telefonisch unter +49 89 215 36 92-0 oder per Kontaktformular.

Jetzt beraten lassen

Nutzen Sie die Vorteile von InfiniBand für Ihr Rechenzentrum mit dem Marktführer NVIDIA Networking.

InfiniBand (VPI) Adapters

Die Virtual Protocol Interconnect (VPI) Adapter mit ConnectX ICs bieten hohe Datenraten mit bis zu 200 Gb/s, ultraniedrige Latenzen und Offload Kapazitäten. Die ideale Lösung für High Performance Rechenzentren.

Jetzt beraten lassen
Mellnox ConnectX-6Dx
Mellanox BlueField Controller

Smart Adapters / SmartNIC

Smart Adapter und SmartNICs mit BlueField IPUs vereinen die Fähigkeiten der ConnectX ICs mit erweiterten Software- und FPGA Programmieroptionen.

Jetzt beraten lassen

InfiniBand (VPI) Switch Systems

Die Switches von Mellanox bieten höchste Leistung und Portdichte mit Fabric Management Lösungen, die auf die Bedürfnisse von Compute Clustern und konvergenten Rechenzentren ausgelegt sind.

Jetzt beraten lassen
Mellanox Switch SX6506
Mellanox MCP7F00-GXXXR

InfiniBand Cables & Transceivers

Die Mellanox InfiniBand Kabel der LinkX Reihe und Transceiver sind für High Performance Computing Netzwerke mit hohen Bandbreiten und niedrigen Latenzen optimiert.

Jetzt beraten lassen

Gateway Systems

Mellanox bietet mit seinen InfiniBand to Ethernet Gateways eine für High Performance Computing, künstliche Intelligenz und Cloud optimierte Infrastruktur, die es erlaubt, Rechenzentren mit externen Ethernet-Netzen zu verbinden.

Jetzt beraten lassen
Mellanox Switch SX6710
Mellanox Switch TX6240

Long-Haul Systems

Die Long-Haul-Systeme sind darauf ausgelegt, die Verfügbarkeit von InfiniBand Features für Remote Data Centers mit Entfernungen von bis zu 80 km bereitzustellen.

Jetzt beraten lassen

Software

Mellanox bietet die Softwarelösungen und Toolkits, die das Optimum aus der Hardware herausholen und die Netzwerkverwaltung vereinfachen.

Jetzt beraten lassen

Nutzen Sie die Vorteile von InfiniBand für Ihr Rechenzentrum mit dem Marktführer NVIDIA Networking.

Mellnox ConnectX-6Dx

InfiniBand (VPI) Adapters

Die Virtual Protocol Interconnect (VPI) Adapter mit ConnectX ICs bieten hohe Datenraten mit bis zu 200 Gb/s, ultraniedrigen Latenzen und Offload Kapazitäten. Die ideale Lösung für High Performance Rechenzentren.

Jetzt beraten lassen
Mellanox BlueField Controller

Smart Adapters / SmartNIC

Smart Adapter und SmartNICs mit BlueField IPUs vereinen die Fähigkeiten der ConnectX ICs mit erweiterten Software- und FPGA Programmieroptionen.

Jetzt beraten lassen
Mellanox Switch SX6506

InfiniBand (VPI) Switch Systems

Die Switches von Mellanox bieten höchste Leistung und Portdichte mit Fabric Management Lösungen, die auf die Bedürfnisse von Compute Clustern und konvergenten Rechenzentren ausgelegt sind.

Jetzt beraten lassen
Mellanox MCP7F00-GXXXR

InfiniBand Cables & Transceivers

Die Mellanox InfiniBand Kabel der LinkX Reihe und Transceiver sind für High Performance Computing Netzwerke mit hohen Bandbreiten und niedrigen Latenzen optimiert.

Jetzt beraten lassen
Mellanox Switch SX6710

Gateway Systems

Mellanox bietet mit seinen InfiniBand to Ethernet Gateways eine für High Performance Computing, künstliche Intelligenz und Cloud optimierte Infrastruktur, die es erlaubt Rechenzentren mit externen Ethernet-Netzen zu verbinden.

Jetzt beraten lassen
Mellanox Switch TX6240

Long-Haul Systems

Die Long-Haul-System sind darauf ausgelegt die Verfügbarkeit von InfiniBand Features für Remote Data Centers mit Entfernungen von bis zu 80 km bereitzustellen.

Jetzt beraten lassen

Software

Mellanox bietet die Software Lösungen und Toolkits, die das Optimum aus der Hardware herausholen und die Netzwerkverwaltung vereinfachen.

Jetzt beraten lassen
Was uns auszeichnet

Hardware & Service für Ihre Infrastruktur

Als Business Partner von weltweit führenden Herstellern wie Juniper, Cisco und Fortinet beraten wir Sie zu passenden Lösungen im Bereich Server, Storage und Netzwerk, die sich Ihren Anforderungen und Ihrem Budget anpassen. Dazu ermitteln unsere Techniker die benötigte Prozessorleistung, vermitteln Ihnen die passende Hardware inklusive Lizenzen und bereiten die Hardware für die Migration vor. Für die Implementierung und Software stellen wir Ihnen unsere zuverlässigen Partner zur Seite.
Was uns auszeichnet

Hardware & Service für Ihre Infrastruktur

Als Business Partner von weltweit führenden Herstellern wie Juniper, Cisco & Co. beraten wir Sie zu passenden Lösungen im Bereich Server, Storage und Netzwerk, die sich Ihren Anforderungen und Ihrem Budget anpassen. Dazu ermitteln unsere Techniker die benötigte Prozessorleistung, vermitteln Ihnen die passende Hardware inklusive Lizenzen und bereiten die Hardware für die Migration vor. Für die Implementierung und Software stellen wir Ihnen unsere zuverlässigen Partner zur Seite.