High-Performance Computing

Das Aufkommen von HPC Clustern

Wenn es um rechenintensive Anwendungen geht, ersetzen High-Performance Computing (HPC) Cluster von Servern nach Industriestandard zunehmend große Supercomputer. Diese Anwendungen kommen aus den unterschiedlichsten Branchen und reichen von „Computational Fluid Dynamics“ für die Modellierung von Luft- und Flüssigkeitsflüssen über eine Oberfläche, Analyse von Finanzrisiken, Bioinformatik, Wetter- und Klimamodellierung bis hin zu Bild-Renderung für animierte Filme.

Unternehmen gehen dazu über, Verbindungen mit geringer Latenz zu verwenden, um parallele und eng gekoppelte Anwendungen zu unterstützen. Bei Verwendung von InfiniBand und Remote Direct Memory Access (RDMA) Technologie können Unternehmen komplexe Computing-Aufgaben von Tagen und Wochen auf Minuten und Stunden reduzieren. Cisco Produkte: Cisco SFS 3000 Series Multifabric Server Switches, Cisco SFS 7000 Series InfiniBand Server Fabric Switches. Cisco Infiniband Host Channel Adapter und Blade-Switches, die in IBM und Dell Blade-Server integriert sind.

Die Rolle des Network Fabric in HPC Clustern

Das Netzwerk ist das Herzstück eines HPC Clusters und ermöglicht die Kommunikation zwischen den Rechenknoten, die parallele Berechnungen ausführen. HPC Cluster arbeiten mit drei Verbindungsarten, die, je nach den Eigenschaften der jeweiligen Anwendung, ein, zwei oder drei separate Netzwerke erfordern:

  • Ein Management-Netzwerk für Wartung, Kontrolle und Betrieb der einzelnen Knoten
  • Ein I/O-Netzwerk für Lesen und Schreiben auf ein zentrales, gemeinsam genutztes Dateisystem
  • Ein Inter-Process Communication (IPC) Netzwerk für die Weiterleitung von Nachrichten und Daten für parallele Bearbeitung

Weitere Informationen