|
Informationen zur Universität |
Als weltweit führende Universität für Ingenieur- und Naturwissenschaften finanziert die Universität von Leicester High-Performance-Computing Cluster, um Studenten, Stipendiaten und internationalen Forschern Programme für anspruchsvolle Probleme zu bieten, für die mehr Rechnerleistung benötigt wird. Das ist einmal ALICE, eines der leistungsfähigsten Programme einer Universität im Vereinigten Königreich, mit maximaler Leistung für anspruchsvollste Aufgaben bei Datenverarbeitung, -analyse und -simulation in Bereichen wie Genetik, Physik, Ingenieurswesen und Biologie. Das zweite Programm ist SPECTRE, mit dem Personal und Studenten der Universität von Leicester eine mit einem kleineren HPC-Cluster verbundene, interaktive Linuxumgebung zur Verfügung haben, die hauptsächlich für Lehrzwecke und kleinere Forschungsprojekte verwendet wird. Bei durchschnittlicher Auslastung werden ständig zwischen 5.000 und 25.000 Aufträge gleichzeitig ausgeführt und visualisiert. |
|
|
Die Herausforderung |
Für Alice mit mehr als 600 für registrierten Forschern und Spectre, das dem gesamten Universitätspersonal und allen Studenten (mehr als 10.000) zur Verfügung steht, benötigt die Universität eine Fernzugriffstechnologie, mit der Benutzer aktiv On-Demand-Programmierung- und Datenanalyse ausführen können und die Höchstgeschwindigkeit und robuste Sitzungen ermöglicht. Fundamental war eine Lösung mit Lastausgleich, die unterbrechungsfreie virtuelle Linux-Desktop-Sitzungen sicherstellt, in denen Benutzer Experimente zusammenstellen und mittels Aufgaben-Planer an die Rechnerknoten eines der Cluster übermitteln können. Der Einsatz Grafik intensiver, interaktiver Anwendungen neben großen CUDA-Simulationen erfordert die Unterstützung durch VirtualGL, damit Fernvisualisierung auch in Echtzeit als wichtige Voraussetzung möglich wird. |
|
|
Die Lösung |
Enterprise-Server 5 arbeitet als Gateway für Lastausgleich und ermöglicht den Zugang zu NoMachine-Terminal-Server-Knoten, die auf den Clustern der Alice- und Spectre-Anmeldeknoten laufen. Diese wiederum erlauben den Zugang zu jeweils 208 und 24 Rechenknoten. Beide Cluster sind durch Hochleistungs-Infiniband-QDR-Netzwerk-Fabric verbunden und unterstützen große, verteilt ablaufende Aufgaben. Über dieses Netzwerk ist ein paralleles Ablagesystem mit mehr als 1 TB Hochleistungsspeicher angebunden. |
|
|
Ergebnisse |
Dank NoMachine können Benutzer über die Anmeldeknoten unbegrenzt stabile virtuelle Desktopsitzungen ausführen um Nutzerprogramme auszuführen, Aufgaben zusammenzustellen und abzuschicken und Resultate zu visualisieren. Am Tag sind in der Regel zwischen 100 und 160 Benutzer per Desktop über NoMachine aktiv, verteilt die auf die Anmeldeknoten. Die Benutzer verbinden sich mit dem Alice- oder dem Spectre-Enterprise-Server und die Desktopsitzung startet automatisch auf einem der Terminal-Server der Anmeldeknoten, während der Lastausgleich vom Enterprise-Server vorgenommen wird. |
|
|
Netzwerkumgebung |
Entscheidenden Vorteile |
Gelieferte Anwendungen |
NoMachine Enterprise-Server v.5 NoMachine Terminal-Server-Knoten v.5 Scientific Linux 6 |
Lastausgleich Unterstützung von VirtualGL Extrem funktional Stabile Sitzungen |
Visualisierungssoftware Datensimulation Datenanalyse |
|
|
Informationen zu NoMachine Enterprise Server |
Erstellen Sie Pools von Mac, Windows und Linux Desktops und vereinen Sie diese unter einem einzigen Eintrittspunkt, um den Benutzerzugang zu zentralisieren. NoMachine Enterprise Server bietet Mehrknoten-Unterstützung, Lastausgleichung und integrierte Cluster-Fähigkeiten, mit automatischer Ausfallsicherung im Falle eines Serverausfalls. |
|
|