|
O Uniwersytecie |
Uniwersytet Leicester, światowy lider w naukach ścisłych i inżynieryjnych, ufundował wysoce wydajny klaster komputerowy w celu zapewnienia studentom, pracownikom naukowym i międzynarodowym badaczom rozwiązań dla najtrudniejszych problemów wymagających zaawansowanej mocy komputerów. Pierwszy z nich — ALICE — to jeden z najbardziej wydajnych uniwersyteckich systemów komputerowych w Wielkiej Brytanii. Został on zoptymalizowany dla zapewniania maksymalnej wydajności dla najbardziej wymagających procesów przetwarzania danych, analizy danych i zadań symulacyjnych w obszarze genetyki, fizyki, inżynierii i biologii. Drugi — SPECTRE — zapewnia interaktywne środowisko Linux połączone z mniejszym klastrem HPC i jest dostępny dla całego personelu i studentów na uniwersytecie w Leicester. Jest używany przede wszystkim do celów dydaktycznych i małych projektów badawczych. Średnie wykorzystanie klastrów znajduje się na poziomie od 5000 do 25 000 zadań wykonywanych i wizualizowanych w danej chwili. |
|
|
Wyzwanie |
Ponieważ klaster Alice skupiał 600 zarejestrowanych badaczy, a klaster Spectre był dostępny dla całego personelu uniwersytetu i studentów (10 000+), Uniwersytet potrzebował technologii zapewniającej zdalny dostęp, która nie tylko umożliwiałaby użytkownikom aktywnie angażować się na żądanie w zadania programistyczne i analityczne, ale zapewniałaby również wysoką szybkość i niezawodność sesji. Najlepszym byłoby zrównoważone rozwiązanie gwarantujące dostęp do trwałych sesji na wirtualnych pulpitach Linux, z których użytkownicy mogliby kompilować i wysyłać swoje eksperymenty do węzłów komputerowych na jednym z klastrów za pośrednictwem menadżera zadań. Ważnym warunkiem wstępnym dla projektu było wykorzystywanie interaktywnych aplikacji o bardzo wysokich wymaganiach graficznych w połączeniu z dużymi symulacjami CUDA stanowiącymi wsparcie dla VirtualGL w celu umożliwienia zdalnej wizualizacji, także w czasie rzeczywistym. |
|
|
Rozwiązanie |
Serwer Enterprise w wersji 5 funkcjonuje jako zrównoważona brama dająca dostęp do węzłów NoMachine Terminal Server Nodes pracujących na węzłach klastrów Alice i Spectre. Te z kolei zapewniają odpowiednio dostęp do 208 i 24 węzłów komputerowych. Oba klastry są połączone za pomocą wysoce wydajnej sieci Infiniband QDR zapewniającej obsługę dużej liczby rozproszonych zadań. Za pomocą tej sieci podłączony jest również równolegle system plików o objętości ponad 1 TB. |
|
|
Rezultaty |
Serwer NoMachine umożliwia użytkownikom obsługiwać nieograniczoną liczbę trwałych, wirtualnych sesji na węzłach logowania, których używają dla kodów dostarczanych przez użytkowników, generując i dostarczając wyniki zadań i wizualizacji. Najczęściej w ciągu dnia na aktywnych pulpitach obsługiwanych przez serwer NoMachine pracuje od 100 do 160 użytkowników rozdzielonych pomiędzy węzłami logowania. Użytkownicy łączą się z serwerem Enterprise klastra Alice lub Spectre, następnie ich sesje są automatycznie uruchamiane na jednym z serwerów Terminal Server na węzłach logowania, a serwer Enterprise zapewnia równoważenie obciążenia. |
|
|
Środowisko Sieciowe |
Kluczowe Korzyści |
Dostarczone Aplikacje |
NoMachine Enterprise Server wersja 5 NoMachine Terminal Server Nodes wersja 5 Scientific Linux 6 |
Równoważenie obciążenia Obsługa Virtual GL Niezwykle funkcjonalny Trwała sesja |
Oprogramowanie wizualizacyjne Symulacja danych Analiza danych |
|
|
Informacje o NoMachine Enterprise Server |
Tworzy pule pulpitów systemów Mac, Windows i Linux oraz jednoczy je w jednym punkcie dostępu dla scentralizowanego dostępu dla użytkowników. NoMachine Enterprise Server zapewnia obsługę wielu nodów, równoważenie obciążenia i wbudowane funkcje klastra, z automatycznym zabezpieczeniem przeciwawaryjnym na wypadek awarii serwera. |
|
|