Technology Partners

Créer des alliances à valeur ajoutée

University of Leicester

Leader mondial dans l’Ingénierie et les Sciences Physiques, l'Université de Leicester fournit à l'attention de ses chercheurs et étudiants un accès à distance à des clusters HPC de partout dans le monde, garantissant un accès interactif rapide et des sessions persistantes.

L'Université
Leader mondial dans l'Ingénierie et les Sciences Physiques, l'Université de Leicester consolide son cluster HPC afin de fournir aux étudiants, partenaires et chercheurs internationaux des solutions leur permettant de faire face aux défis nécessitant une puissance informatique de pointe. ALICE, un des systèmes les plus puissants au sein d'une université du Royaume-Uni, a tout d'abord été optimisé pour fournir des performances maximales et répondre ainsi aux tâches très exigeantes de traitement de données, d'analyse de données et de simulation, telles qu'on les retrouve dans les domaines de la génétique, de la physique, de l'ingénierie et de la biologie. Ensuite, SPECTRE qui fournit un environnement Linux interactif combiné à un plus petit cluster HPC, est rendu disponible pour le personnel et les étudiants de l'Université de Leicester : il est avant tout utilisé pour l'enseignement et les petits projets de recherche. Dans le cadre d'une utilisation typique et en moyenne, 5000 à 25000 travaux sont exécutés et visualisés à tout moment.
Le Défi
Avec plus de 600 chercheurs inscrits pour le service Alice et comme Spectre est disponible pour tout le personnel de l'université et les étudiants (+ de 10000), l'université avait besoin d'une technologie d'accès à distance qui non seulement permette aux utilisateurs de s'atteler activement à leurs tâches exigeantes de programmation et d'analyse de données, mais fournisse également une vitesse élevée et une grande fiabilité de session. L'essentiel était une solution à charge équilibrée qui garantisse l'accès aux sessions virtuelles persistantes de bureau Linux, à partir desquelles les utilisateurs peuvent compiler and soumettre des expériences aux nœuds de calcul sur un des clusters, via le programmateur de travaux. De par l'utilisation d'applications interactives graphiques intenses combinée aux larges simulations CUDA, il fallait absolument que le support VirtualGL permette la visualisation distante, aussi en temps réel.
La Solution
Enterprise server dans sa version 5 fonctionne comme une passerelle à charge équilibrée garantissant un accès aux NoMachine Terminal Server Nodes exécutés sur les nœuds de connexion aux clusters Alice et Spectre. Ces derniers donnent accès à respectivement 208 et 24 nœuds de calcul. Les deux clusters sont connectés par le biais d'un réseau Infiniband QDR haute performance prenant en charge de grandes tâches distribuées. Ce réseau abrite un système de fichiers parallèle doté d'une capacité de stockage de plus de 1 To.
Résultats
NoMachine permet aux utilisateurs d'exploiter de manière illimitée des sessions virtuelles de bureau persistantes sur les nœuds de connexion : ils les utilisent pour les codes fournis par utilisateur, pour la génération et la soumission de travaux ainsi que pour la visualisation des résultats. En cours de journée, 100 à 160 utilisateurs avec bureau actif sont exploités via NoMachine et les différents nœuds de connexion. Les utilisateurs se connectent via Enterprise Server Alice ou Spectre, leur session de bureau est alors démarrée automatiquement sur un des serveurs de terminaux sur les nœuds de connexion, pendant que Enterprise Server assure l'équilibrage de la charge.
Environnement de Réseau Principaux Avantages Applications Fournies
NoMachine Enterprise Server v.5
NoMachine Terminal Server Nodes v.5
Scientific Linux 6
Équilibrage de la charge
Support VirtualGL
Extrêmement fonctionnel
Persistance de session
Logiciel de visualisation
Simulation de données
Analyse de données
NoMachine Enterprise Server
Créez des pools des bureaux Mac, Windows et Linux puis fédérez-les sous un seul point d'entrée afin de centraliser l'accès utilisateur. NoMachine Enterprise Server fournit un support multi-nœuds, un équilibrage de charge et des capacités intégrées de mise en cluster, avec une protection automatique contre les pannes en cas de défaillance du serveur.