====== Configuration matérielle des clusters ====== Description du matériel disponible dans les différents clusters du PSMN. **[[http://www.ens-lyon.fr/PSMN/Documentation/|New Documentation (Debian 11 / Slurm)]]** See also our [[news:blog|Fil des news]] for up-to-date informations Tous les clusters utilisent le même OS, Debian 11 ainsi que le gestionnaire de job slurm. [[news:stats|Statistiques d'utilisation des clusters]] ====== Cluster Cascade ====== Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Cascade/''**) * **19 168 coeurs au total** ===== Groupe sr630 ===== 7 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant : * 2 processeurs Platinum 8562Y+ dotriaconta-core 2,8 Ghz (64 cores) * **512 Go** de Mémoire (soit 8 GiB/coeur) * interconnexion Infiniband HDR (100 Gb/s) 4 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant : * 2 processeurs Platinum 8592+ tetrahexaconta-core 1,9 Ghz (128 cores) * **1024 Go** de Mémoire (soit 8 GiB/coeur) * interconnexion Infiniband HDR (100 Gb/s) ===== Groupe dl365 ===== 10 noeuds bi-processeurs HPE DL365 identiques, chaque noeud contenant : * 2 processeurs AMD Epyc 9354 dotriaconta-core 3,2 Ghz (64 cores) * **768 Go** de Mémoire (soit 12 GiB/coeur) * interconnexion Infiniband HDR (100 Gb/s) Une partie de ces machines a été financé par le **CPER CINAURA**. ===== Groupe s92 ===== 171 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant : * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores) * **384 Go** de Mémoire (soit 4 GiB/coeur) * interconnexion Infiniband HDR (100 Gb/s) ===== Groupe s92-GPU ===== 12 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant : * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores) * **384 Go** de Mémoire (soit 4 GiB/coeur) * interconnexion Infiniband HDR (100 Gb/s) * 1 accélérateur GPU (Nvidia L4) ====== Cluster Lake ====== Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Lake/''**) * **13 792 coeurs au total** ===== Groupe Epyc ===== 14 noeuds bi-processeurs Dell C6525 identiques, chaque noeud contenant : * 2 processeurs AMD 7702 tetrahexaconta-core 2 Ghz (128 cores) * **512 Go** de Mémoire (soit 4 GiB/coeur) * interconnexion Infiniband EDR (100 Gb/s) ===== Groupe c6420-192 ===== 108 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant : * 2 processeurs Intel 6226R **Cascade Lake** hexadeca-core 2,9 Ghz (32 cores) * **192 Go** de Mémoire (soit 6 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe c6420-96 ===== 8 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant : * 2 processeurs Intel 5118 **Cascade Lake** dodeca-core 2,3 Ghz (24 cores) * **96 Go** de Mémoire (soit 4 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe xlr178-96 ===== 4 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : * 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores) * **96 Go** de Mémoire (soit 3 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe xlr178-192 ===== 118 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : * 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores) * **192 Go** de Mémoire (soit 6 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe xlr170-384 ===== 70 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : * 2 processeurs Intel 6242 **Cascade Lake** hexadeca-core 2,8 Ghz (32 cores) * **384 Go** de Mémoire (soit 12 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe c6420-384 ===== 62 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant : * 2 processeurs Intel 6142 **Sky Lake** hexadeca-core 2,6 Ghz (32 cores) * **384 Go** de Mémoire (soit 12 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe r730gpu ===== 24 noeuds bi-processeurs Dell R730 identiques, chaque noeud contenant : * 2 processeurs Intel E5-2637v3 **Haswell** tetra-core 3,5 Ghz (8 cores) * **128 Go** de Mémoire (soit 16 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) * 2 accélérateurs GPGPU (Nvidia RTX 2080Ti) ===== r740bigmem ===== 1 noeud bi-processeurs Dell R740 contenant : * 2 processeurs Intel 6226R **Cascade Lake** hexadeca-core 2,9 Ghz (32 cores) * **1500 Go** de Mémoire (soit ~46 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Cloud@PSMN (IFB) ===== Voir [[https://biosphere.france-bioinformatique.fr/cloud/system_status/14/|meso-psmn-cirrus]] ====== Clusters de formation et d'expérimentation du CBP ====== Les machines du CBP sont actuellement décrites sur ces pages : * [[http://www.cbp.ens-lyon.fr/doku.php?id=ressources:ressources| Les ressources du CBP]] * [[http://www.cbp.ens-lyon.fr/python/forms/ClusterCBP|Utilisation du cluster CBP]] * [[http://www.cbp.ens-lyon.fr/python/forms/CloudCBP|Utilisation du Cloud CBP]]