====== Configuration matérielle des clusters ====== Description du matériel disponible dans les différents clusters du PSMN. **[[http://www.ens-lyon.fr/PSMN/Documentation/|New Documentation (Debian 11 / Slurm)]]** See also our [[news:blog|Fil des news]] for up-to-date informations Tous les clusters utilisent le même OS, Debian 11 ainsi que le gestionnaire de job slurm. [[news:stats|Statistiques d'utilisation des clusters]] ====== Cluster Cascade ====== Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Cascade/''**) * **16 416 coeurs au total** ===== Groupe s92 ===== 171 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant : * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores) * **384 Go** de Mémoire (soit 4 GiB/coeur) * interconnexion Infiniband HDR/EDR (100 Gb/s) ====== Cluster Lake ====== Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Lake/''**) * **13 472 coeurs au total** ===== Groupe Epyc ===== 14 noeuds bi-processeurs Dell C6525 identiques, chaque noeud contenant : * 2 processeurs AMD 7702 tetrahexaconta-core 2 Ghz (128 cores) * **512 Go** de Mémoire (soit 4 GiB/coeur) * interconnexion Infiniband EDR (100 Gb/s) ===== Groupe c6420-192 ===== 108 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant : * 2 processeurs Intel 6226R **Cascade Lake** hexadeca-core 2,9 Ghz (32 cores) * **192 Go** de Mémoire (soit 6 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe c6420-96 ===== 8 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant : * 2 processeurs Intel 5118 **Cascade Lake** dodeca-core 2,3 Ghz (24 cores) * **96 Go** de Mémoire (soit 4 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe xlr178-192 ===== 122 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : * 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores) * **192 Go** de Mémoire (soit 6 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe xlr170-384 ===== 60 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : * 2 processeurs Intel 6242 **Cascade Lake** hexadeca-core 2,8 Ghz (32 cores) * **384 Go** de Mémoire (soit 12 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe c6420-384 ===== 62 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant : * 2 processeurs Intel 6142 **Sky Lake** hexadeca-core 2,6 Ghz (32 cores) * **384 Go** de Mémoire (soit 12 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe r730gpu ===== 24 noeuds bi-processeurs Dell R730 identiques, chaque noeud contenant : * 2 processeurs Intel E5-2637v3 **Haswell** tetra-core 3,5 Ghz (8 cores) * **128 Go** de Mémoire (soit 16 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) * 2 accélérateurs GPGPU (Nvidia RTX 2080Ti) ===== r740bigmem ===== 1 noeud bi-processeurs Dell R740 contenant : * 2 processeurs Intel 6226R **Cascade Lake** hexadeca-core 2,9 Ghz (32 cores) * **1500 Go** de Mémoire (soit ~46 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ====== Cluster E5 ====== Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/E5N/''**) * **1664 coeurs au total** Une partie de ce cluster a été financé par **[[http://www.genci.fr/fr/content/equipmeso|Équip@méso]]**. ===== Groupe c6320-128 ===== 24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant : * 2 processeurs Intel E5-2667v4 **Broadwell** octa-core 3,2 Ghz (16 cores) * **128 Go** de Mémoire (soit 8 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe c6320-256A ===== 12 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant : * 2 processeurs Intel E5-2697Av4 **Broadwell** hexadeca-core 2,6 Ghz (32 cores) * **256 Go** de Mémoire (soit 16 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe c6320-256 ===== 24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant : * 2 processeurs Intel E5-2667v4 **Broadwell** octa-core 3,2 Ghz (16 cores) * **256 Go** de Mémoire (soit 16 GiB/coeur) * interconnexion Infiniband FDR (56 Gb/s) ===== Groupe c8220 ===== //financement Équip@méso// 32 noeuds bi-processeurs Dell c8220, chaque noeud contenant : * 2 processeurs Intel E5-2670 **Sandy Bridge** octa-core 2,60 Ghz (16 cores) * **256 Go** de Mémoire (soit 16 GiB/coeur), ou **128 Go** (4 noeuds), ou **64 Go** (4 noeuds) * **/scratch local de 2 TiB (''/scratch/ssd/'')** (certains noeuds seulement) * interconnexion Infiniband FDR (56 Gb/s) ===== Cloud@PSMN (IFB) ===== Voir [[https://biosphere.france-bioinformatique.fr/cloud/system_status/14/|meso-psmn-cirrus]] ====== Clusters de formation et d'expérimentation du CBP ====== Les machines du CBP sont actuellement décrites sur ces pages : * [[http://www.cbp.ens-lyon.fr/doku.php?id=ressources:ressources| Les ressources du CBP]] * [[http://www.cbp.ens-lyon.fr/python/forms/ClusterCBP|Utilisation du cluster CBP]] * [[http://www.cbp.ens-lyon.fr/python/forms/CloudCBP|Utilisation du Cloud CBP]]