====== Configuration matérielle des clusters ======
Description du matériel disponible dans les différents clusters du PSMN.
**[[http://www.ens-lyon.fr/PSMN/Documentation/|New Documentation (Debian 11 / Slurm)]]**
See also our [[news:blog|Fil des news]] for up-to-date informations
Tous les clusters utilisent le même OS, Debian 11 ainsi que le gestionnaire de job slurm.
[[news:stats|Statistiques d'utilisation des clusters]]
====== Cluster Cascade ======
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Cascade/''**)
* **19 168 coeurs au total**
===== Groupe sr630 =====
7 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant :
* 2 processeurs Platinum 8562Y+ dotriaconta-core 2,8 Ghz (64 cores)
* **512 Go** de Mémoire (soit 8 GiB/coeur)
* interconnexion Infiniband HDR (100 Gb/s)
4 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant :
* 2 processeurs Platinum 8592+ tetrahexaconta-core 1,9 Ghz (128 cores)
* **1024 Go** de Mémoire (soit 8 GiB/coeur)
* interconnexion Infiniband HDR (100 Gb/s)
===== Groupe dl365 =====
10 noeuds bi-processeurs HPE DL365 identiques, chaque noeud contenant :
* 2 processeurs AMD Epyc 9354 dotriaconta-core 3,2 Ghz (64 cores)
* **768 Go** de Mémoire (soit 12 GiB/coeur)
* interconnexion Infiniband HDR (100 Gb/s)
Une partie de ces machines a été financé par le **CPER CINAURA**.
===== Groupe s92 =====
171 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant :
* 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
* **384 Go** de Mémoire (soit 4 GiB/coeur)
* interconnexion Infiniband HDR (100 Gb/s)
===== Groupe s92-GPU =====
12 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant :
* 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
* **384 Go** de Mémoire (soit 4 GiB/coeur)
* interconnexion Infiniband HDR (100 Gb/s)
* 1 accélérateur GPU (Nvidia L4)
====== Cluster Lake ======
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Lake/''**)
* **13 792 coeurs au total**
===== Groupe Epyc =====
14 noeuds bi-processeurs Dell C6525 identiques, chaque noeud contenant :
* 2 processeurs AMD 7702 tetrahexaconta-core 2 Ghz (128 cores)
* **512 Go** de Mémoire (soit 4 GiB/coeur)
* interconnexion Infiniband EDR (100 Gb/s)
===== Groupe c6420-192 =====
108 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
* 2 processeurs Intel 6226R **Cascade Lake** hexadeca-core 2,9 Ghz (32 cores)
* **192 Go** de Mémoire (soit 6 GiB/coeur)
* interconnexion Infiniband FDR (56 Gb/s)
===== Groupe c6420-96 =====
8 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
* 2 processeurs Intel 5118 **Cascade Lake** dodeca-core 2,3 Ghz (24 cores)
* **96 Go** de Mémoire (soit 4 GiB/coeur)
* interconnexion Infiniband FDR (56 Gb/s)
===== Groupe xlr178-96 =====
4 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :
* 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores)
* **96 Go** de Mémoire (soit 3 GiB/coeur)
* interconnexion Infiniband FDR (56 Gb/s)
===== Groupe xlr178-192 =====
118 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :
* 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores)
* **192 Go** de Mémoire (soit 6 GiB/coeur)
* interconnexion Infiniband FDR (56 Gb/s)
===== Groupe xlr170-384 =====
70 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :
* 2 processeurs Intel 6242 **Cascade Lake** hexadeca-core 2,8 Ghz (32 cores)
* **384 Go** de Mémoire (soit 12 GiB/coeur)
* interconnexion Infiniband FDR (56 Gb/s)
===== Groupe c6420-384 =====
62 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
* 2 processeurs Intel 6142 **Sky Lake** hexadeca-core 2,6 Ghz (32 cores)
* **384 Go** de Mémoire (soit 12 GiB/coeur)
* interconnexion Infiniband FDR (56 Gb/s)
===== Groupe r730gpu =====
24 noeuds bi-processeurs Dell R730 identiques, chaque noeud contenant :
* 2 processeurs Intel E5-2637v3 **Haswell** tetra-core 3,5 Ghz (8 cores)
* **128 Go** de Mémoire (soit 16 GiB/coeur)
* interconnexion Infiniband FDR (56 Gb/s)
* 2 accélérateurs GPGPU (Nvidia RTX 2080Ti)
===== r740bigmem =====
1 noeud bi-processeurs Dell R740 contenant :
* 2 processeurs Intel 6226R **Cascade Lake** hexadeca-core 2,9 Ghz (32 cores)
* **1500 Go** de Mémoire (soit ~46 GiB/coeur)
* interconnexion Infiniband FDR (56 Gb/s)
===== Cloud@PSMN (IFB) =====
Voir [[https://biosphere.france-bioinformatique.fr/cloud/system_status/14/|meso-psmn-cirrus]]
====== Clusters de formation et d'expérimentation du CBP ======
Les machines du CBP sont actuellement décrites sur ces pages :
* [[http://www.cbp.ens-lyon.fr/doku.php?id=ressources:ressources| Les ressources du CBP]]
* [[http://www.cbp.ens-lyon.fr/python/forms/ClusterCBP|Utilisation du cluster CBP]]
* [[http://www.cbp.ens-lyon.fr/python/forms/CloudCBP|Utilisation du Cloud CBP]]