Configuration matérielle des clusters
Description du matériel disponible dans les différents clusters du PSMN.
Tous les clusters utilisent le même OS, Debian 11 ainsi que le gestionnaire de job slurm.
Cluster Cascade
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/Cascade/
)
Groupe sr630
7 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant :
2 processeurs Platinum 8562Y+ dotriaconta-core 2,8 Ghz (64 cores)
512 Go de Mémoire (soit 8 GiB/coeur)
interconnexion Infiniband HDR/EDR (100 Gb/s)
4 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant :
2 processeurs Platinum 8592+ tetrahexaconta-core 1,9 Ghz (128 cores)
1024 Go de Mémoire (soit 8 GiB/coeur)
interconnexion Infiniband HDR/EDR (100 Gb/s)
Groupe dl365
10 noeuds bi-processeurs HPE DL365 identiques, chaque noeud contenant :
2 processeurs AMD Epyc 9354 hexadeca-core 3,2 Ghz (64 cores)
768 Go de Mémoire (soit 12 GiB/coeur)
interconnexion Infiniband HDR/EDR (100 Gb/s)
Une partie de ces machines a été financé par le CPER CINAURA.
Groupe s92
171 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant :
2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
384 Go de Mémoire (soit 4 GiB/coeur)
interconnexion Infiniband HDR/EDR (100 Gb/s)
Groupe s92-GPU
12 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant :
2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
384 Go de Mémoire (soit 4 GiB/coeur)
interconnexion Infiniband HDR/EDR (100 Gb/s)
1 accélérateur GPU (Nvidia L4)
Cluster Lake
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/Lake/
)
Groupe Epyc
14 noeuds bi-processeurs Dell C6525 identiques, chaque noeud contenant :
2 processeurs AMD 7702 tetrahexaconta-core 2 Ghz (128 cores)
512 Go de Mémoire (soit 4 GiB/coeur)
interconnexion Infiniband EDR (100 Gb/s)
Groupe c6420-192
108 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
2 processeurs Intel 6226R Cascade Lake hexadeca-core 2,9 Ghz (32 cores)
192 Go de Mémoire (soit 6 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c6420-96
8 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
2 processeurs Intel 5118 Cascade Lake dodeca-core 2,3 Ghz (24 cores)
96 Go de Mémoire (soit 4 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe xlr178-192
122 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :
2 processeurs Intel 5218 Cascade Lake hexadeca-core 2,3 Ghz (32 cores)
192 Go de Mémoire (soit 6 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe xlr170-384
70 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :
2 processeurs Intel 6242 Cascade Lake hexadeca-core 2,8 Ghz (32 cores)
384 Go de Mémoire (soit 12 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c6420-384
62 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
2 processeurs Intel 6142 Sky Lake hexadeca-core 2,6 Ghz (32 cores)
384 Go de Mémoire (soit 12 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe r730gpu
24 noeuds bi-processeurs Dell R730 identiques, chaque noeud contenant :
2 processeurs Intel E5-2637v3 Haswell tetra-core 3,5 Ghz (8 cores)
128 Go de Mémoire (soit 16 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
2 accélérateurs GPGPU (Nvidia RTX 2080Ti)
r740bigmem
1 noeud bi-processeurs Dell R740 contenant :
2 processeurs Intel 6226R Cascade Lake hexadeca-core 2,9 Ghz (32 cores)
1500 Go de Mémoire (soit ~46 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Cluster E5
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/E5N/
)
Une partie de ce cluster a été financé par Équip@méso.
Groupe c6320-128
24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :
2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
128 Go de Mémoire (soit 8 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c6320-256A
12 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :
2 processeurs Intel E5-2697Av4 Broadwell hexadeca-core 2,6 Ghz (32 cores)
256 Go de Mémoire (soit 16 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c6320-256
24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :
2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
256 Go de Mémoire (soit 16 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c8220
financement Équip@méso
7 noeuds bi-processeurs Dell c8220, chaque noeud contenant :
2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
128 Go (4 noeuds), ou 64 Go (3 noeuds)
interconnexion Infiniband FDR (56 Gb/s)
Cloud@PSMN (IFB)
Les machines du CBP sont actuellement décrites sur ces pages :