Configuration matérielle des clusters
Description du matériel disponible dans les différents clusters du PSMN.
Tous les clusters utilisent le même OS, Debian 11 ainsi que le gestionnaire de job slurm.
Cluster Cascade
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/Cascade/
)
Groupe s92
171 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant :
2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
384 Go de Mémoire (soit 4 GiB/coeur)
interconnexion Infiniband HDR/EDR (100 Gb/s)
Cluster Lake
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/Lake/
)
Groupe Epyc
14 noeuds bi-processeurs Dell C6525 identiques, chaque noeud contenant :
2 processeurs AMD 7702 tetrahexaconta-core 2 Ghz (128 cores)
512 Go de Mémoire (soit 4 GiB/coeur)
interconnexion Infiniband EDR (100 Gb/s)
Groupe c6420-192
108 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
2 processeurs Intel 6226R Cascade Lake hexadeca-core 2,9 Ghz (32 cores)
192 Go de Mémoire (soit 6 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c6420-96
8 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
2 processeurs Intel 5118 Cascade Lake dodeca-core 2,3 Ghz (24 cores)
96 Go de Mémoire (soit 4 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe xlr178-192
122 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :
2 processeurs Intel 5218 Cascade Lake hexadeca-core 2,3 Ghz (32 cores)
192 Go de Mémoire (soit 6 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe xlr170-384
60 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :
2 processeurs Intel 6242 Cascade Lake hexadeca-core 2,8 Ghz (32 cores)
384 Go de Mémoire (soit 12 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c6420-384
62 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
2 processeurs Intel 6142 Sky Lake hexadeca-core 2,6 Ghz (32 cores)
384 Go de Mémoire (soit 12 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe r730gpu
24 noeuds bi-processeurs Dell R730 identiques, chaque noeud contenant :
2 processeurs Intel E5-2637v3 Haswell tetra-core 3,5 Ghz (8 cores)
128 Go de Mémoire (soit 16 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
2 accélérateurs GPGPU (Nvidia RTX 2080Ti)
r740bigmem
1 noeud bi-processeurs Dell R740 contenant :
2 processeurs Intel 6226R Cascade Lake hexadeca-core 2,9 Ghz (32 cores)
1500 Go de Mémoire (soit ~46 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Cluster E5
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/E5N/
)
Une partie de ce cluster a été financé par Équip@méso.
Groupe c6320-128
24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :
2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
128 Go de Mémoire (soit 8 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c6320-256A
12 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :
2 processeurs Intel E5-2697Av4 Broadwell hexadeca-core 2,6 Ghz (32 cores)
256 Go de Mémoire (soit 16 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c6320-256
24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :
2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
256 Go de Mémoire (soit 16 GiB/coeur)
interconnexion Infiniband FDR (56 Gb/s)
Groupe c8220
financement Équip@méso
32 noeuds bi-processeurs Dell c8220, chaque noeud contenant :
2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
256 Go de Mémoire (soit 16 GiB/coeur), ou 128 Go (4 noeuds), ou 64 Go (4 noeuds)
/scratch local de 2 TiB (/scratch/ssd/
) (certains noeuds seulement)
interconnexion Infiniband FDR (56 Gb/s)
Cloud@PSMN (IFB)
Les machines du CBP sont actuellement décrites sur ces pages :