Ceci est une ancienne révision du document !
Configuration matérielle des clusters
Description du matériel disponible dans les différents clusters du PSMN.
Cluster Lake
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/Lake/
)
Groupe EPYC7702deb512
14 noeuds bi-processeurs Dell C6525 identiques, chaque noeud contenant :
2 processeurs AMD 7702 tetrahexaconta core 2 Ghz (128 cores)
512 Go de Mémoire (soit 4 Go/coeur)
/scratch global 71To (/scratch/Lake/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe c6420deb192
108 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
2 processeurs Intel 6226R Cascade Lake hexadeca-core 2,9 Ghz (32 cores)
192 Go de Mémoire (soit 6 Go/coeur)
/scratch global 71To (/scratch/Lake/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe xlr178deb192
120 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :
2 processeurs Intel 5218 Cascade Lake hexadeca-core 2,3 Ghz (32 cores)
192 Go de Mémoire (soit 6 Go/coeur)
/scratch global 71To (/scratch/Lake/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe xlr170deb384
60 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :
2 processeurs Intel 6242 Cascade Lake hexadeca-core 2,8 Ghz (32 cores)
384 Go de Mémoire (soit 12 Go/coeur)
/scratch global 71To (/scratch/Lake/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe c6420deb384
60 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :
2 processeurs Intel 6142 Sky Lake hexadeca-core 2,6 Ghz (32 cores)
384 Go de Mémoire (soit 12 Go/coeur)
/scratch global 71To (/scratch/Lake/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe r730gpu
20 noeuds bi-processeurs Dell R730 identiques, chaque noeud contenant :
2 processeurs Intel E5-2637v3 Haswell tetra-core 3,5 Ghz (8 cores)
128 Go de Mémoire (soit 16 Go/coeur)
/scratch global 71To (/scratch/Lake/
)
interconnexion Infiniband FDR (56Gb/s)
-
2 accélérateurs GPGPU (Nvidia RTX 2080Ti)
Cluster E5
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/E5N/
)
* 4640 coeurs au total
Une partie de ce cluster a été financé par Équip@méso.
Groupe c6320deb128v4
34 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :
2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
128 Go de Mémoire (soit 8 Go/coeur)
/scratch global 71To (/scratch/E5N/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe c6320deb256Av4
12 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :
2 processeurs Intel E5-2697Av4 Broadwell hexadeca-core 2,6 Ghz (32 cores)
256 Go de Mémoire (soit 16 Go/coeur)
/scratch global 71To (/scratch/E5N/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe c6320deb256v4
24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :
2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
256 Go de Mémoire (soit 16 Go/coeur)
/scratch global 71To (/scratch/E5N/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe c8220deb128v2
40 noeuds bi-processeurs Dell C8220 identiques, chaque noeud contenant :
2 processeurs Intel E5-2667v2 Ivy Bridge octa-core 3,3 Ghz (16 cores)
128 Go de Mémoire (soit 8 Go/coeur)
/scratch global 71To (/scratch/E5N/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe c8220deb256
financement Équip@méso
24 noeuds bi-processeurs Dell c8220 identiques, chaque noeud contenant :
2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
256 Go de Mémoire (soit 16 Go/coeur)
/scratch global 71To (/scratch/E5N/
)
/scratch local de 2To (/scratch/ssd/
)
interconnexion Infiniband FDR (56Gb/s)
-
Groupe c8220deb128
financement Équip@méso
6 groupes de 24 noeuds chacun : c8220deb128A, c8220deb128B, c8220deb128C, c8220deb128D, c8220deb128E et c8220deb128F
144 noeuds bi-processeurs Dell c8220 identiques, chaque noeud contenant :
2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
128 Go de Mémoire (soit 8 Go/coeur)
/scratch global 71To (/scratch/E5N/
)
interconnexion Infiniband FDR (56Gb/s)
-
Cluster x55/x56 (ou X5)
Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/X5/
)
Ce cluster sera arrêté prochainement
Groupe sl390lin48
23 noeuds bi-processeurs HP SL390 identiques, chaque noeud contenant :
2 processeurs Intel X5672 Westmere tetra-coeurs 3,2 Ghz (8 cores)
48 Go de Mémoire (soit 6 Go/coeur)
/scratch global 34To (/scratch/X5/
)
interconnexion Infiniband QDR (40Gb/s)
-
Groupe sl390lin24
40 noeuds bi-processeurs HP SL390 identiques, chaque noeud contenant :
2 processeurs Intel X5650 Westmere hexa-coeurs 2,66 Ghz (12 cores)
24 Go de Mémoire (soit 2 Go/coeur)
/scratch global 34To (/scratch/X5/
)
interconnexion Infiniband QDR (40Gb/s)
-
Groupe c6100lin24
32 noeuds bi-processeurs Dell C6100 identiques, chaque noeud contenant :
2 processeurs Intel X5650 Westmere hexa-coeurs 2,66 Ghz (12 cores)
24 Go de Mémoire (soit 2 Go/coeur)
/scratch global 34To (/scratch/X5/
)
interconnexion Infiniband QDR (40Gb/s)
-
Groupes r422
5 groupes de 24 noeuds : x5570deb24A, x5570deb24B, x5570deb24C, x5570deb24D et x5570deb24E.
120 noeuds bi-processeurs Bull R422 E2 identiques, chaque noeud contenant :
2 processeurs Intel X5570 Nehalem tetra-coeurs 2,93 Ghz (8 cores)
24 Go de Mémoire (soit 3 Go/coeur)
/scratch global 34To (/scratch/X5/
)
interconnexion Infiniband QDR (40Gb/s)
-
Groupe r815lin128
8 noeuds tetra-processeurs Dell R815 identiques, chaque noeud contenant :
4 processeurs AMD Opteron 6134 Magny-Cours octa-coeurs 2,3 Ghz (32 cores)
128 Go de Mémoire (soit 4 Go/coeur)
/scratch global 34To (/scratch/X5/
)
interconnexion Infiniband DDR (20Gb/s)
-
Les machines du CBP sont actuellement décrites sur ces pages :