Configuration matérielle des clusters

Description du matériel disponible dans les différents clusters du PSMN.

New Documentation (Debian 11 / Slurm)

See also our Fil des news for up-to-date informations

Tous les clusters utilisent le même OS, Debian 11 ainsi que le gestionnaire de job slurm.

Cluster Cascade

Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/Cascade/)

  • 19 168 coeurs au total

Groupe sr630

7 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant :

  • 2 processeurs Platinum 8562Y+ dotriaconta-core 2,8 Ghz (64 cores)
  • 512 Go de Mémoire (soit 8 GiB/coeur)
  • interconnexion Infiniband HDR/EDR (100 Gb/s)

4 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant :

  • 2 processeurs Platinum 8592+ tetrahexaconta-core 1,9 Ghz (128 cores)
  • 1024 Go de Mémoire (soit 8 GiB/coeur)
  • interconnexion Infiniband HDR/EDR (100 Gb/s)

Groupe dl365

10 noeuds bi-processeurs HPE DL365 identiques, chaque noeud contenant :

  • 2 processeurs AMD Epyc 9354 hexadeca-core 3,2 Ghz (64 cores)
  • 768 Go de Mémoire (soit 12 GiB/coeur)
  • interconnexion Infiniband HDR/EDR (100 Gb/s)

Une partie de ces machines a été financé par le CPER CINAURA.

Groupe s92

171 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant :

  • 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
  • 384 Go de Mémoire (soit 4 GiB/coeur)
  • interconnexion Infiniband HDR/EDR (100 Gb/s)

Groupe s92-GPU

12 noeuds bi-processeurs Intel S9200WK identiques, chaque noeud contenant :

  • 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
  • 384 Go de Mémoire (soit 4 GiB/coeur)
  • interconnexion Infiniband HDR/EDR (100 Gb/s)
  • 1 accélérateur GPU (Nvidia L4)

Cluster Lake

Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/Lake/)

  • 13 792 coeurs au total

Groupe Epyc

14 noeuds bi-processeurs Dell C6525 identiques, chaque noeud contenant :

  • 2 processeurs AMD 7702 tetrahexaconta-core 2 Ghz (128 cores)
  • 512 Go de Mémoire (soit 4 GiB/coeur)
  • interconnexion Infiniband EDR (100 Gb/s)

Groupe c6420-192

108 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :

  • 2 processeurs Intel 6226R Cascade Lake hexadeca-core 2,9 Ghz (32 cores)
  • 192 Go de Mémoire (soit 6 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)

Groupe c6420-96

8 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :

  • 2 processeurs Intel 5118 Cascade Lake dodeca-core 2,3 Ghz (24 cores)
  • 96 Go de Mémoire (soit 4 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)

Groupe xlr178-192

122 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :

  • 2 processeurs Intel 5218 Cascade Lake hexadeca-core 2,3 Ghz (32 cores)
  • 192 Go de Mémoire (soit 6 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)

Groupe xlr170-384

70 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :

  • 2 processeurs Intel 6242 Cascade Lake hexadeca-core 2,8 Ghz (32 cores)
  • 384 Go de Mémoire (soit 12 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)

Groupe c6420-384

62 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :

  • 2 processeurs Intel 6142 Sky Lake hexadeca-core 2,6 Ghz (32 cores)
  • 384 Go de Mémoire (soit 12 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)

Groupe r730gpu

24 noeuds bi-processeurs Dell R730 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2637v3 Haswell tetra-core 3,5 Ghz (8 cores)
  • 128 Go de Mémoire (soit 16 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)
  • 2 accélérateurs GPGPU (Nvidia RTX 2080Ti)

r740bigmem

1 noeud bi-processeurs Dell R740 contenant :

  • 2 processeurs Intel 6226R Cascade Lake hexadeca-core 2,9 Ghz (32 cores)
  • 1500 Go de Mémoire (soit ~46 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)

Cluster E5

Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/E5N/)

  • 1264 coeurs au total

Une partie de ce cluster a été financé par Équip@méso.

Groupe c6320-128

24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
  • 128 Go de Mémoire (soit 8 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)

Groupe c6320-256A

12 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2697Av4 Broadwell hexadeca-core 2,6 Ghz (32 cores)
  • 256 Go de Mémoire (soit 16 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)

Groupe c6320-256

24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
  • 256 Go de Mémoire (soit 16 GiB/coeur)
  • interconnexion Infiniband FDR (56 Gb/s)

Groupe c8220

financement Équip@méso

7 noeuds bi-processeurs Dell c8220, chaque noeud contenant :

  • 2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
  • 128 Go (4 noeuds), ou 64 Go (3 noeuds)
  • interconnexion Infiniband FDR (56 Gb/s)

Cloud@PSMN (IFB)

Clusters de formation et d'expérimentation du CBP

Les machines du CBP sont actuellement décrites sur ces pages :

documentation/clusters/hardware.txt · Dernière modification : 2025/02/13 10:38 de ltaulell