Ceci est une ancienne révision du document !


Configuration matérielle des clusters

Description du matériel disponible dans les différents clusters du PSMN.

  • Les files d'attentes permettant de lancer des jobs sur ces machines sont décrites dans Le système de batch,
  • Les serveurs de compilation, pour chaque architecture, sont décrits dans les Machines de services.
  • Nombre total de coeurs actifs 17 824 pour 660 serveurs.

Cluster Lake

Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/Lake/)

  • 12 928 coeurs au total

Groupe EPYC7702deb512

14 noeuds bi-processeurs Dell C6525 identiques, chaque noeud contenant :

  • 2 processeurs AMD 7702 tetrahexaconta core 2 Ghz (128 cores)
  • 512 Go de Mémoire (soit 4 Go/coeur)
  • /scratch global 71To (/scratch/Lake/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 2048 coeurs au total

Groupe c6420deb192

108 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :

  • 2 processeurs Intel 6226R Cascade Lake hexadeca-core 2,9 Ghz (32 cores)
  • 192 Go de Mémoire (soit 6 Go/coeur)
  • /scratch global 71To (/scratch/Lake/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 3456 coeurs au total

Groupe xlr178deb192

120 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :

  • 2 processeurs Intel 5218 Cascade Lake hexadeca-core 2,3 Ghz (32 cores)
  • 192 Go de Mémoire (soit 6 Go/coeur)
  • /scratch global 71To (/scratch/Lake/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 3840 coeurs au total

Groupe xlr170deb384

60 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :

  • 2 processeurs Intel 6242 Cascade Lake hexadeca-core 2,8 Ghz (32 cores)
  • 384 Go de Mémoire (soit 12 Go/coeur)
  • /scratch global 71To (/scratch/Lake/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 1920 coeurs au total

Groupe c6420deb384

60 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :

  • 2 processeurs Intel 6142 Sky Lake hexadeca-core 2,6 Ghz (32 cores)
  • 384 Go de Mémoire (soit 12 Go/coeur)
  • /scratch global 71To (/scratch/Lake/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 1920 coeurs au total

Groupe r730gpu

20 noeuds bi-processeurs Dell R730 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2637v3 Haswell tetra-core 3,5 Ghz (8 cores)
  • 128 Go de Mémoire (soit 16 Go/coeur)
  • /scratch global 71To (/scratch/Lake/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 2 accélérateurs GPGPU (Nvidia RTX 2080Ti)
  • 40 GPGPU (Nvidia RTX 2080Ti) au total

Cluster E5

Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/E5N/)

* 4640 coeurs au total

Une partie de ce cluster a été financé par Équip@méso.

Groupe c6320deb128v4

34 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
  • 128 Go de Mémoire (soit 8 Go/coeur)
  • /scratch global 71To (/scratch/E5N/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 544 coeurs au total

Groupe c6320deb256Av4

12 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2697Av4 Broadwell hexadeca-core 2,6 Ghz (32 cores)
  • 256 Go de Mémoire (soit 16 Go/coeur)
  • /scratch global 71To (/scratch/E5N/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 384 coeurs au total

Groupe c6320deb256v4

24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
  • 256 Go de Mémoire (soit 16 Go/coeur)
  • /scratch global 71To (/scratch/E5N/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 384 coeurs au total

Groupe c8220deb128v2

40 noeuds bi-processeurs Dell C8220 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2667v2 Ivy Bridge octa-core 3,3 Ghz (16 cores)
  • 128 Go de Mémoire (soit 8 Go/coeur)
  • /scratch global 71To (/scratch/E5N/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 7
  • 640 coeurs au total

Groupe c8220deb256

financement Équip@méso

24 noeuds bi-processeurs Dell c8220 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
  • 256 Go de Mémoire (soit 16 Go/coeur)
  • /scratch global 71To (/scratch/E5N/)
  • /scratch local de 2To (/scratch/ssd/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 384 coeurs au total

Groupe c8220deb128

financement Équip@méso

  • 6 groupes de 24 noeuds chacun : c8220deb128A, c8220deb128B, c8220deb128C, c8220deb128D, c8220deb128E et c8220deb128F

144 noeuds bi-processeurs Dell c8220 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
  • 128 Go de Mémoire (soit 8 Go/coeur)
  • /scratch global 71To (/scratch/E5N/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 2 304 coeurs au total

Cluster x55/x56 (ou X5)

Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/X5/)

Ce cluster sera arrêté prochainement

Groupe sl390lin48

23 noeuds bi-processeurs HP SL390 identiques, chaque noeud contenant :

  • 2 processeurs Intel X5672 Westmere tetra-coeurs 3,2 Ghz (8 cores)
  • 48 Go de Mémoire (soit 6 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband QDR (40Gb/s)
  • OS Debian 9

Groupe sl390lin24

40 noeuds bi-processeurs HP SL390 identiques, chaque noeud contenant :

  • 2 processeurs Intel X5650 Westmere hexa-coeurs 2,66 Ghz (12 cores)
  • 24 Go de Mémoire (soit 2 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband QDR (40Gb/s)
  • OS Debian 9

Groupe c6100lin24

32 noeuds bi-processeurs Dell C6100 identiques, chaque noeud contenant :

  • 2 processeurs Intel X5650 Westmere hexa-coeurs 2,66 Ghz (12 cores)
  • 24 Go de Mémoire (soit 2 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband QDR (40Gb/s)
  • OS Debian 9

Groupes r422

5 groupes de 24 noeuds : x5570deb24A, x5570deb24B, x5570deb24C, x5570deb24D et x5570deb24E.

120 noeuds bi-processeurs Bull R422 E2 identiques, chaque noeud contenant :

  • 2 processeurs Intel X5570 Nehalem tetra-coeurs 2,93 Ghz (8 cores)
  • 24 Go de Mémoire (soit 3 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband QDR (40Gb/s)
  • OS Debian 9

Groupe r815lin128

8 noeuds tetra-processeurs Dell R815 identiques, chaque noeud contenant :

  • 4 processeurs AMD Opteron 6134 Magny-Cours octa-coeurs 2,3 Ghz (32 cores)
  • 128 Go de Mémoire (soit 4 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband DDR (20Gb/s)
  • OS Debian 9

Clusters de formation et d'expérimentation du CBP

Les machines du CBP sont actuellement décrites sur ces pages :

documentation/clusters/hardware.1607011355.txt.gz · Dernière modification : 2020/12/03 16:02 de gilquin