Configuration matérielle des clusters

Description du matériel disponible dans les différents clusters du PSMN.

  • Les files d'attentes permettant de lancer des jobs sur ces machines sont décrites dans Le système de batch,
  • Les serveurs de compilation, pour chaque architecture, sont décrits dans les Machines de services.

Cluster Lake

Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/Lake/)

Groupe xlr170deb192

108 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :

  • 2 processeurs Intel 5218 Cascade Lake hexadeca-core 2,3 Ghz (32 cores)
  • 192 Go de Mémoire (soit 6 Go/coeur)
  • /scratch global ??To (/scratch/Lake/) (information provisoire)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Groupe xlr170deb384

32 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant :

  • 2 processeurs Intel 6242 Cascade Lake hexadeca-core 2,8 Ghz (32 cores)
  • 384 Go de Mémoire (soit 12 Go/coeur)
  • /scratch global ??To (/scratch/Lake/) (information provisoire)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Groupe c6420deb384

60 noeuds bi-processeurs Dell C6420 identiques, chaque noeud contenant :

  • 2 processeurs Intel 6142 Sky Lake hexadeca-core 2,6 Ghz (32 cores)
  • 384 Go de Mémoire (soit 12 Go/coeur)
  • /scratch global ??To (/scratch/Lake/) (information provisoire)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Groupe r730gpgpu

10 noeuds bi-processeurs Dell R730 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2637v3 Haswell tetra-core 3,5 Ghz (8 cores)
  • 128 Go de Mémoire (soit 16 Go/coeur)
  • /scratch global ??To (/scratch/Lake/) (information provisoire)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9
  • 2 accélérateurs GPGPU (Nvidia RTX 2080Ti)

Cluster E5

Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/E5/)

Une partie de ce cluster a été financé par Équip@méso.

Groupe c6320deb128v4

24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
  • 128 Go de Mémoire (soit 8 Go/coeur)
  • /scratch global 50To (/scratch/E5/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Groupe c6320deb256v4

16 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2667v4 Broadwell octa-core 3,2 Ghz (16 cores)
  • 256 Go de Mémoire (soit 16 Go/coeur)
  • /scratch global 50To (/scratch/E5/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Groupe c6320deb256Av4

8 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2697Av4 Broadwell hexadeca-core 2,6 Ghz (32 cores)
  • 256 Go de Mémoire (soit 8 Go/coeur)
  • /scratch global 50To (/scratch/E5/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Groupe c8220deb128v2

40 noeuds bi-processeurs Dell C8220 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2667v2 Ivy Bridge octa-core 3,3 Ghz (16 cores)
  • 128 Go de Mémoire (soit 8 Go/coeur)
  • /scratch global 50To (/scratch/E5/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 7

Groupe r720gpgpu

2 noeuds bi-processeurs Dell R720 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2637v2 Ivy Bridge tetra-core 3,5 Ghz (8 cores)
  • 128 Go de Mémoire (soit 16 Go/coeur)
  • /scratch global 50To (/scratch/E5/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 7
  • 2 accélérateurs GPGPU (Nvidia GTX 780)

Machine r820deb768

Ce n'est pas le nom du noeud.

financement Équip@méso

1 noeud tetra-processeurs Dell R820 :

  • 4 processeurs Intel E5-4640 Sandy Bridge octa-core 2,40 Ghz (32 cores)
  • 768 Go de Mémoire (soit 24 Go/coeur)
  • /scratch global 50To (/scratch/E5/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Groupe c8220deb256

financement Équip@méso

24 noeuds bi-processeurs Dell c8220 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
  • 256 Go de Mémoire (soit 16 Go/coeur)
  • /scratch global 50To (/scratch/E5/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Groupe c8220deb128

financement Équip@méso

  • 1 groupe de 14 noeuds : c8220deb128F/bio
  • 1 groupe de 6 noeuds : c8220d3deb128
  • 1 groupe de 2 noeuds : c8220h3deb128
  • 6 groupes de 24 noeuds chacun : c8220deb128A, c8220deb128B, c8220deb128C, c8220deb128D, c8220deb128E et c8220deb128nl
  • 1 groupe de 8 noeuds : c8220deb128GPGPU (équipés d'accélérateurs GPGPU (4x K20, 4x M2070))

174 noeuds bi-processeurs Dell c8220 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
  • 128 Go de Mémoire (soit 8 Go/coeur)
  • /scratch global 50To (/scratch/E5/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Groupe sl230lin64

24 noeuds bi-processeurs HP SL230 identiques, chaque noeud contenant :

  • 2 processeurs Intel E5-2670 Sandy Bridge octa-core 2,60 Ghz (16 cores)
  • 64 Go de Mémoire (soit 4 Go/coeur)
  • /scratch global 50To (/scratch/E5/)
  • interconnexion Infiniband FDR (56Gb/s)
  • OS Debian 9

Cluster x55/x56 (ou X5)

Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un scratch commun (/scratch/X5/)

Ce cluster sera arrêté avant Janvier 2020

Groupe sl390lin48

23 noeuds bi-processeurs HP SL390 identiques, chaque noeud contenant :

  • 2 processeurs Intel X5672 Westmere tetra-coeurs 3,2 Ghz (8 cores)
  • 48 Go de Mémoire (soit 6 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband QDR (40Gb/s)
  • OS Debian7

Groupe sl390lin24

40 noeuds bi-processeurs HP SL390 identiques, chaque noeud contenant :

  • 2 processeurs Intel X5650 Westmere hexa-coeurs 2,66 Ghz (12 cores)
  • 24 Go de Mémoire (soit 2 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband QDR (40Gb/s)
  • OS Debian 7

Groupe c6100lin24

32 noeuds bi-processeurs Dell C6100 identiques, chaque noeud contenant :

  • 2 processeurs Intel X5650 Westmere hexa-coeurs 2,66 Ghz (12 cores)
  • 24 Go de Mémoire (soit 2 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband QDR (40Gb/s)
  • OS Debian 9

Groupes r422

5 groupes de 24 noeuds : x5570deb24A, x5570deb24B, x5570deb24C, x5570deb24D et x5570deb24E.

120 noeuds bi-processeurs Bull R422 E2 identiques, chaque noeud contenant :

  • 2 processeurs Intel X5570 Nehalem tetra-coeurs 2,93 Ghz (8 cores)
  • 24 Go de Mémoire (soit 3 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband QDR (40Gb/s)
  • OS Debian 7

Machine r815lin192

Ce n'est pas le nom du noeud.

1 noeud tetra-processeurs Dell R815 contenant :

  • 4 processeurs AMD Opteron 6172 Magny-Cours dodeca-coeurs 2,1 Ghz (48 cores)
  • 192 Go de Mémoire (soit 4 Go/coeur)
  • 1 disque scratch local de ~2To (/scratch/disk/)
  • /scratch global 34To (/scratch/X5/)
  • OS Debian 7

Groupe r815lin128

14 noeuds tetra-processeurs Dell R815 identiques, chaque noeud contenant :

  • 4 processeurs AMD Opteron 6134 Magny-Cours octa-coeurs 2,3 Ghz (32 cores)
  • 128 Go de Mémoire (soit 4 Go/coeur)
  • /scratch global 34To (/scratch/X5/)
  • interconnexion Infiniband DDR (20Gb/s)
  • OS Debian 7

Clusters de formation et d'expérimentation du CBP

Les machines du CBP sont actuellement décrites sur ces pages :

documentation/clusters/hardware.txt · Dernière modification: 2019/11/06 15:38 par ltaulell