Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
documentation:clusters:hardware [2024/12/13 09:55] – [Groupe s92-GPU] ltaulelldocumentation:clusters:hardware [2025/05/06 14:25] (Version actuelle) ltaulell
Ligne 21: Ligne 21:
 Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Cascade/''**) Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Cascade/''**)
  
-  * **16 416 coeurs au total**+  * **19 168 coeurs au total**
  
 +
 +===== Groupe sr630 =====
 +
 +7 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant : 
 +  * 2 processeurs Platinum 8562Y+ dotriaconta-core 2,8 Ghz (64 cores)
 +  * **512 Go** de Mémoire (soit 8 GiB/coeur)
 +  * interconnexion Infiniband HDR (100 Gb/s)
 +
 +4 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant : 
 +  * 2 processeurs Platinum 8592+ tetrahexaconta-core 1,9 Ghz (128 cores)
 +  * **1024 Go** de Mémoire (soit 8 GiB/coeur)
 +  * interconnexion Infiniband HDR (100 Gb/s)
 +
 +===== Groupe dl365 =====
 +
 +10 noeuds bi-processeurs HPE DL365 identiques, chaque noeud contenant : 
 +  * 2 processeurs AMD Epyc 9354 dotriaconta-core 3,2 Ghz (64 cores)
 +  * **768 Go** de Mémoire (soit 12 GiB/coeur)
 +  * interconnexion Infiniband HDR (100 Gb/s)
 +
 +Une partie de ces machines a été financé par le **CPER CINAURA**.
 ===== Groupe s92 ===== ===== Groupe s92 =====
  
Ligne 28: Ligne 49:
   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
   * **384 Go** de Mémoire (soit 4 GiB/coeur)   * **384 Go** de Mémoire (soit 4 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
  
 ===== Groupe s92-GPU ===== ===== Groupe s92-GPU =====
Ligne 35: Ligne 56:
   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
   * **384 Go** de Mémoire (soit 4 GiB/coeur)   * **384 Go** de Mémoire (soit 4 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
   * 1 accélérateur GPU (Nvidia L4)   * 1 accélérateur GPU (Nvidia L4)
 ====== Cluster Lake ====== ====== Cluster Lake ======
Ligne 42: Ligne 63:
 Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Lake/''**) Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/Lake/''**)
  
-  * **13 472 coeurs au total**+  * **13 792 coeurs au total**
  
  
Ligne 64: Ligne 85:
   * 2 processeurs Intel 5118 **Cascade Lake** dodeca-core 2,3 Ghz (24 cores)   * 2 processeurs Intel 5118 **Cascade Lake** dodeca-core 2,3 Ghz (24 cores)
   * **96 Go** de Mémoire (soit 4 GiB/coeur)   * **96 Go** de Mémoire (soit 4 GiB/coeur)
 +  * interconnexion Infiniband FDR (56 Gb/s)
 +
 +===== Groupe xlr178-96 =====
 +
 +4 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : 
 +  * 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores)
 +  * **96 Go** de Mémoire (soit 3 GiB/coeur)
   * interconnexion Infiniband FDR (56 Gb/s)   * interconnexion Infiniband FDR (56 Gb/s)
  
 ===== Groupe xlr178-192 ===== ===== Groupe xlr178-192 =====
  
-122 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : +118 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : 
   * 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores)   * 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores)
   * **192 Go** de Mémoire (soit 6 GiB/coeur)   * **192 Go** de Mémoire (soit 6 GiB/coeur)
Ligne 75: Ligne 103:
 ===== Groupe xlr170-384 ===== ===== Groupe xlr170-384 =====
  
-60 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : +70 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : 
   * 2 processeurs Intel 6242 **Cascade Lake** hexadeca-core 2,8 Ghz (32 cores)   * 2 processeurs Intel 6242 **Cascade Lake** hexadeca-core 2,8 Ghz (32 cores)
   * **384 Go** de Mémoire (soit 12 GiB/coeur)   * **384 Go** de Mémoire (soit 12 GiB/coeur)
Ligne 102: Ligne 130:
   * interconnexion Infiniband FDR (56 Gb/s)   * interconnexion Infiniband FDR (56 Gb/s)
  
-====== Cluster E5 ====== 
- 
- 
-Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/E5N/''**) 
- 
-  * **1664 coeurs au total** 
- 
-Une partie de ce cluster a été financé par **[[http://www.genci.fr/fr/content/equipmeso|Équip@méso]]**. 
- 
-===== Groupe c6320-128 ===== 
- 
-24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :  
-  * 2 processeurs Intel E5-2667v4 **Broadwell** octa-core 3,2 Ghz (16 cores) 
-  * **128 Go** de Mémoire (soit 8 GiB/coeur) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
- 
-===== Groupe c6320-256A ===== 
- 
-12 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :  
-  * 2 processeurs Intel E5-2697Av4 **Broadwell** hexadeca-core 2,6 Ghz (32 cores) 
-  * **256 Go** de Mémoire (soit 16 GiB/coeur) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
- 
- 
-===== Groupe c6320-256 ===== 
- 
-24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :  
-  * 2 processeurs Intel E5-2667v4 **Broadwell** octa-core 3,2 Ghz (16 cores) 
-  * **256 Go** de Mémoire (soit 16 GiB/coeur) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
- 
-===== Groupe c8220 ===== 
- 
-//financement Équip@méso// 
- 
-32 noeuds bi-processeurs Dell c8220, chaque noeud contenant : 
-  * 2 processeurs Intel E5-2670 **Sandy Bridge** octa-core 2,60 Ghz (16 cores) 
-  * **256 Go** de Mémoire (soit 16 GiB/coeur), ou **128 Go** (4 noeuds), ou **64 Go** (4 noeuds) 
-  * **/scratch local de 2 TiB (''/scratch/ssd/'')** (certains noeuds seulement) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
  
 ===== Cloud@PSMN (IFB) ===== ===== Cloud@PSMN (IFB) =====
documentation/clusters/hardware.1734083709.txt.gz · Dernière modification : 2024/12/13 09:55 de ltaulell