Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
documentation:clusters:hardware [2025/02/13 10:38] – [Cluster E5] ltaulelldocumentation:clusters:hardware [2025/05/06 14:25] (Version actuelle) ltaulell
Ligne 29: Ligne 29:
   * 2 processeurs Platinum 8562Y+ dotriaconta-core 2,8 Ghz (64 cores)   * 2 processeurs Platinum 8562Y+ dotriaconta-core 2,8 Ghz (64 cores)
   * **512 Go** de Mémoire (soit 8 GiB/coeur)   * **512 Go** de Mémoire (soit 8 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
  
 4 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant :  4 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant : 
   * 2 processeurs Platinum 8592+ tetrahexaconta-core 1,9 Ghz (128 cores)   * 2 processeurs Platinum 8592+ tetrahexaconta-core 1,9 Ghz (128 cores)
   * **1024 Go** de Mémoire (soit 8 GiB/coeur)   * **1024 Go** de Mémoire (soit 8 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
  
 ===== Groupe dl365 ===== ===== Groupe dl365 =====
  
 10 noeuds bi-processeurs HPE DL365 identiques, chaque noeud contenant :  10 noeuds bi-processeurs HPE DL365 identiques, chaque noeud contenant : 
-  * 2 processeurs AMD Epyc 9354 hexadeca-core 3,2 Ghz (64 cores)+  * 2 processeurs AMD Epyc 9354 dotriaconta-core 3,2 Ghz (64 cores)
   * **768 Go** de Mémoire (soit 12 GiB/coeur)   * **768 Go** de Mémoire (soit 12 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
  
-Une partie de ces machines ont été financées par le **CPER CINAURA**.+Une partie de ces machines été financé par le **CPER CINAURA**.
 ===== Groupe s92 ===== ===== Groupe s92 =====
  
Ligne 49: Ligne 49:
   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
   * **384 Go** de Mémoire (soit 4 GiB/coeur)   * **384 Go** de Mémoire (soit 4 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
  
 ===== Groupe s92-GPU ===== ===== Groupe s92-GPU =====
Ligne 56: Ligne 56:
   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
   * **384 Go** de Mémoire (soit 4 GiB/coeur)   * **384 Go** de Mémoire (soit 4 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
   * 1 accélérateur GPU (Nvidia L4)   * 1 accélérateur GPU (Nvidia L4)
 ====== Cluster Lake ====== ====== Cluster Lake ======
Ligne 85: Ligne 85:
   * 2 processeurs Intel 5118 **Cascade Lake** dodeca-core 2,3 Ghz (24 cores)   * 2 processeurs Intel 5118 **Cascade Lake** dodeca-core 2,3 Ghz (24 cores)
   * **96 Go** de Mémoire (soit 4 GiB/coeur)   * **96 Go** de Mémoire (soit 4 GiB/coeur)
 +  * interconnexion Infiniband FDR (56 Gb/s)
 +
 +===== Groupe xlr178-96 =====
 +
 +4 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : 
 +  * 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores)
 +  * **96 Go** de Mémoire (soit 3 GiB/coeur)
   * interconnexion Infiniband FDR (56 Gb/s)   * interconnexion Infiniband FDR (56 Gb/s)
  
 ===== Groupe xlr178-192 ===== ===== Groupe xlr178-192 =====
  
-122 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : +118 noeuds bi-processeurs HPE XL170r identiques, chaque noeud contenant : 
   * 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores)   * 2 processeurs Intel 5218 **Cascade Lake** hexadeca-core 2,3 Ghz (32 cores)
   * **192 Go** de Mémoire (soit 6 GiB/coeur)   * **192 Go** de Mémoire (soit 6 GiB/coeur)
Ligne 123: Ligne 130:
   * interconnexion Infiniband FDR (56 Gb/s)   * interconnexion Infiniband FDR (56 Gb/s)
  
-====== Cluster E5 ====== 
- 
- 
-Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/E5N/''**) 
- 
-  * **1264 coeurs au total** 
- 
-Une partie de ce cluster a été financé par **Équip@méso**. 
- 
-===== Groupe c6320-128 ===== 
- 
-24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :  
-  * 2 processeurs Intel E5-2667v4 **Broadwell** octa-core 3,2 Ghz (16 cores) 
-  * **128 Go** de Mémoire (soit 8 GiB/coeur) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
- 
-===== Groupe c6320-256A ===== 
- 
-12 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :  
-  * 2 processeurs Intel E5-2697Av4 **Broadwell** hexadeca-core 2,6 Ghz (32 cores) 
-  * **256 Go** de Mémoire (soit 16 GiB/coeur) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
- 
- 
-===== Groupe c6320-256 ===== 
- 
-24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :  
-  * 2 processeurs Intel E5-2667v4 **Broadwell** octa-core 3,2 Ghz (16 cores) 
-  * **256 Go** de Mémoire (soit 16 GiB/coeur) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
- 
-===== Groupe c8220 ===== 
- 
-//financement Équip@méso// 
- 
-7 noeuds bi-processeurs Dell c8220, chaque noeud contenant : 
-  * 2 processeurs Intel E5-2670 **Sandy Bridge** octa-core 2,60 Ghz (16 cores) 
-  * **128 Go** (4 noeuds), ou **64 Go** (3 noeuds) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
  
 ===== Cloud@PSMN (IFB) ===== ===== Cloud@PSMN (IFB) =====
documentation/clusters/hardware.1739443099.txt.gz · Dernière modification : 2025/02/13 10:38 de ltaulell