Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
documentation:clusters:hardware [2025/02/27 12:16] – [Groupe s92-GPU] ltaulelldocumentation:clusters:hardware [2025/05/06 14:25] (Version actuelle) ltaulell
Ligne 29: Ligne 29:
   * 2 processeurs Platinum 8562Y+ dotriaconta-core 2,8 Ghz (64 cores)   * 2 processeurs Platinum 8562Y+ dotriaconta-core 2,8 Ghz (64 cores)
   * **512 Go** de Mémoire (soit 8 GiB/coeur)   * **512 Go** de Mémoire (soit 8 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
  
 4 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant :  4 noeuds bi-processeurs Lenovo SR630v3 identiques, chaque noeud contenant : 
   * 2 processeurs Platinum 8592+ tetrahexaconta-core 1,9 Ghz (128 cores)   * 2 processeurs Platinum 8592+ tetrahexaconta-core 1,9 Ghz (128 cores)
   * **1024 Go** de Mémoire (soit 8 GiB/coeur)   * **1024 Go** de Mémoire (soit 8 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
  
 ===== Groupe dl365 ===== ===== Groupe dl365 =====
  
 10 noeuds bi-processeurs HPE DL365 identiques, chaque noeud contenant :  10 noeuds bi-processeurs HPE DL365 identiques, chaque noeud contenant : 
-  * 2 processeurs AMD Epyc 9354 hexadeca-core 3,2 Ghz (64 cores)+  * 2 processeurs AMD Epyc 9354 dotriaconta-core 3,2 Ghz (64 cores)
   * **768 Go** de Mémoire (soit 12 GiB/coeur)   * **768 Go** de Mémoire (soit 12 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
  
 Une partie de ces machines a été financé par le **CPER CINAURA**. Une partie de ces machines a été financé par le **CPER CINAURA**.
Ligne 49: Ligne 49:
   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)   * 2 processeurs Intel Platinum 9242 octatetraconta-core 2,3 Ghz (96 cores)
   * **384 Go** de Mémoire (soit 4 GiB/coeur)   * **384 Go** de Mémoire (soit 4 GiB/coeur)
-  * interconnexion Infiniband HDR/EDR (100 Gb/s)+  * interconnexion Infiniband HDR (100 Gb/s)
  
 ===== Groupe s92-GPU ===== ===== Groupe s92-GPU =====
Ligne 130: Ligne 130:
   * interconnexion Infiniband FDR (56 Gb/s)   * interconnexion Infiniband FDR (56 Gb/s)
  
-====== Cluster E5 ====== 
- 
- 
-Les machines de ce cluster partagent le même arbre Infiniband (pour OpenMPI), ainsi qu'un **scratch** commun (**''/scratch/E5N/''**) 
- 
-  * **1264 coeurs au total** 
- 
-Une partie de ce cluster a été financé par **Équip@méso**. 
- 
-===== Groupe c6320-128 ===== 
- 
-24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :  
-  * 2 processeurs Intel E5-2667v4 **Broadwell** octa-core 3,2 Ghz (16 cores) 
-  * **128 Go** de Mémoire (soit 8 GiB/coeur) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
- 
-===== Groupe c6320-256A ===== 
- 
-12 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :  
-  * 2 processeurs Intel E5-2697Av4 **Broadwell** hexadeca-core 2,6 Ghz (32 cores) 
-  * **256 Go** de Mémoire (soit 16 GiB/coeur) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
- 
- 
-===== Groupe c6320-256 ===== 
- 
-24 noeuds bi-processeurs Dell C6320 identiques, chaque noeud contenant :  
-  * 2 processeurs Intel E5-2667v4 **Broadwell** octa-core 3,2 Ghz (16 cores) 
-  * **256 Go** de Mémoire (soit 16 GiB/coeur) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
- 
-===== Groupe c8220 ===== 
- 
-//financement Équip@méso// 
- 
-7 noeuds bi-processeurs Dell c8220, chaque noeud contenant : 
-  * 2 processeurs Intel E5-2670 **Sandy Bridge** octa-core 2,60 Ghz (16 cores) 
-  * **128 Go** (4 noeuds), ou **64 Go** (3 noeuds) 
-  * interconnexion Infiniband FDR (56 Gb/s) 
  
 ===== Cloud@PSMN (IFB) ===== ===== Cloud@PSMN (IFB) =====
documentation/clusters/hardware.1740658607.txt.gz · Dernière modification : 2025/02/27 12:16 de ltaulell