Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
Prochaine révisionLes deux révisions suivantes
documentation:clusters:batch [2022/09/15 08:55] – [Les files parallèles multi-serveurs (OpenMPI)] ccalugardocumentation:clusters:batch [2023/01/17 14:40] – [Le système de scratch] ltaulell
Ligne 1: Ligne 1:
 ====== Le système de batch ====== ====== Le système de batch ======
  
 +<WRAP center round important 60%>
  
 +**[[https://meso-centres-lyon.pages.in2p3.fr/psmn-rtd/index.html|New Documentation (Debian 11 / Slurm)]]**
  
-Le système de batch actuellement utilisé par le PSMN est [[documentation:tools:sge|GridEngine (SGE)]].  +See also our [[news:blog|Fil des news]] for up-to-date informations 
- +</WRAP>
-  * Les matériels sont décrit sur la page [[documentation:clusters:hardware|Configuration matérielle des clusters]], +
-  * Les serveurs de compilation, **pour chaque architecture processeur**, sont décrits dans les [[documentation:clusters:services|Machines de services]], +
-  * La [[documentation:tools:sge|documentation de SGE]] et la [[faq:accueil#rubriques|FAQ relative à GridEngine]]. +
- +
-===== Utilisation optimale des ressources ===== +
- +
-Pour utiliser au mieux les ressources, il convient de bien remplir les serveurs de calculs. Pour cela, nous disposons de deux moyens : +
- +
-  * remplir "au mieux" (best effort),  +
-  * remplir par multiple de n coeurs (ou n est le nombre de coeurs physiques par serveurs de calcul). +
- +
-Remplir "au mieux" mène rapidement à un morcellement, entre les serveurs de calcul, des applications parallélisées via OpenMPI. +
- +
-Le remplissage "au mieux" n'est donc mis en place pour les applications parallèles OpenMPI que sur certaines queues ; sur les autres le remplissage par multiple d'un serveur de calcul entier est privilégié. +
- +
-===== Allocation des ressources ===== +
- +
-   +
-L'allocation automatique se fait selon deux critéres :  +
-  * Le groupe de serveurs de calcul cible (la file d'attente, ou queue), +
-  * le nombre de coeurs demandé (nombre de slots). +
-     +
-La règle de calcul qui guide l'allocateur de ressource est le **PE** (parallel environment) qui indique si les coeurs doivent être :  +
-  * dans le même serveur de calcul (ex: openmp),  +
-  * dans des serveurs de calcul complets (ex: mpiX_debian, avec X le nombre de coeurs par serveur), +
-  * n'importe où (ex: mpi_debian) **Ceci est une mauvaise idée** et ne devrait être utilisé que pour des petits tests. +
- +
-===== Priorités ===== +
- +
-Une priorité :+
  
-  * inversement proportionnelle au temps de calcul déjà consommé, 
-  * proportionnelle au temps d'attente et au nombre de coeurs demandé, 
  
-est appliqué par le système de batchCeci afin de répartir plus équitablement les ressources disponibles.+See https://meso-centres-lyon.pages.in2p3.fr/psmn-rtd/clusters_usage/index.html
  
-====== Les serveurs de soumission ====== 
  
-Dans la configuration actuelle du système de batch, [[documentation:clusters:services|les serveurs de compilation/frontales]] sont tous des serveurs de soumission. 
  
-====== Le système de scratch ====== 
  
-Reportez vous à la [[documentation:tutorials:scratch|page sur nos différents systèmes de scratch]]. 
  
 ====== Les files d'attente ====== ====== Les files d'attente ======
Ligne 224: Ligne 190:
 |  E5-2697Av4deb256  |  [[documentation:clusters:hardware&#groupe_c6320deb256av4|c6320deb256Av4]]  |  openmp32, gaussian32  |  sans objet  |  32 par serveur  |  168 h  |  E5  | |  E5-2697Av4deb256  |  [[documentation:clusters:hardware&#groupe_c6320deb256av4|c6320deb256Av4]]  |  openmp32, gaussian32  |  sans objet  |  32 par serveur  |  168 h  |  E5  |
 |    ||||||| |    |||||||
-|  E5-2670deb128A  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | 
-|  E5-2670deb128B  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | 
-|  E5-2670deb128C  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | 
-|  E5-2670deb128D  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | 
-|  E5-2670deb128E  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | 
 |  E5-2670deb128F  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | |  E5-2670deb128F  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  |
 |    ||||||| |    |||||||
Ligne 245: Ligne 206:
 |  r730gpuRTX2080ti (avec autorisation)  |  [[documentation:clusters:hardware&#groupe_r730gpgpu|r730gpgpu]]  |  Infiniband  |  2 RTX2080ti par serveur (20 serveurs)  |  168 h  |  Lake  | |  r730gpuRTX2080ti (avec autorisation)  |  [[documentation:clusters:hardware&#groupe_r730gpgpu|r730gpgpu]]  |  Infiniband  |  2 RTX2080ti par serveur (20 serveurs)  |  168 h  |  Lake  |
 |    |||||| |    ||||||
-|  r720gpuGTX980 (avec autorisation)  |  [[documentation:clusters:hardware&#groupe_r720gpgpu|r720gpgpu]]  |  Infiniband  |  2 GTX780 par serveur (3 serveurs)  |  168 h  |  E5  | +
-|  E5-2670gpuK20deb128  |  [[documentation:clusters:hardware&#groupe_c8220deb64|c8220deb128]]  |  Infiniband  |  2 K20 par serveur  |  168 h  |  E5  |+
 ===== Les files tests multiprocesseurs ===== ===== Les files tests multiprocesseurs =====
  
Ligne 260: Ligne 220:
  
 ^  File d'attente  ^  Groupe de serveurs  ^  **PE** (Parallel Environment)  ^  Réseau  ^  Nb de cpus utilisables  ^  Temps maximal  ^  Scratch  ^ ^  File d'attente  ^  Groupe de serveurs  ^  **PE** (Parallel Environment)  ^  Réseau  ^  Nb de cpus utilisables  ^  Temps maximal  ^  Scratch  ^
-|  E5_test  |  [[documentation:clusters:hardware&#groupe_c8220v2deb128|c8220v2deb128]]  |  test_debian  |  Infiniband  |  de 2 à 48, 48 disponibles au total  |  **5mn**  |  E5  | 
 |  h6-E5-2667v4deb128  |  [[documentation:clusters:hardware&#groupe_c6320deb128v4|c6320deb128v4]]  |  mpi16_debian  |  Infiniband  |  de 16 à 96  |  **6 h**  |  E5  | |  h6-E5-2667v4deb128  |  [[documentation:clusters:hardware&#groupe_c6320deb128v4|c6320deb128v4]]  |  mpi16_debian  |  Infiniband  |  de 16 à 96  |  **6 h**  |  E5  |
 |  h48-E5-2670deb128  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi16_debian  |  Infiniband  |  de 16 à 192  |  **48 h**  |  E5  | |  h48-E5-2670deb128  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi16_debian  |  Infiniband  |  de 16 à 192  |  **48 h**  |  E5  |
documentation/clusters/batch.txt · Dernière modification : 2023/03/09 14:24 de ltaulell