Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
documentation:clusters:batch [2020/03/04 19:05] – [Les files parallèles mono-serveur (OpenMP)] gilquindocumentation:clusters:batch [2023/03/09 14:24] (Version actuelle) ltaulell
Ligne 1: Ligne 1:
 ====== Le système de batch ====== ====== Le système de batch ======
  
 +<WRAP center round important 60%>
  
 +**[[http://www.ens-lyon.fr/PSMN/Documentation/|New Documentation (Debian 11 / Slurm)]]**
  
-Le système de batch actuellement utilisé par le PSMN est [[documentation:tools:sge|GridEngine (SGE)]].  +See also our [[news:blog|Fil des news]] for up-to-date informations
- +
-  * Les matériels sont décrit sur la page [[documentation:clusters:hardware|Configuration matérielle des clusters]]+
-  * Les serveurs de compilation, **pour chaque architecture processeur**, sont décrits dans les [[documentation:clusters:services|Machines de services]], +
-  * La [[documentation:tools:sge|documentation de SGE]] et la [[faq:accueil#rubriques|FAQ relative à GridEngine]]. +
- +
-===== Utilisation optimale des ressources ===== +
- +
-Pour utiliser au mieux les ressources, il convient de bien remplir les serveurs de calculs. Pour cela, nous disposons de deux moyens : +
- +
-  * remplir "au mieux" (best effort),  +
-  * remplir par multiple de n coeurs (ou n est le nombre de coeurs physiques par serveurs de calcul). +
- +
-Remplir "au mieux" mène rapidement à un morcellement, entre les serveurs de calcul, des applications parallélisées via OpenMPI. +
- +
-Le remplissage "au mieux" n'est donc mis en place pour les applications parallèles OpenMPI que sur certaines queues ; sur les autres le remplissage par multiple d'un serveur de calcul entier est privilégié. +
- +
-===== Allocation des ressources ===== +
- +
-   +
-L'allocation automatique se fait selon deux critéres :  +
-  * Le groupe de serveurs de calcul cible (la file d'attente, ou queue), +
-  * le nombre de coeurs demandé (nombre de slots). +
-     +
-La règle de calcul qui guide l'allocateur de ressource est le **PE** (parallel environment) qui indique si les coeurs doivent être :  +
-  * dans le même serveur de calcul (ex: openmp),  +
-  * dans des serveurs de calcul complets (ex: mpiX_debian, avec X le nombre de coeurs par serveur), +
-  * n'importe où (ex: mpi_debian) **Ceci est une mauvaise idée** et ne devrait être utilisé que pour des petits tests. +
- +
-===== Priorités ===== +
- +
-Une priorité : +
- +
-  * inversement proportionnelle au temps de calcul déjà consommé, +
-  * proportionnelle au temps d'attente et au nombre de coeurs demandé, +
- +
-est appliqué par le système de batch. Ceci afin de répartir plus équitablement les ressources disponibles. +
- +
-====== Les serveurs de soumission ====== +
- +
-Dans la configuration actuelle du système de batch, [[documentation:clusters:services|les serveurs de compilation/frontales]] sont tous des serveurs de soumission. +
- +
-====== Le système de scratch ====== +
- +
-Reportez vous à la [[documentation:tutorials:scratch|page sur nos différents systèmes de scratch]]. +
- +
-====== Les files d'attente ====== +
- +
-:!: **Attention** : Dans le cas d'un code compilé par l'utilisateur, l'architecture processeur et la version de système d'exploitation (OS) déterminent le choix [[documentation:clusters:services#serveurs_de_compilation|du serveur de compilation]] et donc, des files d'attente utilisables. **Toutes nos machines fonctionnent actuellement en OS Debian 9**. +
- +
-<note tip> +
-Un certain nombre de files d'attentes sont spécifiques (et **réservées**) à un programme, un groupe d'utilisateurs, un projet, etc. Ces files sont créés et supprimées en fonction des besoins exprimés auprès du Staff PSMN et ne sont pas documentées. +
-</note> +
- +
-===== Les files courtes ===== +
- +
-Ces files d'attente acceptent les jobs séquentiels, parallèles (openMP, multithreads, etc.) et multi-serveurs (OpenMPI) pour des durées courtes. +
- +
-^  File d'attente  ^  Groupe de serveurs  ^  **PE** (Parallel Environment)  ^  Réseau  ^  Nb de cpus utilisables  ^  Temps maximal  ^  Scratch +
-|    ||||||| +
-|  h48-E5-2670deb128  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi16_debian  |  Infiniband  |  de 16 à 192 (par 16)  |  **48 h**  |  E5  | +
-|    ||||||| +
-|  h48-E5-2670deb128  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp8, openmp16  |  sans objet  |  8 ou 16 par    **48 h**  |  E5  | +
-|    ||||||| +
-|  h6-E5-2667v4deb128  |  [[documentation:clusters:hardware&#groupe_c6320deb128v4|c6320deb128v4]]  |  mpi16_debian  |  Infiniband  |  de 16 à 96 (par 16  |  **6 h**  |  E5  | +
-|    ||||||| +
-|  h6-E5-2667v4deb128  |  [[documentation:clusters:hardware&#groupe_c6320deb128v4|c6320deb128v4]]  |  openmp8, openmp16  |  sans objet  |  8 ou 16 par serveur  |  **6 h**  |  E5  | +
-|    ||||||| +
-===== Les files parallèles multi-serveurs (OpenMPI)===== +
- +
-Le walltime (temps maximum d'éxecution) est de **168 h**, sauf précision. +
- +
- +
-^  File d'attente  ^  Groupe de serveurs  ^  **PE** (Parallel Environment)  ^  Réseau  ^  Nb de cpus utilisables  ^  Temps maximal  ^  scratch +
-|    ||||||| +
-|  CLG6242deb384A  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  mpi32_debian  |  Infiniband  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG6242deb384B bientôt  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  mpi32_debian  |  Infiniband  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG6242deb384C  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  mpi32_debian  |  Infiniband  |  de 32 à 320  (par 32)  |  168 h  |  Lake  | +
-|    ||||||| +
-|  CLG5218deb192A  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  mpi32_debian  |  Infiniband  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG5218deb192B  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  mpi32_debian  |  Infiniband  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG5218deb192C  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  mpi32_debian  |  Infiniband  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG5218deb192D  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  mpi32_debian  |  Infiniband  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG5218deb192Themiss (avec autorisation)  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  mpi32_debian  |  Infiniband  |  de 32 à 320  (par 32)  |  168 h  |  Lake  | +
-|    ||||||| +
-|  SLG5118deb96  |  [[documentation:clusters:hardware&#groupe_c6420deb96|c6420deb96]]  |  mpi24_debian  |  Infiniband  |  de 24 à 384  (par 24)  |  168 h  |  Lake  | +
-|    ||||||| +
-|  SLG6142deb384A  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  mpi32_debian  |  Infiniband  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  SLG6142deb384B  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  mpi32_debian  |  Infiniband  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  SLG6142deb384C  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  mpi32_debian  |  Infiniband  |  de 32 à 128  (par 16)  |  168 h  |  Lake  | +
-|    ||||||| +
-|  SLG6142deb384D  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  mpi32_debian  |  Infiniband  |  de 32 à 256  (par 16)  |  168 h  |  Lake  | +
-|    ||||||| +
-|  E5-2667v2deb128  |  [[documentation:clusters:hardware&#groupe_c8220deb128v2|c8220deb128v2]]  |  mpi16_debian  |  Infiniband  |  de 16 à 384  (par 16)  |  sans limite de temps  |  E5  | +
-|  E5-2667v2deb128nl  |  [[documentation:clusters:hardware&#groupe_c8220deb128v2|c8220deb128v2]]  |  mpi16_debian  |  Infiniband  |  de 16 à 256  (par 16)  |  sans limite de temps  |  E5  | +
-|  E5-2667v2deb128nl  |  [[documentation:clusters:hardware&#groupe_c8220deb128v2|c8220deb128v2]]  |  mpi8_debian  |  Infiniband  |  de 8 à 256  (par 8)  |  sans limite de temps  |  E5  | +
-|  E5-2667v4deb128  |  [[documentation:clusters:hardware&#groupe_c6320deb128v4|c6320deb128v4]]  |  mpi16_debian  |  Infiniband  |  de 16 à 128  (par 16)  |  168 h  |  E5  | +
-|  E5-2667v4deb256A  |  [[documentation:clusters:hardware&#groupe_c6320deb256v4|c6320deb256v4]]  |  mpi16_debian  |  Infiniband  |  de 16 à 384  (par 16)  |  168 h  |  E5  | +
-|  E5-2667v4deb256A  |  [[documentation:clusters:hardware&#groupe_c6320deb256v4|c6320deb256v4]]  |  mpi8_debian  |  Infiniband  |  de 8 à 384  (par 8)  |  168 h  |  E5  | +
-|  E5-2697Av4deb256A  |  [[documentation:clusters:hardware&#groupe_c6320deb256av4|c6320deb256Av4]]  |  mpi32_debian  |  Infiniband  |  de 32 à 384  (par 32)  |  168 h  |  E5  | +
-|    ||||||| +
-|  E5-2670deb128A  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi16_debian  |  Infiniband  |  de 16 à 384 (par 16)  |  168 h  |  E5  | +
-|  E5-2670deb128B  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi16_debian  |  Infiniband  |  de 16 à 384 (par 16)  |  168 h  |  E5  | +
-|  E5-2670deb128C  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi16_debian  |  Infiniband  |  de 16 à 384 (par 16)  |  168 h  |  E5  | +
-|  E5-2670deb128D  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi16_debian  |  Infiniband  |  de 16 à 384 (par 16)  |  168 h  |  E5  | +
-|  E5-2670deb128E  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi16_debian  |  Infiniband  |  de 16 à 384 (par 16)  |  168 h  |  E5  | +
-|  E5-2670deb128F  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi16_debian  |  Infiniband  |  de 16 à 384 (par 16)  |  168 h  |  E5  | +
-|  E5-2670deb128D  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi8_debian  |  Infiniband  |  de 8 à 384 (par 16)  |  168 h  |  E5  | +
-|  E5-2670deb128E  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi8_debian  |  Infiniband  |  de 8 à 384 (par 16)  |  168 h  |  E5  | +
-|  E5-2670deb128F  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  mpi8_debian  |  Infiniband  |  de 8 à 384 (par 16)  |  168 h  |  E5  | +
-|    ||||||| +
-|  SSD-E5-2670deb256A (avec autorisation)  |  [[documentation:clusters:hardware&#groupe_c8220deb256|c8220deb256]]  |  mpi16_debian  |  Infiniband  |  de 16 à 128 (par 16)  |  192 h  |  E5  | +
-|  SSD-E5-2670deb256B (avec autorisation)      [[documentation:clusters:hardware&#groupe_c8220deb256|c8220deb256]]  |  mpi16_debian  |  Infiniband  |  de 16 à 128 (par 16)  |  sans limite de temps  |  E5  | +
-|  SSD-E5-2670deb256C  |  [[documentation:clusters:hardware&#groupe_c8220deb256|c8220deb256]]  |  mpi16_debian  |  Infiniband  |  de 16 à 128 (par 16)  |  sans limite de temps  |  E5  | +
-|    ||||||| +
-|  r820deb768 (avec autorisation)  |  [[documentation:clusters:hardware&#machine_r820deb768|r820deb768]]  |  mpi16_debian  |  Infiniband  |  de 16 à 32 (par 16)  |  sans limite de temps  |  E5  | +
-|    ||||||| +
-|  x5650lin24  |  [[documentation:clusters:hardware#groupe_sl390lin24|sl390lin24]] et [[documentation:clusters:hardware#groupe_c6100lin24|c6100lin24]]  |  mpi12_debian  |  Infiniband  |  de 12 à 288 (par 12)  |  168 h  |  X5  | +
-|  x5650lin24  |  [[documentation:clusters:hardware#groupe_sl390lin24|sl390lin24]] et [[documentation:clusters:hardware#groupe_c6100lin24|c6100lin24]]  |  mpi_debian  |  Infiniband  |  de 2 à 288  |  168 h  |  X5  | +
-|  x5650lin24  |  [[documentation:clusters:hardware#groupe_sl390lin24|sl390lin24]] et [[documentation:clusters:hardware#groupe_c6100lin24|c6100lin24]]  |  namd12  |  Infiniband  |  12    168 h  |  X5  | +
-|    ||||||| +
-|  x5570deb48  |  [[documentation:clusters:hardware##groupes_r422|r422]]  |  mpi8_debian  |  Infiniband  |  de 8 à 192 (par 8)  |  168 h  |  X5  | +
-|    ||||||| +
-|  r815lin128ib  |  [[documentation:clusters:hardware#groupe_r815lin128|r815lin128]]  |  mpi32_debian  |  Infiniband  |  de 32 à 384 (par 32) |  168 h  |  X5  | +
-|    ||||||| +
-===== Les files parallèles mono-serveur (OpenMP)===== +
- +
- +
- +
-^  File d'attente  ^  Groupe de serveurs  ^  **PE** (Parallel Environment)  ^  Réseau  ^  Nb de cpus utilisables  ^  Temps maximal  ^  scratch +
-|    ||||||| +
-|  CLG6242deb384A  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  openmp32, gaussian32  |  sans objet  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG6242deb384B bientôt |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  openmp32, gaussian32  |  sans objet  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG6242deb384C  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  openmp32, gaussian32  |  sans objet  |  de 32 à 320  (par 32)  |  168 h  |  Lake  | +
-|    ||||||| +
-|  CLG5218deb192A  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  openmp32, gaussian32  |  sans objet  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG5218deb192B  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  openmp32, gaussian32  |  sans objet  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG5218deb192C  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  openmp32, gaussian32  |  sans objet  |  de 32 à 768  (par 32)  |  168 h  |  Lake  | +
-|  CLG5218deb192D  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  openmp32, gaussian32  |  sans objet  |  de 32 à 768  (par 32)    168 h  |  Lake  | +
-|  CLG5218deb192Themiss (avec autorisation)  |  [[documentation:clusters:hardware&#groupe_c6420deb192|c6420deb192]]  |  openmp32, gaussian32  |  sans objet  |  de 32 à 320  (par 32)  |  168 h  |  Lake  | +
-|    ||||||| +
-|  SLG5118deb96  |  [[documentation:clusters:hardware&#groupe_c6420deb96|c6420deb96]]  |  openmp24, openmp12  |  sans objet  |  1 x 24 ou 2 x 12  |  168 h  |  Lake  | +
-|    ||||||| +
-|  SLG6142deb384A  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  openmp32, gaussian32  |  sans objet  |  32 par serveur  |  168 h  |  Lake  | +
-|  SLG6142deb384B  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  openmp32, gaussian32  |  sans objet  |  32 par serveur  |  168 h  |  Lake  | +
-|  SLG6142deb384C  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  openmp32, gaussian32  |  sans objet  |  32 par serveur  |  168 h  |  Lake  | +
-|  SLG6142deb384D  |  [[documentation:clusters:hardware&#groupe_c6420deb384|c6420deb384]]  |  openmp32, gaussian32  |  sans objet  |  32 par serveur  |  168 h  |  Lake  | +
-|    ||||||| +
-|  E5-2667v2deb128  |  [[documentation:clusters:hardware&#groupe_c8220deb128v2|c8220deb128v2]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  sans lmite de temps  |  E5  | +
-|  E5-2667v2deb128nl  |  [[documentation:clusters:hardware&#groupe_c8220deb128v2|c8220deb128v2]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  sans lmite de temps  |  E5  | +
-|  E5-2667v4deb128  |  [[documentation:clusters:hardware&#groupe_c6320deb128v4|c6320deb128v4]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | +
-|  E5-2667v4deb256A  |  [[documentation:clusters:hardware&#groupe_c6320deb256v4|c6320deb256v4]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | +
-|  E5-2697Av4deb256  |  [[documentation:clusters:hardware&#groupe_c6320deb256av4|c6320deb256Av4]]  |  openmp32, gaussian32  |  sans objet  |  32 par serveur  |  168 h  |  E5  | +
-|    ||||||| +
-|  E5-2670deb128A  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | +
-|  E5-2670deb128B  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | +
-|  E5-2670deb128C  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | +
-|  E5-2670deb128D  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | +
-|  E5-2670deb128E  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | +
-|  E5-2670deb128F  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp16, gaussian16  |  sans objet  |  16 par serveur  |  168 h  |  E5  | +
-|    ||||||| +
-|  SSD-E5-2670deb256A  |  [[documentation:clusters:hardware&#groupe_c8220deb256|c8220deb256]]  |  openmp16, gaussian16, openmp8, gaussian8  |  sans objet  |  1 x 16 ou 2 x 8  |  sans limite de temps  |  E5  | +
-|  SSD-E5-2670deb256B (avec autorisation)      [[documentation:clusters:hardware&#groupe_c8220deb256|c8220deb256]]  |  openmp16, gaussian16, openmp8, gaussian8    sans objet  |  1 x 16 ou 2 x 8  |  sans limite de temps  |  E5  | +
-|  SSD-E5-2670deb256C (avec autorisation)  |  [[documentation:clusters:hardware&#groupe_c8220deb256|c8220deb256]]  |  openmp16, gaussian16, openmp8, gaussian8    sans objet  |  1 x 16 ou 2 x 8  |  192 h  |  E5  | +
-|    ||||||| +
-|  r820deb768 (avec autorisation)  |  [[documentation:clusters:hardware&#machine_r820deb768|r820deb768]]  |  openmp32, gaussian32, openmp16, gaussian16, openmp8, gaussian8  |  sans objet  |  1 x 32 ou 2 x 16 ou 4 x 8  |  sans limite de temps  |  E5  | +
-|    ||||||| +
-|  x5650lin24  |  [[documentation:clusters:hardware#groupe_sl390lin24|sl390lin24]] et [[documentation:clusters:hardware#groupe_c6100lin24|c6100lin24]]  |  openmp12, gaussian12  |  sans objet  |   12  |  168 h  |  X5  | +
-|    ||||||| +
-|  x5570deb48  |  [[documentation:clusters:hardware##groupes_r422|r422]]  |  openmp8, gaussian8  |  sans objet  |  8  |  168 h  |  X5  | +
-|    ||||||| +
-|  r815lin128ib  |  [[documentation:clusters:hardware#groupe_r815lin128|r815lin128]]  |  openmp32, gaussian32, openmp16, gaussian16, openmp8, gaussian8  |  sans objet  |  1 x 32 ou 2 x 16 ou 4 x 8  |  sans limite de temps  |  X5  | +
-|    ||||||| +
-===== Les files d'attente GPGPU ===== +
- +
-<WRAP center round tip 60%>NVidia drivers **418.43**. **Cuda** is now available as module : cuda/9.0 and cuda/9.2</WRAP> +
- +
- +
- +
-^  File d'attente  ^  Groupe de serveurs  ^  Réseau  ^  Nb de gpus utilisables  ^  Temps maximal  ^  scratch +
-|    |||||| +
-|  r730gpuRTX2080ti (avec autorisation)  |  [[documentation:clusters:hardware&#groupe_r730gpgpu|r730gpgpu]]  |  Infiniband  |  2 RTX2080ti par serveur  |  168 h  |  Lake  | +
-|    |||||| +
-|  r720gpuGTX980 (avec autorisation)  |  [[documentation:clusters:hardware&#groupe_r720gpgpu|r720gpgpu]]  |  Infiniband  |  2 GTX780 par serveur  |  168 h  |  E5  | +
-|  E5-2670gpuK20deb128  |  [[documentation:clusters:hardware&#groupe_c8220deb64|c8220deb128]]  |  Infiniband  |  2 K20 par serveur  |  168 h  |  E5  | +
-===== Les files tests multiprocesseurs ===== +
- +
-==== Tests parallèles multi-serveurs ==== +
- +
-Dédiées aux tests de type <wrap important>MPI</wrap> (Message Passing Interface) : OpenMPI, MPICH ou équivalents (distribution, communication, lectures et écritures parallèles). +
- +
- +
-<WRAP center round alert 60%> +
-Ces files ne fonctionnent pas en OpenMP. Elles servent **exclusivement aux tests MPI**+
 </WRAP> </WRAP>
  
  
-^  File d'attente  ^  Groupe de serveurs  ^  **PE** (Parallel Environment)  ^  Réseau  ^  Nb de cpus utilisables  ^  Temps maximal  ^  Scratch +See [[http://www.ens-lyon.fr/PSMN/Documentation/clusters_usage/index.html|Cluster Usage]]
-|  E5_test  |  [[documentation:clusters:hardware&#groupe_c8220v2deb128|c8220v2deb128]]  |  test_debian  |  Infiniband  |  de 2 à 48, 48 disponibles au total  |  **5mn**  |  E5  | +
- +
-==== Tests parallèles mono-serveur ==== +
- +
-Il est possible de lancer des tests multiprocesseurs (OpenMP, multithreads ou équivalents) jusqu'à deux maximum. +
- +
-^  File d'attente  ^  Groupe de serveurs  ^  **PE** (Parallel Environment)  ^  Réseau  ^  Nb de cpus utilisables  ^  Temps maximal  ^  Scratch +
- h6-E5-2667v4deb128  |  [[documentation:clusters:hardware&#groupe_c6320deb128v4|c6320deb128v4]]   openmp8, openmp16  |  sans objet  |  8, 16  |  **6 h**  |  E5  | +
-|  h48-E5-2670deb128  |  [[documentation:clusters:hardware&#groupe_c8220deb128|c8220deb128]]  |  openmp8, openmp16  |  sans objet  |  8, 16  |  **48 h**  |  E5  | +
- +
-===== Les files monoprocesseur ===== +
- +
-^  File d'attente  ^  Groupe de serveurs  ^  Nb de cpus utilisables  ^  Temps maximal  ^  Scratch +
-| monointeldeb48 (4Go par coeur)  |  [[documentation:clusters:hardware#groupe_sl390lin48|sl390lin48]]  |  184 au maximum  |  168 h  |  X5  | +
-| monointeldeb128 (16Go par coeur)  |  [[documentation:clusters:hardware#groupe_r730gpgpu|r730gpgpu]]  |  96 au maximum  |  168 h  |  Lake  | +
-| matlab (2Go par coeur)  |  [[documentation:clusters:hardware#machine_r815lin192|r815lin192]]  |  20 au maximum    336 h  |  X5  | +
-| matlabbig (12Go par coeur)  |  [[documentation:clusters:hardware#machine_r815lin192|r815lin192]]  |  4 au maximum  |  744 h  |  X5  | +
-| r820deb768 (24Go par coeur)  |  [[documentation:clusters:hardware&#groupe_r820deb768|r820deb768]]  |  32 au maximum  |  744 h  |  E5  | +
- +
-===== Les files tests monoprocesseurs ===== +
- +
-Il n'y a pas de files spécifiques pour les tests monoprocesseurs. Utilisez les frontales (dans les limites du raisonnable). +
- +
-===== Les files spécifiques ===== +
- +
-Un certain nombre de files d'attentes sont spécifiques à un programme, un groupe d'utilisateurs, un projet, etc. Ces files sont créés et supprimées en fonction des besoins exprimés auprès du Staff PSMN et ne sont pas documentées. De même certaines queues peuvent voir leur nombre de coeurs utilisables diminué pour cause de maintenance ou d'usage spécifique. +
documentation/clusters/batch.1583348752.txt.gz · Dernière modification : 2020/08/25 15:58 (modification externe)