Ceci est une ancienne révision du document !
Le PSMN et le P2CHPD (Lyon 1) partagent un serveur de licences. Il y a 5 jetons pour le compilateur Intel.
Versions disponibles :
Tableau récapitulatif :
Compilateur | version | commande(s) | chemin d'accès | modèle de configuration |
---|---|---|---|---|
Intel | 2019.5 | ifort, icc | /applis/PSMN/debian9/software/Compiler/intel/2019.5/bin/ | utilisez le modulefile |
modulefile : intel/2019.5 | ||||
Intel | 2017.4 | ifort, icc | /applis/PSMN/debian9/software/Local/IntelComp/2017.4/bin/ | utilisez le modulefile |
modulefile : intel/2017.4 | ||||
Intel | 15.0.2 | ifort, icc | /applis/PSMN/compil/intel/v15/bin/ | utilisez le modulefile |
modulefile : intel/15.0.2 |
export I_MPI_FABRICS = shm: ofa
Cela devrait forcer l'utilisation d'un protocole plus approprié pour les communications MPI et devrait donc réduire considérablement le temps CPU si vous avez beaucoup de communications MPI dans votre travail.
Toutes les versions d'openmpi n'ont pas été compilé avec les compilateurs Intel. Se référer au tableau pour les versions disponibles.
Pour les clusters debian 7, il faut utiliser les modulefiles (consulter Environment Modules) pour charger l'environnement.
Pour les clusters centos 5.x, il faut ajouter la ligne suivante dans le script d'appel :
source /usr/local/modeles/openmpi-No_de_version_openmpi-intel-No_de_version
avec No_de_version_openmpi
et No_de_version
à trouver dans le tableau ci-dessous.
Tableau récapitulatif :
Compilateur | version | commande(s) | chemin d'accès | version d'openmpi | modèle(s) de configuration |
---|---|---|---|---|---|
Intel | 15.0.2 | mpif77, mpif90, mpicc, mpiCC, mpic++ | /applis/PSMN/debian7/openmpi/2.0.1/intel/15.0.2/bin | 2.0.1 | N/A |
modulefile : openmpi/2.0.1-intel-15.0.2 | |||||
Intel | 14.0.1 | mpif77, mpif90, mpicc, mpiCC, mpic++ | /softs/openmpi-<version>-intel-14.0.1-debian7/bin/ | 1.6.4, 1.8.4 | /usr/local/modeles/openmpi-<version>-intel-14.0.1-debian7.(sh,csh) |
modulefile : openmpi/1.6.4-intel-14.0.1, openmpi/1.8.4-intel-14.0.1 | |||||
Intel | 12.0.084 | mpif77, mpif90, mpicc, mpiCC, mpic++ | /softs/openmpi-<version>-intel-12.0.084-debian7/bin/ | 1.5.4, 1.6.4 | /usr/local/modeles/openmpi-<version>-intel-12.0.084-debian7.(sh,csh) |
modulefile : openmpi/1.6.4-intel-12.0.084 | |||||
Intel | 12.0.084 | mpif77, mpif90, mpicc, mpiCC, mpic++ | /softs/openmpi-<version>-intel-12.0.084/bin/ | 1.4.1, 1.4.3, 1.4.4, 1.5.4 | /usr/local/modeles/openmpi-<version>-intel-12.0.084 |
modulefile : openmpi/1.5.4-intel-12.0.084 |
qsub exempleOpenMP.csh
#!/bin/tcsh # ### variables SGE ### shell du job #$ -S /bin/tcsh ### nom du job (a changer) #$ -N ProgrameOpenMP ### file d'attente (a changer) #$ -q E5-2667v2h6deb128 ### parallel environment & nb cpu (NSLOTS) #$ -pe openmp8 8 ### charger l'environnement utilisateur pour SGE #$ -cwd ### exporter les variables d'environnement sur tous les noeuds d'execution #$ -V ### mails en debut et fin d'execution #$ -m be # aller dans le repertoire de travail/soumission # important, sinon, le programme est lancé depuis ~/ cd ${SGE_O_WORKDIR} ### configurer l'environnement source /usr/share/modules/init/tcsh module use /applis/PSMN/Modules module load Base/psmn module load intel/14.0.1 setenv OMP_NUM_THREADS "8" ### execution du programmeOpenMP ./programeOpenMP.exe # fin ###