14 novembre 2019

 

Thème

A l'occasion de l'arrivée des 2 nouvelles machines Gemini (Nvidia DGX-1), hébergées au LIP dans la plateforme Grid'5000, cette journée abordera diverses thématiques de recherche autour des GPUs, avec des exposés portant sur l'architecture et la programmation de ceux-ci, ainsi que leurs applications dans le domaine du calcul scientifique et de l'apprentissage.
 

Organisation

La prochaine «journée calcul» est organisée par le LIP et le thème TIDCHP de la FIL.

 

Localisation et inscription

Pour des raisons d'organisation, merci d'indiquer votre participation sur ce doodle avant le 12 novembre :

https://evento.renater.fr/survey/inscription-a-la-journee-calcul-du-lip-du-14-novembre-v7ph1tf4

La journée aura lieu à l'ENS de Lyon, site Monod, dans l'amphi J.

 

Programme prévisionnel

Matin :
 
11h30-13h30 : Pause midi
 
Après Midi :

 

Résumé des présentations

 

NVIDIA presentation should aim at sharing a short introduction of NVIDIA and explaining why NVIDIA became the AI company. We'll see what are the key AI technology trends today and the NVIDIA Hardware as well as software solutions to accelerate the AI research. We'll share few words about our NVIDIA Deep Learning Institute academic program. Gunter Roth, our Solution Architect, will deep dive on the usage of NGC, particularly the containers provided in this library, as well as on the activation of GPU Tensor Cores and benefits of the mixed precision. And finally Gunter will share some pointers on how to scale DeepLearning training with MultiGPU systems.

 

A l'inverse du CPU, qui est un processeur généraliste, le GPU tire sa haute capacité de traitement de son architecture particulière. Celle-ci se répercute dans l'emploi de modèles spécifiques de développement afin de garantir, non seulement le résultat fonctionnel des algorithmes, mais aussi l'utilisation optimale de sa puissance théorique de traitement. Cette présentation abordera les méthodes de programmation à mettre en place pour exploiter efficacement cette architecture, en prenant pour exemple CUDA et les GPUs Nvidia. L'ensemble sera illustré par un cas pratique et concret de traitement d'image: le flot optique.

 

For 4 years, Jonathan Rouzaud-Cornabas has joined the Inria Beagle team, a computational biology team (experimental evolution, neuroscience, cell-
biology). The presentation will focus on the experimental evolution topic and will present how the main application, Aevol (an in-silico experimental evolution platform), has been rethinked to take advantage of the new computing platform. From this application, limitations of classical parallel computing approaches have emerged. The presentation will show how we have tackled (and plan to tackle) them. Finally, we will present our on-going projects focusing on two subjects: irregular applications on multi-GPU and mixed-precision ODE solver.

 

Partout, on parle d'augmentation de puissance de calcul des ordinateurs mais comment et en quoi ces capacités ont-elles évolué ces 30 dernières
années ?
Quoi de plus illustratif que de chercher à "retrouver" par la simulation une image comparable à celle qui a inondé nos médias en ce printemps 2019 : celle d'un trou noir et son écharpe de plasma.
Partant du premier article représentant un trou noir, un programme de 25 ans d'âge sera parallélisé en OpenMP, OpenCL puis CUDA, et enfin exécuté sur 30 différents "moteurs de traitement de l'information" : des processeurs, classiques, graphiques et éphémères : ceux qui existaient il y a 30 ans, ceux qui émergeaient il y a 10 ans et ceux d'aujourd'hui.
Ainsi, entre l'antique 80386SX d'il y a 30 ans et l'atomique Tesla V100, c'est un milliard de gain pour seulement 100 fois sa consommation électrique. Et tout ça, grâce l'intégration de ce "vieux code C" directement dans du code Python...

 

 

 logoFIL