SIESTE 2008-2009

Séminaire d'Informatique pour les Etudiants, Scientifiques, et Tous ceux que l'informatique intéresse à l'ENS Lyon

---------------- 

Note aux orateurs
Contact et renseignements : Natacha Portier
Tous les séminaires ont lieu le mardi à 13h30 dans l'amphi B ou dans l'amphi Schrödinger de l'ENS Lyon


Date Orateur Titre  
mardi 16 septembre 2008 Sylvie Boldo
Pourquoi mon ordinateur calcule faux? Transparents
mardi 7 octobre 2008
Olivier Laurent  Jouons avec les programmes
 
mardi 21 octobre 2008
Johanne Cohen
Algorithmes et protocoles de population : Que peux-t-on calculer avec une population d'oiseaux ? 
 
mardi 28 octobre 2008
Nicolas Magaud
De la géométrie projective en Coq  
mardi 4 novembre 2008
Guillaume Beslon
Evolution artificielle : petits aller-retours entre modélisation et optimisation
 
mardi 18 novembre 2008
Pierre Fraigniaud  Navigability Emergence in Social Networks  
mardi 2 décembre 2008
Emmanuel Hainry Calculer sur les réels, calculer avec les réels  
mardi 16 décembre 2008
Eric Colin de Verdiere Raccourcissement de courbes et décomposition de surfaces  
mardi 6 janvier 2009
Pierrick Gaudry Factoriser des entiers pour casser RSA
 
mardi 27 janvier 2009
Nicolas Trotignon
Décomposition de graphes
 
mardi 10 février 2009
Annulé pour cause de grève
 
mardi 24 février 2009
Guillaume Malod
Calculs du déterminant  
mardi 3 mars 2009
Pierre Kestener  Calcul scientifique performant sur carte graphique; exemple d'applications en traitement d'image : accélération d'un algorithme d'Inpainting ici  
mardi 17 mars 2009
Jean-Yves Marion Virologie théorique et le problème de la détection
 
mardi 7 avril 2009
Oded Maler
On the Roles of Computer Science in Systems Biology  
mardi 21 avril 2009
Damien Regnault Minorité stochastique sur les graphes  

Résumés


Minorité stochastique sur les graphes

Damien Regnault, LIP


Nous considérons un graphe où les cellules sont caractérisées par un état qui est soit noir, soit blanc. À chaque pas de temps, une cellule, choisie aléatoirement, se met à jour et passe dans l'état minoritaire dans son voisinage. L'évolution globale de ce processus ne semble pas dépendre de la topologie du graphe: dans un premier temps des régions, pavées par des motifs dépendant de la topologie du graphe, se forment rapidement. Puis dans un deuxième temps, les frontières entre ces régions évoluent jusqu'à devenir relativement stables. Nous étudions ce processus sous différentes topologies : arbres, anneaux, grilles, cliques. Ceci nous permet de montrer que même si ce processus se comporte à priori globalement de la même manière sur n'importe quel graphe, modifier la topologie influence la façon dont les régions sont pavées (rayures, damiers), la structure et les mouvements des frontières entre les régions, l'ensemble limite, le temps de relaxation (le temps nécessaire pour que le processus atteigne une configuration de l'ensemble limite). Ainsi, Minorité entraîne des comportements riches et variés qui se révèlent difficile à analyser. Comprendre cette règle simple est néanmoins nécessaire  avant de considérer des règles plus compliquées.

Du théorème de récursion de Kleene à la détection virale

Jean-Yves Marion, professeur d'université au LORIA

Dans cet exposé, nous traiterons de virologie informatique et de codes malveillants. Si les enjeux de société sont clairs, la recherche académique ne s'’est guère intéressée à ce sujet. Pourtant, nous verrons que la virologie s’'appuie sur des résultats importants comme le théorème de récursion de Kleene ou comme  les systèmes autoreproducteurs (von Neumann). Nous dresserons un rapide état général de la recherche et des problèmes soulevés. En particulier, nous aborderons la délicate question de la détection des malwares.


Calcul scientifique performant sur carte graphique; exemple d'applications en traitement d'image : accélération d'un algorithme d'Inpainting

Pierre Kestener, ingénieur-chercheur au CEA à Saclay.

Je présenterai en préalable quelques rudiments sur la programmation des cartes graphiques modernes et expliquerai pourquoi il y a une grosse effervescence actuelle autour de leur utilisation en calcul scientifique.

Calculs du déterminant

Guillaume Malod, maître de conférences, équipe de logique de Jussieu, sous-équipe complexité et applications à l'informatique,  Paris 7

Le déterminant est un objet mathématique bien connu pour le rôle qu'il joue en algèbre linéaire, où l'on donne en général un calcul par élimination. Mais il est aussi intéressant pour ses interprétations en complexité et en combinatoire. Je présenterai certain de ces aspects, ainsi que des questions ouvertes qui demeurent.


On the Roles of Computer Science in Systems Biology

Oded Maler , CNRS-VERIMAG

In this talk I argue that informatics (computer science) is not only a functional *tool* in the service of Biology, but that it should be a fundamental part of the mathematics and physics of Biology. In particular, certain threads of CS research (which I, incidently, happen to work on) can facilitate the proliferation of more unified dynamical systems models into Biology. To show what I mean I first give a crash course in verification and then illustrate with 3 examples: adding timing information to genetic regulatory networks, reducing the number of false positives in discrete abstractions of continuous dynamical systems and computing tubes of trajectories for some nonlinear systems.


Décomposition de graphes

Nicolas Trotignon, chargé de recherche CNRS, LIAFA

A travers un exemple, nous verrons comment des théorèmes de décomposition de graphes aident à résoudre des questions algorithmiques (coloration, détection de sous-graphes). L'exemple que nous étudierons sera celui de la classe des graphes ne contenant pas de cycle avec une seule corde comme sous-graphe induit. Nous montrerons que ces graphes sont ou bien dans une classe de base très simple, ou bien décomposables selon des règles simples elles aussi. Nous un déduirons un algorithme de coloration. Nous replacerons l'étude de cette classe de graphes dans un contexte de recherche plus général et très actif ces dernières années.


Factoriser des entiers pour casser RSA

Pierrick Gaudry, chargé de recherche CNRS, projet CACAO, LORIA

Le système de cryptographie à clef publique RSA est le plus célèbre et est encore très largement utilisé. C'est par exemple très souvent grâce à lui que les connections "https" sont sécurisées. La sécurité de RSA s'appuie sur la difficulté algorithmique qu'il y a à trouver la décomposition en facteurs premiers d'un entier donné: c'est le problème de la factorisation. Dans cet exposé, je présenterai quelques algorithmes de factorisation, du plus simple, où l'on essaie de diviser par tous les nombres premiers dans l'ordre, au plus complexe, l'algorithme du crible algébrique qui est mis en oeuvre pour les plus grosses factorisations. J'illustrerai mon propos avec des données numériques issues du calcul en cours RSA-768, qui devrait établir un nouveau record lorsqu'il sera terminé.

Raccourcissement de courbes et décomposition de surfaces

Eric Colin de Verdière, Chargé de recherche CNRS dans l'équipe GéCoaL du Département d'Informatique de l'École normale supérieure (Paris).

Étant donnée une surface « compliquée » (homéomorphe à une sphère à laquelle on accole des poignées), comment la découper pour la rendre planaire (homéomorphe à un disque) ?  Comment trouver la plus courte courbe fermée qu'on ne peut pas contracter en un point en restant sur la surface ?  Comment raccourcir autant que possible une courbe sur une surface ?

Le but de l'exposé est de présenter les techniques algorithmiques développées récemment pour résoudre ce type de questions, qui appartiennent au domaine de la topologie algorithmique et qui sont motivées par diverses applications.  Par exemple, découper une surface constitue souvent un passage obligé en infographie (pour y plaquer une texture) ou en modélisation géométrique (pour la paramétrer par un domaine planaire).




Calculer sur les réels, calculer avec les réels

Emmanuel Hainry, maître de conférences au LORIA

Les ordinateurs classiques manipulent des entiers en un temps discret. Malgré cela, ils sont souvent utilisés pour simuler des phénomènes physiques essentiellement continus se déroulant en temps continu. Il existe pourtant des machines, systèmes et modèles travaillant en temps continu et/ou sur un espace continu. Ces machines semblent donc mieux préparées pour réaliser ces simulations. Nous verrons dans cet exposé différentes machines et différents modèles de calcul sur les réels. Nous présenterons en particulier les problèmes qu'amènent le temps continu et l'espace continu. Nous verrons également que divers modèles peuvent avoir des puissance de calcul diverses qui peuvent aller au delà de ce que peut calculer un ordinateur classique.

Navigability Emergence in Social Networks

Pierre Fraigniaud, Directeur de Recherche au cnrs, LIAFA

We propose a dynamical process for network evolution, aiming at explaining the emergence of the small world phenomenon, i.e., the statistical observation that any pair of individuals are linked by a short chain of acquaintances  computable by a simple decentralized routing algorithm, known as greedy routing. Previously proposed dynamical processes enabled to demonstrate experimentally (by simulations) that the small world phenomenon can emerge from local dynamics. However, the analysis of greedy routing using the probability distributions arising from these dynamics is quite complex because of mutual dependencies.  In contrast, our process enables complete formal analysis. It is based on the combination of two simple processes: a random walk process, and an harmonic forgetting process. Both processes reflect natural behaviors of the individuals, viewed as nodes in the network of inter-individual acquaintances. We prove that, in k-dimensional lattices, the combination of these two processes generates long-range links mutually  independently distributed as a k-harmonic distribution. We analyze the performances  of greedy routing  at the stationary regime  of our process, and prove that the expected number of steps for routing from any source to any target in any multidimensional lattice is a polylogarithmic function  of the distance between the two nodes in the lattice. Up to our knowledge, these results are the first formal proof that navigability in small worlds can emerge from a dynamical process for network evolution. Our dynamical process can find practical applications to the design of spatial gossip and resource location protocols.



Évolution artificielle : petits aller-retours entre modélisation et optimisation


Guillaume Beslon, Maître de Conférences au LIRIS

L'évolution artificielle est à la fois une technique d'optimisation maintenant classique (généralement connue sous l'appellation d'algorithmes génétiques) et une technique de modélisation et de simulation de l'évolution biologique. Cependant, par bien des aspects, les algorithmes évolutionnaires sont très différents des objets biologiques dont ils sont inspirés. Dès lors se posent deux questions clés : (i) qu'impliquent ces différences sur la connaissance produite par les modèles évolutifs ? et (ii) serait-il possible d'améliorer les performances des algorithmes évolutionnaires en les "rapprochant" de la biologie ? Au cours de ce séminaire, je présenterai dans un premier temps les principes de la sélection indirecte de l'évolvabilité (ou "évolution de second ordre"). La sélection indirecte permet à l'évolution de sélectionner les lignées les plus aptes à évoluer. Elle est donc susceptible d'améliorer les performances des algorithmes. Après avoir rapidement montré pourquoi la sélection de l'évolvabilité n'est pas possible dans les algorithmes évolutionnaires "classiques", je présenterai le modèle aevol, dédié à l'étude de la sélection indirecte. Ce modèle a permis de montrer certaines des implications de la sélection indirecte sur les génomes bactériens. Je conclurai en montrant comment aevol peut être décliné en un algorithme évolutionnaire dédié à l'optimisation et les intérêts d'une telle déclinaison.

De la géométrie projective en Coq

Nicolas Magaud, Maître de conférences en Informatique à l'Université Louis Pasteur de Strasbourg. Membre de l'équipe IGG du LSIIT.

La géométrie et son axiomatisation sont étudiées par les mathématiciens depuis l'Antiquité. Ce domaine d'étude très riche se prête bien à la formalisation telle qu'elle peut se faire dans l'assistant de preuve Coq.

Dans cet exposé, nous étudions une géométrie particulière : la géométrie projective (où dans le plan, deux droites se croisent toujours) principalement en 2D et en 3D. Dans ce cadre, nous décrivons formellement une théorie axiomatique pour la géométrie projective. Nous construisons ensuite des modèles de cette théorie.  Finalement, nous mettons en oeuvre des outils mathématiques comme la notion de matroïde fini dans le but de systématiser les preuves de théorèmes de
la géométrie projective.

Ce travail, à la fois théorique et pratique, modélise au sens mathématique du terme certains notions de géométrie et permet aussi de tirer avantage des outils informatiques pour construire interactivement des preuves dont la correction est vérifiée automatiquement par la machine. La formalisation de ces démonstrations sur ordinateur renforce de manière très significative la garantie qu'elles sont correctes.





Algorithmes et protocoles de population : Que peux-t-on calculer avec une population d'oiseaux ?

Johanne Cohen, Chargée de recherche CNRS, Palaiseau

Les  protocoles de populations ont été introduits par Angluin et al  pour modéliser des réseaux de capteurs, sans contrôle sur leurs mouvements.  Un  protocole de population  correspond à un ensemble d'agents anonymes,  qui interagissent les uns avec les autres  par paires pour mener à bien un calcul. Par exemple, on cherche à détecter si plus que 5% d'oiseaux d'un groupe possèdent une certaine propriété, par le biais d'interactions par paires entre capteurs attachés à ces oiseaux.

 Dans cet exposé,  nous présentons des algorithmes de base  comme l'élection d'un chef, le calcul de la majorité. Nous discuterons ensuite la puissance de calcul de ces protocoles de populations qui correspond aux prédicats définissables dans la logique de  Presburger (travaux de Aspnes et al).

De plus, nous discuterons un protocole de population  qui calcule  un nombre irrationnel algébrique quand la population tend vers l'infini.

Jouons avec les programmes

Olivier Laurent, chargé de recherche CNRS au LIP

Il n'est pas difficile d'écrire des programmes compliqués ! Un objectif de la sémantique (dénotationnelle) est de nous fournir des outils mathématiques pour mieux comprendre les programmes et les langages de programmation. On partira d'une interprétation des programmes comme de simples fonctions (des entiers dans les entiers pour des programmes de type nat->nat, puis avec des domaines plus riches) pour montrer que ces fonctions -- même si elles nous fournissent des informations sur ce que calculent les programmes -- ne suffisent pas à représenter certaines structures des algorithmes. On remplacera alors les fonctions par des stratégies dans des jeux à deux joueurs (Joueur, qui représente le programme étudié, et Opposant, qui représente son environnement d'exécution). Cette sémantique des jeux permet un interprétation très précise des programmes et une analyse fine des différentes primitives de programmation que ceux-ci utilisent.



Pourquoi mon ordinateur calcule faux?

Sylvie Boldo chargée de recherche INRIA, LRI.

Nous confions à nos ordinateurs de nombreux calculs (météo, simulations aéronautiques, jeux vidéos, feuilles Excel...) et nous considérons naturellement que l'ordinateur fournira une réponse juste.

Malheureusement, la machine a ses limites que l'esprit humain n'a pas Elle utilise une arithmétique dite flottante qui a ses contraintes. D'une part chaque calcul est effectué avec un certain nombre de chiffres (souvent environ 15 chiffres décimaux) et donc chaque calcul peut créer une erreur, certes faible, mais qui peut s'accumuler avec les précédentes pour fournir un résultat complètement faux. D'autre part, les valeurs que l'ordinateur appréhende ont des limites vers l'infiniment petit et l'infiniment grand. Hors de ces bornes, l'ordinateur produit des valeurs spéciales souvent inattendues. Cet exposé montrera que l'ordinateur n'est pas infaillible ou plutôt que son utilisation est parfois abusive.



Last Updated ( Monday, 20 April 2009 )  
[ Back ]