Fernando Machado Mendonca - Multi-purpose Efficient Resource Allocation for Parallel Systems

12:30
Mardi
23
Mai
2017
Organisé par : 
Fernando Machado Mendonca
Intervenant : 
Fernando Machado Mendonca
Équipes : 

Membres du Jury :

M. Denis TRYSTRAM, professeur à l'Université Grenoble Alpes
M. Philippe NAVAUX, professor da Universidade Federal do Rio Grande do Sul
M. Pascal BOUVRY, professeur à l'Université du Luxembourg
M. Frédéric GUINAND, professeur à l'Université Le Havre Normandie
M. Guillaume MERCIER, maître de conférences à l'INP de Bordeaux
M. Frédéric SUTER, chargé de recherche à l'ENS de Lyon
M. Giorgio LUCARELLI, chercheurc ontractuel à INRIA Grenoble

Retransmission en direct de la soutenance à l'adresse suivante :

https://www.youtube.com/watch?v=NoAOEVqbz8A

Les plateformes de calcul à grande échelle ont beaucoup évolué ces dernières années. La réduction des coûts des composants simplifie la construction de machines possédant des multiœurs et des accélérateurs comme les GPUs. Ceci a permis une propagation des plateformes à grande échelle, dans lesquelles les machines peuvent être éloignées les unes des autres, pouvant même être situées sur différents continents. Le problème essentiel devient alors d'utiliser ces ressources efficacement.

Dans ce travail nous nous intéressons d'abord à l'allocation efficace de tâches sur plateformes hétérogènes composées CPU et de GPUs. Pour ce faire, nous proposons un outil nommé SWDUAL qui implémente l'algorithme de Smith-Waterman simultanément sur CPU et GPUs, en choisissant quelles tâches il est plus intéressant de placer sur chaque type de ressource. Nos expériences montrent que SWDUAL donne de meilleurs résultats que les approches similaires de l'état de l'art.

Nous analysons ensuite une nouvelle méthode d'ordonnancement en ligne de tâches indépendantes de différentes tailles. Nous proposons une nouvelle technique qui optimise la métrique du stretch. Elle consiste à déplacer les jobs qui retardent trop de petites tâches sur des machines dédiées. Nos résultats expérimentaux montrent que notre méthode obtient de meilleurs résultats que la politique standard et qu'elle s'approche dans de nombreux cas des résultats d'une politique préemptive, qui peut être considérée comme une borne inférieure.

Nous nous intéressons ensuite à l'impact de différentes contraintes sur la politique FCFS avec backfilling. La contrainte de contiguïté essaye de compacter les jobs et de réduire la fragmentation dans l'ordonnancement. La contrainte de localité basique place les jobs de telle sorte qu'ils utilisent le plus petit nombre de groupes de processeurs appelés clusters. Nos résultats montrent que les bénéfices de telles contraintes sont suffisants pour compenser la réduction du nombre de jobs backfillés due à la réduction de la fragmentation.

Nous proposons enfin une nouvelle contrainte nommée localité totale, dans laquelle l'ordonnanceur modélise la plateforme par un fat tree et se sert de cette information pour placer les jobs là où leur coût de communication est minimal. Notre campagne d'expériences montre que cette contrainte obtient de très bons résultats par rapport à un backfilling basique, et de meilleurs résultats que les contraintes précédentes.