Programme de travail


 

Le programme scientifique est structuré autour de trois tâches, liées aux trois objectifs du projet :
 
  1. Nouvelles méthodologies algorithmiques.
  2. Nouveaux outils théoriques pour caractériser le succès et l’échec des algorithmes.
  3. Reconstruction volumique en PIV tomographique.

 

Les tâches 1 et 2 sont motivées par l’hypothèse naturelle de parcimonie et le caractère mal-conditionné du problème de PIV tomographique. Leur étendue est plus large que la PIV tomographique, alors que la tâche 3 est une spécialisation à la PIV tomographique.

 

Tâche 1. Les méthodologies algorithmiques se concentreront autour de trois axes.
  1. Les algorithmes qui utilisent des dictionnaires continus. Jusqu’à présent, nous avons utilisé des dictionnaires discrets induits par la discrétisation d’atomes sur une grille 3D. Le conditionnement du problème de reconstruction parcimonieuse étant mauvais pour des grilles finement résolues, nous voulons comprendre dans quelle mesure certains algorithmes continus récemment proposés peuvent être plus efficaces que les algorithmes discrets, et proposer de nouveaux algorithmes continus.
  2. Gérer la contrainte de positivité, une hypothèse naturelle en reconstruction tomographique. La plupart des algorithmes classiques peuvent être facilement adaptés à la reconstruction parcimonieuse sous contrainte de positivité. Ce n’est pas le cas des algorithmes gloutons orthogonaux. Leur adaptation a été récemment proposée avec une implémentation récursive, mais l’étape de projection orthogonale est résolue approximativement. Il est nécessaire d’évaluer l’influence de cette approximation sur la précision de la reconstruction parcimonieuse, avant de proposer de nouveaux algorithmes de type glouton.
  3. Les algorithmes gloutons « forward-bacwkard » accélérés. La stratégie d’accélération reposera d’une part sur des techniques de screening (aussi appelées « pruning » en PIV tomographique) permettant de détecter a priori des atomes non-actifs de la représentation parcimonieuse. D’autre part, l’accélération d’algorithmes gloutons semble possible en découplant le problème inverse original en grande dimension en un ensemble de sous-problèmes de plus petites dimensions.

 

Tâche 2. Comprendre le comportement moyen des algorithmes est un défi important en reconstruction tomographique PIV, car les garanties classiques au pire cas sont extrêmement pessimistes. L’analyse en moyenne d’algorithmes parcimonieux pour des dictionnaires déterministes est un problème ouvert majeur. Nous allons d’abord aborder des problèmes plus simples afin de mieux conjecturer le comportement moyen d’algorithmes gloutons. D’abord, une analyse d’échec garanti nous permettra de caractériser la pire performance des algorithmes. Deuxièmement, l’analyse de succès pour des familles spécifiques de signaux parcimonieux, comme les représentations avec des coefficients fortement décroissants ou des signes de coefficients aléatoires nous permettra de réduire  le fossé entre succès garanti et échec garanti. L’analyse d’algorithmes d’approximation parcimonieuse reposant sur des dictionnaires continus est un autre défi majeur. Nous proposons d’étendre des conditions de reconstruction exacte classiques du cas discret vers le cas continu.

 

Tâche 3. Reconstruction en PIV tomographique. Nous allons d’abord tester des algorithmes non-convexes en utilisant des jeux de données représentatifs synthétiques, et des données réelles disponibles. Cette évaluation doit confirmer que la précision est meilleure que celle des algorithmes convexes. La précision et la complexité des algorithmes seront évaluées en fonction du rapport signal-sur-bruit (SNR) et de la densité de particules, deux facteurs limitants. Ensuite, nous allons concevoir des nouvelles méthodes de « screening » pour la PIV tomographique pour des SNRs modérés à faibles. Les techniques traditionnelles de screening peuvent détecter de façon efficace des atomes inactifs du dictionnaire lorsque le SNR est élevé. Mais leur performance se dégrade pour des SNRs plus faibles, et le nombre d’atomes inactifs détectés décroît largement. Nous proposons de revisiter des algorithmes classiques de screening et de les étendre au cadre bruité. La PIV tomographique fait intervenir de grands jeux de données. Bien que le traitement temps-réel n’est pas obligatoire, l’implémentation d’algorithmes repose sur des calculs massivement parallèles sur cartes graphiques GPU. Un autre axe important de la tâche 3 concerne donc l’implémentation en parallèle des algorithmes élaborés dans la tâche 1.

 
 
 
Dernière modification : 13/02/2016 à 01:15:25