rencontre du non-lin´ eaire 2010 205 ✭✭ Compressive Sensing ✮✮ en utilisant le Chaos Lei Yu 1,2,3 , Jean-Pierre Barbot 2,3 Gang Zheng 3 & Hong Sun 1 1 Signal Processing Laboratory, Whuan University, China 2 ECS-EA 3649, ENSEA, 6 Avenue du Ponceau, 95014, Cergy-Pontoise 3 EPI-ALIEN INRIA barbot@ensea.fr esum´e La m´ethode dite de l’acquisition comprim´ee plus connue sous le vocable anglo-saxon de ‘Compres- sive Sensing’ est une nouvelle m´ethode qui permet de capturer et de retrouver par la suite un signal ´echantillonn´e`adesfr´equences sous Nyquist. Afin de garantir la reconstitution parfaite du signal, cette ethode requi`ere la construction d’une matrice dite ‘sensing’ matrice, poss´edant des propri´et´es d’inversion particuli`eres. Ici, une construction de cette matrice `a l’aide de s´equences issues d’un syst`eme chaotique est propos´ee et il est prouv´e que cette matrice v´erifie avec une ´ecrasante probabilit´e (sup´erieure `a une construction al´eatoire de type Gaussien) les propri´et´es de reconstruction requises. 1 Introduction et Pr´eliminaires Le concept r´ecemment d´evelopp´e en traitement du signal dit du ‘Compressive Sensing CS’, attire l’attention de nombreux chercheurs. ` A la diff´erence de la th´eorie traditionnelle d’´echantillonnage des donn´ees, l’acquisition des signaux et la compression de ces derniers se font en mˆeme temps avec le C.S., ceci permet aux signaux d’ˆetre ´echantillonn´es `a des fr´equences inf´erieures `a la fr´equence de Nyquist et de conserver une reconstruction exacte apr`es d´ecompression [6]. La proc´edure du ‘Compressive Sensing’ peut ˆetre exprim´ee comme une projection lin´eaire y = Φv (1) o` u les v R n sont les signaux originaux, Φ R m×n est la matrice d’acquisition compression et y R m est la mesure. En CS m est toujours tr`es petit par rapport `a n, ce qui r´eduit consid´erablement la longueur des signaux. Mais, cela a pour cons´equence que l’inversion de l’´equation (1) est grandement ind´etermin´ee. Ceci conduit `a l’hypoth`ese fondamentale en CS, dite de l’´eparpillement ‘sparsity’ des signaux. De fa¸ con simple les signaux sont suppos´es ˆetre constitu´es d’une majorit´e de z´eros dans une ‘base appropri´ee’ (frequentiel, ondelette,..), sous cette hypoth`ese `a partir de (1) et de la connaissance de y les signaux v peuvent ˆetre retrouv´es. D ˜ Ac finition 1 (Sparsity) Soit le vecteur v R n et notons Card(v)= Card{v i =0,i [1,n]} le nombre d’´el´ements de v diff´erent de Z´ero, alors le vecteur v est dit un ‘s-sparsity’ vecteur, si Card(v) s n. La D´efinition 1, nous permet de d´efinir l’ensemble Σ s des vecteurs ´eparpill´es ‘s-sparsity’ comme suit : Σ s = {v R n | Card(v) s} (2) Intuitivement, l’inversion de l’´equation (1) peut ˆetre r´esolus par la recherche du plus petit vecteur au sens de l’´eparpillement v´erifiant (1) pour un y donn´e, c a d le v Σ s avec le plus petit s. Ce qui s’´ecrit [6] : v = arg min Φv=y v 0 (3) o` u v 0 est la norme 0 et d´esigne le nombre d’´el´ements de v non identiquement nul. Toutefois, il a ´et´e montr´e en [6] que ce probl`eme est un probl`eme NP-Hard, ce qui a conduit `a la r´ecriture du probl`eme sous des conditions moins contraignantes [6], ce qui donne : v = arg min Φv=y v 1 (4) c Non Lin´eaire Publications, Bˆ at.510, Universit´e de Paris-sud, 91405 Orsay