Apprentissage semi supervisé via un SVM parcimonieux : calcul du chemin de régularisation L 1 -Norm regularization path for the sparse semi-supervised Laplacian SVM Gilles Gasso, Karina Zapién, Stephane Canu LITIS EA 4108 - INSA de Rouen Avenue de l’Université, 76801, Saint Etienne du Rouvray, France {gilles.gasso, karina.zapien, stephane.canu}@insa-rouen.fr Résumé L’apprentissage semi supervisé vise à résoudre des problèmes de reconnaissance des formes comportant un petit nombre de données étiquetées pour un grand nombre de points sans labels. Ces derniers points servant à dévoiler la structure sous-jacente des données, il est pertinent d’utiliser des graphes de similarité pour représenter cette structure. Les méthodes à noyaux telles que l’algorithme du Laplacien SVM [2] offrent un cadre flexible permettant d’intégrer cette informa- tion de structure comme une contrainte dans un problème SVM sur les points étiquetés. Malheureusement, la fonction de décision obtenue s’exprime en fonction de tous les points (avec ou sans labels) et est donc peu parcimonieuse. Nous proposons ici une solution consistant à ajouter une pénalisation supplémentaire de type L1 qui introduit la parcimonie dans les variables explicatives. En se fondant sur les tra- vaux de Wang [19], nous présentons ici un chemin de régularisation permettant de calculer efficacement la solution. L’application sur des données simulées et réelles montre les avantages d’un modèle parci- monieux où nous obtenons les mêmes niveaux de performance que le Laplacien SVM en réduisant significativement la taille de l’ensemble des variables explicatives. Mots-clés : Apprentissage semi supervisé, Laplacien de graphe, SVM, parcimonie, pénalisation L1, chemins de régularisation.