Positionnement multidimensionnel

Exemple de positionnement multidimensionnel de données.

Le positionnement multidimensionnel[1] est un ensemble de techniques statistiques utilisées dans le domaine de la visualisation d'information pour explorer les similarités dans les données. Le positionnement multidimentionnel est un cas particulier d'analyse multivariée. Typiquement, un algorithme de positionnement multidimensionnel part d'une matrice de similarité entre tous les points pour affecter à chaque point une position dans un espace à m {\displaystyle m} dimensions. Pour m {\displaystyle m} = 2 ou m {\displaystyle m} = 3, les positions peuvent être visualisées sur un plan ou dans un volume par un nuage de points.

Cadre général

Étant donné N {\displaystyle N} points x 1 , x 2 , , x N {\displaystyle x_{1},x_{2},\cdots ,x_{N}} dans un espace de dimension p {\displaystyle p} , le positionnement multidimensionnel consiste à représenter ces points dans un espace de dimension m < p {\displaystyle m<p} par N {\displaystyle N} nouveaux points y 1 , y 2 , , y N {\displaystyle y_{1},y_{2},\cdots ,y_{N}} en conservant les proximités. On se donne pour cela une matrice de distance D {\displaystyle D} qui peut être définie par la distance euclidienne d i j = | | x i x j | | 2 {\displaystyle d_{ij}=||x_{i}-x_{j}||_{2}} . Si on part de valeurs de similarité, il faut les convertir en valeurs de vraie distance mathématique, car il faut conserver à l'esprit que distance et similarité sont des notions opposées : plus faible est la distance, plus grande est la similarité, et réciproquement. Présenté sous cet angle, le positionnement multidimensionnel est une technique de réduction de dimension, au même titre que l'analyse en composantes principales.

En pratique, le positionnement multidimensionnel consiste à trouver N {\displaystyle N} vecteurs y 1 , y 2 , , y N {\displaystyle y_{1},y_{2},\cdots ,y_{N}} de taille m {\displaystyle m} qui minimisent une fonction de coût S ( y 1 , y 2 , , y N ) {\displaystyle S(y_{1},y_{2},\cdots ,y_{N})} appelée stress.

Positionnement multidimensionnel métrique

Un positionnement multidimensionnel métrique se réfère à une fonction de coût définie par la distance euclidienne ou le produit scalaire entre les points y i {\displaystyle y_{i}} .

Une fonction de coût naturelle pour le positionnement multidimensionnel est

S ( y 1 , y 2 , . . . , y N ) = i j ( d i j | | y i y j | | ) 2 {\displaystyle S(y_{1},y_{2},...,y_{N})=\sum _{i\neq j}{\bigl (}d_{ij}-||y_{i}-y_{j}||{\bigr )}^{2}}

mais cette formulation n'a en général pas de solution explicite.

Positionnement multidimensionnel classique

Pour le positionnement multidimensionnel classique, la fonction de coût est remplacée par

S ( y 1 , y 2 , . . . , y N ) = i j ( b i j y i , y j ) 2 {\displaystyle S(y_{1},y_{2},...,y_{N})=\sum _{i\neq j}(b_{ij}-\langle y_{i},y_{j}\rangle )^{2}}

Le terme b i j {\displaystyle b_{ij}} est défini par b i j =< x i x ¯ , x j x ¯ > {\displaystyle b_{ij}=<x_{i}-{\overline {x}},x_{j}-{\overline {x}}>} avec x ¯ = 1 N i = 1 N x i {\displaystyle {\overline {x}}={\frac {1}{N}}\sum _{i=1\cdots N}x_{i}} . De façon générale, la matrice B {\displaystyle B} , matrice de similarité, peut être obtenue à partir d'une matrice de distance D {\displaystyle D} par double centrage :

B = ( I 1 N J ) D 2 ( I 1 N J ) {\displaystyle B=(I-{\frac {1}{N}}J)D^{2}(I-{\frac {1}{N}}J)}

J {\displaystyle J} est une matrice de taille N × N {\displaystyle N\times N} ne contenant que des uns.

Cette formulation a l'avantage d'avoir une solution explicite par décomposition de B {\displaystyle B} en éléments propres. Soient λ 1 , λ 2 , . . . , λ m {\textstyle \lambda _{1},\lambda _{2},...,\lambda _{m}} les m {\textstyle m} plus grandes valeurs propres et e 1 , e 2 , . . . , e m {\textstyle e_{1},e_{2},...,e_{m}} les vecteurs propres correspondants. Alors une solution pour le positionnement multidimensionnel est de prendre comme vecteurs y 1 , , y N {\displaystyle y_{1},\cdots ,y_{N}} les colonnes de la matrice Y = Λ m 1 / 2 E m T {\textstyle Y=\Lambda _{m}^{1/2}{E_{m}}^{T}} , où E m T {\textstyle {E_{m}}^{T}} est la matrice des vecteurs propres transposée et Λ m {\textstyle \Lambda _{m}} est la matrice diagonale des valeurs propres.

Positionnement multidimensionnel non métrique

Le positionnement multidimensionnel non métrique s'intéresse aux méthodes qui privilégient l'ordre des proximités sur la conservation des distances. La fonction de coût à minimiser est

S ( y 1 , y 2 , . . . , y N ) = i j ( d i j f ( | | y i y j | | ) ) 2 {\displaystyle S(y_{1},y_{2},...,y_{N})=\sum _{i\neq j}{\bigl (}d_{ij}-f(||y_{i}-y_{j}||){\bigr )}^{2}} .

On permet à la fonction f {\displaystyle f} de s'adapter lors de l'optimisation. Pour ce faire, on peut calculer une régression monotone des points ( | | y i y j | | , d i j ) {\displaystyle (||y_{i}-y_{j}||,d_{ij})} .

Voir aussi

Notes et références

  • (en) T. F. Cox et M. A. A. Cox, Multidimensional Scaling, Chapman and Hall,
  • (en) Trevor Hastie, Robert Tibshirani et Jerome Friedman, The Elements of Statistical Learning, Springer, , 2e éd., section 14.8, p. 570
  1. Alain Baccini et Philippe Besse, Exploration Statistique, chapitre 7
  • icône décorative Portail des probabilités et de la statistique