×

Sliced inverse regression for dimension reduction. (English) Zbl 0742.62044

\(y\) est la variable scalaire à expliquer, \(x\) est le vecteur de dimension \(p\) des variables explicatives. Si le modèle suivant: \[ y=f(\beta_ 1 x,\dots,\beta_ K x,u)\tag{1} \] est valide (où les \(\beta_ k\) sont des \(p\)-vecteurs de paramètres, \(u\) une perturbation aléatoire, \(f\) une fonction arbitraire inconnue: \(\mathbb{R}^{K+1}\to \mathbb{R}\)) celà signifie qu’un espace de dimension \(K<p\) “capte” toute l’information utile de \(x\) vis-à-vis de \(y\).
La régression inverse consiste à étudier l’espérance conditionnelle \(E(x\mid y)\). Le résultat central s’appuye sur la condition suivante (C):
Pour tout \(b\in \mathbb{R}^ p\), \(E(bx\mid\beta_ 1 x,\dots,\beta_ K x)\) est linéaire en les \(\beta_ k x\).
(1) et (C) impliquent que \(E(x\mid y)\) sera contenu dans un espace de dimension \(K\). Pratiquement, cette régression inverse peut s’opérer en découpant “en tranches” l’étendue des valeurs prises par \(y\), puis en déterminant les points moyens des sous-échantillons ainsi obtenus et en effectuant une analyse en composantes principales de ces points moyens (en tenant compte des effectifs qu’ils représentent), les \(K\) premiers facteurs étant seuls retenus.
Des simulations numériques sont présentées ainsi que, à la suite de l’article, des commentaires de R. D. Cook, S. Weisberg, D. R. Brillinger, W. Haerdle et A. B. Tsybakov, J. T. Kent.

MSC:

62G07 Density estimation
62H99 Multivariate analysis
62H25 Factor analysis and principal components; correspondence analysis
Full Text: DOI