100% encontró este documento útil (1 voto)
244 vistas249 páginas

CuadrasCM MetodosAMultivariante

Este documento presenta nuevos métodos de análisis multivariante. Introduce conceptos básicos como datos multivariantes, normalidad multivariante, inferencia multivariante, análisis de correlación canónica, análisis de componentes principales, análisis factorial, análisis canónico de poblaciones y escalado multidimensional. Cada capítulo describe en detalle cada método y proporciona ejemplos ilustrativos.
Derechos de autor
© Attribution Non-Commercial (BY-NC)
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
244 vistas249 páginas

CuadrasCM MetodosAMultivariante

Este documento presenta nuevos métodos de análisis multivariante. Introduce conceptos básicos como datos multivariantes, normalidad multivariante, inferencia multivariante, análisis de correlación canónica, análisis de componentes principales, análisis factorial, análisis canónico de poblaciones y escalado multidimensional. Cada capítulo describe en detalle cada método y proporciona ejemplos ilustrativos.
Derechos de autor
© Attribution Non-Commercial (BY-NC)
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

NUEVOS MTODOS DE ANLISIS

MULTIVARIANTE
Carles M. Cuadras
November 6, 2008
2
Es propiedad del autor.
c _C. M. Cuadras
CMC Editions
Manacor 30
08023 Barcelona, Spain
ndice
1 DATOS MULTIVARIANTES 11
1.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Matrices de datos . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 La matriz de centrado . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Medias, covarianzas y correlaciones . . . . . . . . . . . . . . . 13
1.5 Variables compuestas . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 14
1.7 Teorema de la dimensin . . . . . . . . . . . . . . . . . . . . . 15
1.8 Medidas globales de variabilidad y dependencia . . . . . . . . 16
1.9 Distancias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.10 Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2 NORMALIDAD MULTIVARIANTE 23
2.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Distribucin normal multivariante . . . . . . . . . . . . . . . . 24
2.2.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.3 Caso bivariante . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Distribucin de Wishart . . . . . . . . . . . . . . . . . . . . . 27
2.4 Distribucin de Hotelling . . . . . . . . . . . . . . . . . . . . . 28
2.5 Distribucin de Wilks . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Relaciones entre Wilks, Hotelling y F . . . . . . . . . . . . . . 31
2.7 Distribuciones con marginales dadas . . . . . . . . . . . . . . . 31
2.8 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3 INFERENCIA MULTIVARIANTE 35
3.1 Conceptos bsicos . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Estimacin de medias y covarianzas . . . . . . . . . . . . . . . 36
3
4 NDICE
3.3 Tests multivariantes . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3.1 Test sobre la media: una poblacin . . . . . . . . . . . 37
3.3.2 Test sobre la media: dos poblaciones . . . . . . . . . . 38
3.3.3 Comparacin de medias . . . . . . . . . . . . . . . . . 38
3.4 Teorema de Cochran . . . . . . . . . . . . . . . . . . . . . . . 39
3.5 Construccin de tests multivariantes . . . . . . . . . . . . . . 42
3.5.1 Razn de verosimilitud . . . . . . . . . . . . . . . . . . 42
3.5.2 Principio de unin-interseccin . . . . . . . . . . . . . . 44
3.6 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.7 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4 ANALISIS DE CORRELACION CANONICA 51
4.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2 Correlacin mltiple . . . . . . . . . . . . . . . . . . . . . . . 51
4.3 Correlacin cannica . . . . . . . . . . . . . . . . . . . . . . . 53
4.4 Correlacin cannica y descomposicin singular . . . . . . . . 56
4.5 Signicacin de las correlaciones cannicas . . . . . . . . . . . 57
4.6 Test de independencia . . . . . . . . . . . . . . . . . . . . . . 57
4.6.1 Razn de verosimilitud . . . . . . . . . . . . . . . . . . 58
4.6.2 Principio de unin interseccin . . . . . . . . . . . . . . 58
4.7 Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.8 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 ANALISIS DE COMPONENTES PRINCIPALES 63
5.1 Denicin y obtencin de las componentes principales . . . . . 63
5.2 Variabilidad explicada por las componentes principales . . . . 65
5.3 Representacin de una matriz de datos . . . . . . . . . . . . . 66
5.4 Inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.4.1 Estimacin y distribucin asinttica . . . . . . . . . . . 69
5.4.2 Tests de hiptesis . . . . . . . . . . . . . . . . . . . . . 70
5.5 Nmero de componentes principales . . . . . . . . . . . . . . . 72
5.5.1 Criterio del porcentaje . . . . . . . . . . . . . . . . . . 72
5.5.2 Criterio de Kaiser . . . . . . . . . . . . . . . . . . . . . 73
5.5.3 Test de esfericidad . . . . . . . . . . . . . . . . . . . . 73
5.5.4 Criterio del bastn roto . . . . . . . . . . . . . . . . . . 73
5.5.5 Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . 74
5.6 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
NDICE 5
6 ANLISIS FACTORIAL 77
6.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2 El modelo unifactorial . . . . . . . . . . . . . . . . . . . . . . 78
6.3 El modelo multifactorial . . . . . . . . . . . . . . . . . . . . . 80
6.3.1 El modelo . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.3.2 La matriz factorial . . . . . . . . . . . . . . . . . . . . 81
6.3.3 Las comunalidades . . . . . . . . . . . . . . . . . . . . 81
6.3.4 Nmero mximo de factores comunes . . . . . . . . . . 82
6.3.5 El caso de Heywood . . . . . . . . . . . . . . . . . . . 83
6.3.6 Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . 83
6.4 Teoremas fundamentales . . . . . . . . . . . . . . . . . . . . . 85
6.5 Mtodo del factor principal . . . . . . . . . . . . . . . . . . . 87
6.6 Mtodo de la mxima verosimilitud . . . . . . . . . . . . . . . 88
6.6.1 Estimacin de la matriz factorial . . . . . . . . . . . . 88
6.6.2 Hiptesis sobre el nmero de factores . . . . . . . . . . 89
6.7 Rotaciones de factores . . . . . . . . . . . . . . . . . . . . . . 90
6.7.1 Rotaciones ortogonales . . . . . . . . . . . . . . . . . . 90
6.7.2 Factores oblicuos . . . . . . . . . . . . . . . . . . . . . 91
6.7.3 Rotacin oblicua . . . . . . . . . . . . . . . . . . . . . 92
6.7.4 Factores de segundo orden . . . . . . . . . . . . . . . . 94
6.8 Medicin de factores . . . . . . . . . . . . . . . . . . . . . . . 95
6.9 Anlisis factorial conrmatorio . . . . . . . . . . . . . . . . . . 96
6.10 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7 ANLISIS CANNICO DE POBLACIONES 101
7.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.2 Variables cannicas . . . . . . . . . . . . . . . . . . . . . . . . 102
7.3 Distancia de Mahalanobis y transformacin cannica . . . . . 104
7.4 Representacin cannica . . . . . . . . . . . . . . . . . . . . . 105
7.5 Aspectos inferenciales . . . . . . . . . . . . . . . . . . . . . . . 107
7.5.1 Comparacin de medias . . . . . . . . . . . . . . . . . 107
7.5.2 Comparacin de covarianzas . . . . . . . . . . . . . . . 107
7.5.3 Test de dimensionalidad . . . . . . . . . . . . . . . . . 108
7.5.4 Regiones condenciales . . . . . . . . . . . . . . . . . . 109
7.6 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6 NDICE
8 ESCALADO MULTIDIMENSIONAL (MDS) 115
8.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
8.2 Cuando una distancia es eucldea? . . . . . . . . . . . . . . . . 116
8.3 El anlisis de coordenadas principales . . . . . . . . . . . . . . 117
8.4 Similaridades . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.5 Nociones de MDS no mtrico . . . . . . . . . . . . . . . . . . 122
8.6 Distancias estadsticas . . . . . . . . . . . . . . . . . . . . . . 125
8.6.1 Variables cuantitativas . . . . . . . . . . . . . . . . . . 126
8.6.2 Variables binarias . . . . . . . . . . . . . . . . . . . . . 127
8.6.3 Variables categricas . . . . . . . . . . . . . . . . . . . 127
8.6.4 Variables mixtas . . . . . . . . . . . . . . . . . . . . . 128
8.6.5 Otras distancias . . . . . . . . . . . . . . . . . . . . . . 129
8.7 Dos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
8.8 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
9 ANALISIS DE CORRESPONDENCIAS 137
9.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.2 Cuanticacin de las variables categricas . . . . . . . . . . . 139
9.3 Representacin de las y columnas . . . . . . . . . . . . . . . 140
9.4 Relacin entre las y columnas y representacin conjunta . . . 142
9.5 Soluciones simtrica y asimtrica . . . . . . . . . . . . . . . . 144
9.6 Variabilitadad geomtrica (inercia) . . . . . . . . . . . . . . . 146
9.7 Analisis de Correspondencias Mltiples . . . . . . . . . . . . . 149
9.8 MDS ponderado . . . . . . . . . . . . . . . . . . . . . . . . . . 153
9.9 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
10 CLASIFICACIN 161
10.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
10.2 Jerarqua indexada . . . . . . . . . . . . . . . . . . . . . . . . 162
10.3 Geometra ultramtrica . . . . . . . . . . . . . . . . . . . . . . 164
10.4 Algoritmo fundamental de clasicacin . . . . . . . . . . . . . 168
10.5 Equivalencia entre jerarqua indexada y ultramtrica . . . . . 168
10.6 Algoritmos de clasicacin jerrquica . . . . . . . . . . . . . . 169
10.6.1 Mtodo del mnimo . . . . . . . . . . . . . . . . . . . . 171
10.6.2 Mtodo del mximo . . . . . . . . . . . . . . . . . . . . 172
10.7 Otras propiedades del mtodo del mnimo . . . . . . . . . . . 174
10.8 Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
10.9 Clasicacin no jerrquica . . . . . . . . . . . . . . . . . . . . 176
NDICE 7
10.10Nmero de clusters . . . . . . . . . . . . . . . . . . . . . . . . 178
10.11Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
11 ANALISIS DISCRIMINANTE 181
11.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
11.2 Clasicacin en dos poblaciones . . . . . . . . . . . . . . . . . 182
11.2.1 Discriminador lineal . . . . . . . . . . . . . . . . . . . 182
11.2.2 Regla de la mxima verosimilitud . . . . . . . . . . . . 183
11.2.3 Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . 183
11.3 Clasicacin en poblaciones normales . . . . . . . . . . . . . . 184
11.3.1 Clasicador lineal . . . . . . . . . . . . . . . . . . . . . 184
11.3.2 Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . 185
11.3.3 Probabilidad de clasicacin errnea . . . . . . . . . . 185
11.3.4 Discriminador cuadrtico . . . . . . . . . . . . . . . . . 185
11.3.5 Clasicacin cuando los parmetros son estimados . . . 186
11.3.6 Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . 186
11.4 Discriminacin en el caso de k poblaciones . . . . . . . . . . . 189
11.4.1 Discriminadores lineales . . . . . . . . . . . . . . . . . 189
11.4.2 Regla de la mxima verosimilitud . . . . . . . . . . . . 190
11.4.3 Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . 190
11.4.4 Un ejemplo clsico . . . . . . . . . . . . . . . . . . . . 191
11.5 Anlisis discriminante basado en distancias . . . . . . . . . . . 192
11.5.1 La funcin de proximidad . . . . . . . . . . . . . . . . 192
11.5.2 La regla discriminante DB . . . . . . . . . . . . . . . . 193
11.5.3 La regla DB comparada con otras . . . . . . . . . . . . 194
11.5.4 La regla DB en el caso de muestras . . . . . . . . . . . 194
11.6 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
12 EL MODELO LINEAL 197
12.1 El modelo lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 197
12.2 Suposiciones bsicas del modelo . . . . . . . . . . . . . . . . . 198
12.3 Estimacin de parmetros . . . . . . . . . . . . . . . . . . . . 199
12.3.1 Parmetros de regresin . . . . . . . . . . . . . . . . . 199
12.3.2 Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . 200
12.4 Algunos modelos lineales . . . . . . . . . . . . . . . . . . . . . 201
12.4.1 Regresin mltiple . . . . . . . . . . . . . . . . . . . . 201
12.4.2 Diseo de un factor . . . . . . . . . . . . . . . . . . . . 202
12.4.3 Diseo de dos factores . . . . . . . . . . . . . . . . . . 202
8 NDICE
12.5 Hiptesis lineales . . . . . . . . . . . . . . . . . . . . . . . . . 203
12.6 Inferencia en regresin mltiple . . . . . . . . . . . . . . . . . 206
12.7 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
13 ANLISIS DE LA VARIANZA (ANOVA) 209
13.1 Diseo de un factor . . . . . . . . . . . . . . . . . . . . . . . . 209
13.2 Diseo de dos factores . . . . . . . . . . . . . . . . . . . . . . 211
13.3 Diseo de dos factores con interaccin . . . . . . . . . . . . . . 213
13.4 Diseos multifactoriales . . . . . . . . . . . . . . . . . . . . . . 215
13.5 Modelos log-lineales . . . . . . . . . . . . . . . . . . . . . . . . 216
13.6 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
14 ANLISIS DE LA VARIANZA (MANOVA) 221
14.1 Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
14.2 Estimacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
14.3 Tests de hiptesis lineales . . . . . . . . . . . . . . . . . . . . 223
14.4 Manova de un factor . . . . . . . . . . . . . . . . . . . . . . . 225
14.5 Manova de dos factores . . . . . . . . . . . . . . . . . . . . . . 226
14.6 Manova de dos factores con interaccin . . . . . . . . . . . . . 227
14.7 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
14.8 Otros criterios . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
14.9 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
15 FUNCIONES ESTIMABLES MULTIVARIANTES 233
15.1 Funciones estimables . . . . . . . . . . . . . . . . . . . . . . . 233
15.2 Teorema de Gauss-Markov . . . . . . . . . . . . . . . . . . . . 234
15.3 Funciones estimables multivariantes . . . . . . . . . . . . . . . 235
15.4 Anlisis cannico de fpem . . . . . . . . . . . . . . . . . . . . 236
15.4.1 Distancia de Mahalanobis . . . . . . . . . . . . . . . . 236
15.4.2 Coordenadas cannicas . . . . . . . . . . . . . . . . . . 237
15.4.3 Regiones condenciales . . . . . . . . . . . . . . . . . . 238
15.5 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
15.6 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
NDICE 9
PR

OLOGO
El Anlisis Multivariante es un conjunto de mtodos estadsticos y matemti-
cos, destinados a describir e interpretar los datos que provienen de la obser-
vacin de varias variables estadsticas, estudiadas conjuntamente.
Este libro es una presentacin convencional de los principales modelos y
mtodos del Anlisis Multivariante, con referencias a algunas contribuciones
recientes.
La exposicin mantiene un cierto rigor matemtico, compensado con una
clara orientacin aplicada. Todos los mtodos se ilustran con ejemplos, que
justican su aplicabilidad. Para examinar los datos y ver ms ejemplos con-
sltese la pgina web
www.ub.edu/stat/cuadras/cuad.html
Esta obra tiene como precedentes la monograa Mtodos de Anlisis
Factorial (Pub. no. 7, Laboratorio de Clculo, Universidad de Barcelona,
1974), y el libro Mtodos de Anlisis Multivariante (EUNIBAR, 1981;
PPU, 1991; EUB, 1996, Barcelona).
Cmo citar este libro:
C. M. Cuadras
Nuevos Mtodos de Anlisis Multivariante
CMC Editions
Barcelona, 2007
10 NDICE
Captulo 1
DATOS MULTIVARIANTES
1.1 Introduccin
El anlisis multivariante (AM) es la parte de la estadstica y del anlisis de
datos que estudia, analiza, representa e interpreta los datos que resulten de
observar un nmero p > 1 de variables estadsticas sobre una muestra de n
individuos. Las variables observables son homogneas y correlacionadas, sin
que alguna predomine sobre las dems. La informacin estadstica en AM es
de carcter multidimensional, por lo tanto la geometra, el clculo matricial
y las distribuciones multivariantes juegan un papel fundamental.
La informacin multivariante es una matriz de datos, pero a menudo, en
AM la informacin de entrada consiste en matrices de distancias o similari-
dades, que miden el grado de discrepancia entre los individuos. Comenzare-
mos con las tcnicas que se basan en matrices de datos.
1.2 Matrices de datos
Supongamos n individuos
1
, . . . ,
n
y p variables X
1
, . . . , X
p
. Sea x
ij
=
X
j
(
i
) la observacin de la variable X
j
sobre el individuo
i
. La matriz de
11
12 CAPTULO 1. DATOS MULTIVARIANTES
datos multivariantes es
X =
_
_
_
_
_
_
_
x
11
x
1j
x
1p
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
i1
x
ij
x
ip
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
n1
x
nj
x
np
_
_
_
_
_
_
_
Las las de X se identican con los individuos y las columnas de X con las
variables. Indicaremos:
1. x
i
la la i-sima de X.
2. X
j
la columna j-sima de X.
3. x = (x
1
, . . . , x
j
, . . . , x
p
)

el vector (la) de las medias de las variables,


siendo
x
j
=
1
n
n

i=1
x
ij
.
4. La matriz simtrica p p de covarianzas muestrales
S =
_
_
_
_
s
11
s
12
s
1p
s
21
s
22
s
2p
. . . . . .
s
p1
s
p2
s
pp
_
_
_
_
,
siendo
s
jj
=
1
n
n

i=1
(x
ij
x
j
)(x
ij
x
j
)
la covarianza entre las variables j, j

. Naturalmente, x y S son medidas


multivariantes de tendencia central y dispersin.
1.3 La matriz de centrado
Si 1 =(1, . . . , 1)

es el vector columna de unos de orden n1, y J = 11

es la
matriz nn de unos, ciertas caractersticas multivariantes se expresan mejor
a partir de la matriz de centrado H, denida como
H = I
1
n
J
1.4. MEDIAS, COVARIANZAS Y CORRELACIONES 13
Propiedades:
H

= H.
H
2
= H.
H1 = 1

H = 0.
rang(H) =n 1.
Los valores propios de H son 0 1.
X = HX es la matriz de datos centrados (las columnnas de X suman
0).
1.4 Medias, covarianzas y correlaciones
El vector de medias, la matriz de covarianzas, etc., tienen expresiones matri-
ciales simples.
1. x

=
1
n
1

X.
2. Matriz de datos centrados:
X= X1x

= HX.
3. Matriz de covarianzas:
S =
1
n
X

X =
1
n
X

HX.
Adems de la matriz de covarianzas interesa tambin la matriz de cor-
relaciones
R =
_
_
_
_
1 r
12
r
1p
r
21
1 r
2p
. . . . . .
r
p1
r
p2
1
_
_
_
_
,
donde r
ij
=cor(X
i
, X
j
) es el coeciente de correlacin (muestral) entre las
variables X
i
, X
j
, que verica:
R = D
1
SD
1
, S = DRD, (1.1)
siendo D la matriz diagonal con las desviaciones tpicas de las variables.
14 CAPTULO 1. DATOS MULTIVARIANTES
1.5 Variables compuestas
Algunos mtodos de AM consisten en obtener e interpretar combinaciones
lineales adecuadas de las variables observables. Una variable compuesta
Y es una combinacin lineal de las variables observables con coecientes
a = (a
1
, . . . , a
p
)

Y = a
1
X
1
+. . . +a
p
X
p
.
Si X =[X
1
, . . . , X
p
] es la matriz de datos, tambin podemos escribir
Y = Xa.
Si Z = b
1
X
1
+. . . +b
p
X
p
= Xb es otra variable compuesta, se verica:
1. Y = x

a, Z=x

b.
2. var(Y ) = a

Sa, var(Z) = b

Sb.
3. cov(Y, Z) = a

Sb.
Ciertas variables compuestas reciben diferentes nombres segn la tcnica
multivariante: componentes principales, variables cannicas, funciones dis-
criminantes, etc. Uno de los objetivos del Anlisis Multivariante es encon-
trar variables compuestas adecuadas que expliquen aspectos relevantes de los
datos.
1.6 Transformaciones lineales
Sea T una matriz p q. Una transformacin lineal de la matriz de datos es
Y = XT
Las columnas Y
1
, . . . , Y
q
de Y son las variables transformadas.
Propiedades:
1. y

=x

T, donde y es el vector de medias de Y.


2. S
Y
= T

ST, donde S
Y
es la matriz de covarianzas de Y.
Demost.:
y

=
1
n
1

Y =
1
n
1

XT =x

T. S
Y
=
1
n
Y

HY =
1
n
T

HXT = T

ST.
1.7. TEOREMA DE LA DIMENSIN 15
1.7 Teorema de la dimensin
La matriz de covarianzas S es (semi)denida positiva, puesto que:
a

Sa =
1
n
a

HXa =
1
n
a

HHXa = b

b 0,
siendo b =n
1/2
HXa.
El rango r = rang(S) determina la dimensin del espacio vectorial gener-
ado por las variables observables, es decir, el nmero de variables linealmente
independientes es igual al rango de S.
Theorem 1.7.1 Si r = rang(S) p hay r variables linealmente independi-
entes y las otras p r son combinacin lineal de estas r variables.
Demost.: Podemos ordenar las p variables de manera que la matriz de
covarianzas de X
1
, . . . , X
r
sea no singular
_
_
_
s
11
s
1r
.
.
.
.
.
.
.
.
.
s
r1
s
rr
_
_
_
s
j1
s
jr
Sea X
j
, j > r. Las covarianzas entre X
j
y X
1
, . . . , X
r
verican:
s
jj
=
r

i=1
a
i
s
ji
, s
ji
=
r

=1
a
i
s
ii
.
Entonces
var(X
j

r
i=1
a
i
X
i
) = s
jj
+

r
i,i

=1
a
i
a
i
s
ii
2

r
i=1
a
i
s
ji
=

r
i=1
a
i
s
ji
+

r
i=1
a
i
(

r
i

=1
a
i
s
ii
) 2

r
i=1
a
i
s
ji
=

r
i=1
a
i
s
ji
+

r
i=1
a
i
s
ji
2

r
i=1
a
i
s
ji
= 0.
Por lo tanto
X
j

i=1
a
i
X
i
= c =X
j
= c +
r

i=1
a
i
X
i
donde c es una constante.
16 CAPTULO 1. DATOS MULTIVARIANTES
Corollary 1.7.2 Si todas las variables tienen varianza positiva (es decir,
ninguna se reduce a una constante) y r = rang(R) p, hay r variables
linealmente independientes y las otras p r son combinacin lineal de estas
r variables.
Demost.: De (1.1) deducimos que r = rang(R) = rang(S).
1.8 Medidas globales de variabilidad y de-
pendencia
Una medida de la variabilidad global de las p variables debe ser funcin de
la matriz de covarianzas S. Sean
1
, . . . ,
p
los valores propios de S. Las
siguientes medidas tienen especial inters en AM.
a) Varianza generalizada:
[S[ =
1

p
.
b) Variacin total:
tr(S) =
1
+ +
p
Una medida de dependencia global debe ser funcin de la matriz de cor-
relaciones R. Un coeciente de dependencia es

2
= 1 [R[,
que verica:
1. 0
2
1.
2.
2
= 0 si y slo si las p variables estan incorrelacionadas.
3.
2
= 1 si y slo si hay relaciones lineales entre las variables.
Demost.:
1. Sean
1
, . . . ,
p
los valores propios de R. Si g y a son las medias
geomtrica y aritmtica de p nmeros positivos, se verica g a. Entonces,
de tr(R) =p
([R[)
1/p
= (
1

p
)
1/p
(
1
+ +
p
)/p = 1
1.9. DISTANCIAS 17
y por lo tanto 0 det(R) 1.
2. R = I (matriz identidad) si y slo si las p variables estn incorrela-
cionadas y entonces 1 [I[ =0.
3. Si
2
= 1, es decir, [R[ =0, entonces rang(R) <p y por lo tanto hay
combinaciones lineales entre las variables (Teorema 1.7.1).
1.9 Distancias
Algunos mtodos de AM estn basados en criterios geomtricos y en la nocin
de distancia entre individuos y entre poblaciones. Si
X =
_
_
_
x

1
.
.
.
x

n
_
_
_
es una matriz de datos, con matriz de covarianzas S, las tres deniciones ms
importantes de distancia entre las las x

i
= (x
i1
, . . . , x
ip
), x

j
= (x
j1
, . . . , x
jp
)
de X son:
1. Distancia Eucldea:
d
E
(i, j) =

_
p

h=1
(x
ih
x
jh
)
2
. (1.2)
2. Distancia de K. Pearson
d
P
(i, j) =

_
p

h=1
(x
ih
x
jh
)
2
/s
hh
, (1.3)
donde s
hh
es la covarianza de la variable X
h
.
3. Distancia de Mahalanobis:
d
M
(i, j) =
_
(x
i
x
j
)

S
1
(x
i
x
j
). (1.4)
18 CAPTULO 1. DATOS MULTIVARIANTES
Observaciones
Un cambio de escala de una variable X
j
es una transformacin Y
j
= X
j
,
donde es una constante. La distancia d
M
es muy adecuada en AM debido
a que verica:
a) d
E
supone implcitamente que las variables son incorrelacionadas y no es
invariante por cambios de escala.
b) d
P
tambin supone que las variables son incorrelacionades pero es invari-
ante por cambios de escala.
c) d
M
tiene en cuenta las correlaciones entre las variables y es invariante por
transformaciones lineales no singulares de las variables, en particular
cambios de escala.
Las distancias d
E
y d
P
son casos particulares de d
M
cuando la matriz de
covarianzas es la identidad I
p
y diag(S), respectivamente. En efecto:
d
E
(i, j)
2
= (x
i
x
j
)

(x
i
x
j
),
d
P
(i, j)
2
= (x
i
x
j
)

[diag(S)]
1
(x
i
x
j
).
La distancia de Mahalanobis (al cuadrado) puede tener otras versiones:
1. Distancia de una observacin x
i
al vector de medias x de X :
(x
i
x)

S
1
(x
i
x)
2. Distancia entre dos poblaciones representadas por dos matrices de datos
X
n
1
p
, Y
n
2
p
:
(x y)

S
1
(x y),
donde x, y son los vectores de medias y
S = (n
1
S
1
+n
2
S
2
)/(n
1
+n
2
)
es la media ponderada de las correspondientes matrices de covarianzas.
1.10. UN EJEMPLO 19
N E S W N E S W
72 66 76 77 91 79 100 75
60 53 66 63 56 68 47 50
56 57 64 58 79 65 70 61
41 29 36 38 81 80 68 58
32 32 35 36 78 55 67 60
30 35 34 26 46 38 37 38
39 39 31 27 39 35 34 37
42 43 31 25 32 30 30 32
37 40 31 25 60 50 67 54
33 29 27 36 35 37 48 39
32 30 34 28 39 36 39 31
63 45 74 63 50 34 37 40
54 46 60 52 43 37 39 50
47 51 52 43 48 54 57 43
Tabla 1.1: Depsitos de corcho (centigramos) de 28 alcornoques en las cuatro
direcciones cardinales.
1.10 Un ejemplo
Example 1.10.1
La Tabla 1.1 contiene los datos de n = 28 alcornoques y p = 4 variables,
que miden los depsitos de corcho (en centigramos) en cada uno de los cuatro
puntos cardinales: N, E, S, W.
Medias, covarianzas y correlaciones
Vector de medias:
x

=(50.536, 46.179, 49.679, 45.179)


Matriz de covarianzas:
S =
_
_
_
_
280.03 215.76 278.13 218.19
212.07 220.88 165.25
337.50 250.27
217.93
_
_
_
_
20 CAPTULO 1. DATOS MULTIVARIANTES
Matriz de correlaciones:
R =
_
_
_
_
1 0.885 0.905 0.883
1 0.826 0.769
1 0.923
1
_
_
_
_
Variables compuestas
Las siguientes variables compuestas explican diferentes aspectos de la vari-
abilidad de los datos:
Media Variancia:
Contraste eje N-S con eje E-W: Y
1
= N +S E W 8.857 124.1
Contraste N-S: Y
2
= N S 0.857 61.27
Contraste E-W: Y
3
= E W 1.000 99.5
Variables normalizadas
Una variable compuesta est normalizada si la suma de cuadrados de sus
coecientes es 1. La normalizacin evita que la varianza tome un valor arbi-
trario. La normalizacin de Y
1
, Y
2
, Y
3
dar:
Media Variancia:
Z
1
= (N +S E W)/2 4.428 31.03
Z
2
= (N S)/

2 0.606 30.63
Z
3
= (E W)/

2 0.707 49.75
Interpretacin
La normalizacin de las variables consigue que estas tengan varianzas ms
homogneas. La principal direccin de variabilidad aparece al hacer la com-
paracin del eje N-S con el eje E-W.
Visualizacin de datos
En los captulos siguientes veremos mtodos y tcnicas de visualitzacin de
datos multivariantes. Como norma general es conveniente, antes de realizar
el anlisis, examinar y revisar los datos. La Figura 1.1 contiene un grco
que permite visualizar la distribucin de las 4 variables de la Tabla 1.1 y las
relaciones lineales, o regresin lineal, entre cada par de variables.
1.10. UN EJEMPLO 21
Figura 1.1: Distribucin de las variables N, E, S, W y relaciones entre cada
par de variables de la Tabla 1.1.
22 CAPTULO 1. DATOS MULTIVARIANTES
Captulo 2
NORMALIDAD
MULTIVARIANTE
2.1 Introduccin
Los datos en AM suelen provenir de una poblacin caracterizada por una
distribucin multivariante. Sea X =(X
1
, . . . , X
p
) un vector aleatorio con dis-
tribucin absolutamente continua y funcin de densidad f(x
1
, . . . , x
p
). Es
decir, f verica:
1) f(x
1
, . . . , x
p
) 0, para todo (x
1
, . . . , x
p
) R
p
.
2)
_
R
p
f(x
1
, . . . , x
p
)dx
1
dx
p
= 1.
Conocida f(x
1
, . . . , x
p
) podemos encontrar la funcin de densitad de cada
variable marginal X
j
mediante la integral
f
j
(x
j
) =
_
f(x
1
, . . . , x
j
, . . . , x
p
)dx
1
dx
j1
dx
j+1
dx
p
.
Como en el caso de una matriz de datos, es importante el vector de medias
= (E(X
1
), . . . , E(X
p
))

,
donde E(X
j
) es la esperanza de la variable marginal X
j
, y la matriz de
covarianzas = (
ij
), siendo
ij
=cov(X
i
, X
j
),
ii
=var(X
i
). Teniendo en
cuenta que los elementos de la matriz (X)(X)

, de orden p p, son
(X
i

i
)(X
j

j
) y que cov(X
i
, X
j
) = E(X
i

i
)(X
j

j
), la matriz de
covarianzas = (
ij
) es
= E((X)(X)

).
23
24 CAPTULO 2. NORMALIDAD MULTIVARIANTE
En este captulo introducimos y estudiamos la distribucin normal mul-
tivariante y tres distribuciones relacionadas con las muestras multivariantes:
Wishart, Hotelling y Wilks.
2.2 Distribucin normal multivariante
2.2.1 Denicin
Sea X una variable aleatoria con distribucin N(,
2
), es decir, con media
y varianza
2
. La funcin de densidad de X es:
f(x; ,
2
) =
1

2
e

1
2
(x)
2
/
2
=
(
2
)
1/2

2
e

1
2
(x)
1

2
(x)
(2.1)
Evidentemente se verica:
X = +Y donde Y N(0, 1). (2.2)
Vamos a introducir la distribucin normal mutivariante N
p
(, ) como
una generalizacin de la normal univariante. Por una parte, (2.1) sugiere
denir la densidad de X = (X
1
, . . . , X
p
)

N
p
(, ) segn:
f(x; , ) =
[[
1/2
(

2)
p
e

1
2
(x)

1
(x)
, (2.3)
siendo x = (x
1
, . . . , x
p
)

, = (
1
, . . . ,
n
)

y = (
ij
) una matriz denida
positiva, que como veremos, es la matriz de covarianzas. Por otra parte,
(2.2) sugiere denir la distribucin X = (X
1
, . . . , X
p
)

N
p
(, ) como una
combinacin lineal de p variables Y
1
, . . . , Y
p
independientes con distribucin
N(0, 1).
X
1
=
1
+a
11
Y
1
+. . . +a
1p
Y
p
.
.
.
.
.
.
X
p
=
p
+a
p1
Y
1
+. . . +a
pp
Y
p
(2.4)
que podemos escribir como
X =+AY (2.5)
donde A = (a
ij
) es una matriz p q que verica AA

= .
Proposition 2.2.1 Las dos deniciones (2.3) y (2.4) son equivalentes.
2.2. DISTRIBUCIN NORMAL MULTIVARIANTE 25
Demost.: Segn la frmula del cambio de variable
f
X
(x
1
, . . . , x
p
) = f
Y
(y
1
(x), . . . , y
p
(x))

y
x

siendo y
i
= y
i
(x
1
, . . . , x
p
), i = 1, . . . , p, el cambio y J =

y
x

el jacobiano del
cambio. De (2.5) tenemos
y = A
1
(x )

y
x

= [A
1
[
y como las variables Y
i
son N(0, 1) independientes:
f
X
(x
1
, . . . , x
p
) = (1/

2)
p
e

1
2

p
i=1
y
2
i
[A
1
[. (2.6)
Pero
1
= (A
1
)

(A
1
) y por lo tanto
y

y = (x )

(A
1
)

(A
1
)(x ) = (x )

1
(x ). (2.7)
Substituyendo (2.7) en (2.6) y de [A
1
[
2
= [[
1
obtenemos (2.3).
2.2.2 Propiedades
1. De (2.5) es inmediato que E(X) = y que la matriz de covarianzas es
E((X)(X)

) =E(AYY

) = AI
p
A

= .
2. La distribucin de cada variable marginal X
i
es normal univariante:
X
i
N(
i
,
ii
), i = 1, . . . , p.
Es consecuencia de la denicin (2.4).
3. Toda combinacin lineal de las variables X
1
, . . . , X
p
Z = b
0
+b
1
X
1
+ +b
p
X
p
es tambin normal univariante. En efecto, de (2.4) resulta que Z es
combinacin lineal de N(0, 1) independientes.
26 CAPTULO 2. NORMALIDAD MULTIVARIANTE
4. Si =diag(
11
, . . . ,
pp
) es matriz diagonal, es decir,
ij
= 0, i ,= j, en-
tonces las variables (X
1
, . . . , X
p
) son estocsticamente independientes.
En efecto, la funcin de densidad conjunta resulta igual al producto de
las funciones de densidad marginales:
f(x
1
, . . . , x
p
; , ) = f(x
1
;
1
,
11
) f(x
p
;
p
,
pp
)
5. La distribucin de la forma cuadrtica
U = (x )
1
(x )

es ji-cuadrado con p grados de libertad. En efecto, de (2.5) U = YY

p
i=1
Y
2
i
es suma de los cuadrados de p variables N(0, 1) independi-
entes.
2.2.3 Caso bivariante
Cuando p = 2, la funcin de densidad se puede expresar en funcin de las me-
dias y varianzas
1
,
2
1
,
2
,
2
2
y del coeciente de correlacin =cor(X
1
, X
2
) :
f(x
1
, x
2
) =
1
2
1

1
2
exp[
1
2
1
1
2

(x
1

1
)
2

2
1
2
(x
1

1
)

1
(x
2

2
)

2
+
(x
2

2
)
2

2
2
,
siendo 1 < < +1. (Figura 2.1). Se verica:
1. Hay independencia estocstica si y slo si = 0.
2. La distribucin de la variable marginal X
i
es N(
i
,
2
i
).
3. La funcin de densidad de X
2
condicionada a X
1
= x es
f(x
2
/x
1
) =
1

2
_
2(1
2
)
exp[
[(x
2

2
(
2
/
1
)(x
1

1
)]
2
2
2
2
(1
2
)
],
densidad de la distribucin normal N(
2
+(
2
/
1
)(x
1

1
),
2
2
(1
2
)).
4. La regresin es de tipo lineal, es decir, las curvas de regresin de la
media
x
2
= E(X
2
/X
1
= x
1
), x
1
= E(X
1
/X
2
= x
2
),
son las rectas de regresin.
2.3. DISTRIBUCIN DE WISHART 27
Figura 2.1: Funcin de densidad de una distribucin normal bivariante de
medias 1 y 1, desviaciones tpicas 2 y 2, coeciente de correlacin 0.8.
2.3 Distribucin de Wishart
La distribucin de Wishart es la que sigue una matriz aleatoria simtrica
denida positiva, generaliza la distribucin ji-cuadrado y juega un papel im-
portante en inferencia multivariante. Un ejemplo destacado lo constituye la
distribucin de la matriz de covarianzas S, calculada a partir de una matriz
de datos donde las las son observaciones normales multivariantes.
Denicin
Si las las de la matriz Z
np
son independientes N
p
(0, ) entonces diremos
que la matriz Q = Z

Z es Wishart W
p
(, n), con parmetros y n grados
de libertad.
Textos avanzados prueban que cuando es denida positiva y n p, la
densidad de Q es
f(Q) =c[Q[
(np1)
exp(
1
2
tr(
1
Q)),
siendo
c
1
= 2
np/2

p(p1)/4
[[
n/2
p

i=1
(
1
2
(n + 1 i).
Propiedades:
1. Si Q
1
, Q
2
son independientes Wishart W
p
(, m), W
p
(, n), entonces la
suma Q
1
+Q
2
es tambin Wishart W
p
(, m+n).
28 CAPTULO 2. NORMALIDAD MULTIVARIANTE
2. Si Q es Wishart W
p
(, n), y separamos las variables en dos conjuntos
y consideramos las particiones correspondientes de las matrices y Q
=
_

11

12

21

22
_
, Q =
_
Q
11
Q
12
Q
21
Q
22
_
,
Entonces Q
11
es W
p
(
11
, n) y Q
22
es W
p
(
22
, n).
3. Si Q es Wishart W
p
(, n) y T es una matriz p q de constantes, en-
tonces T

QT es W
q
(T

T, n). En particular, si t es un vector, entonces


t

Qt
tt
es
2
n
.
2.4 Distribucin de Hotelling
Es una generalizacin multivariante de la distribucin t de Student.
Denicin
Si y es N
p
(0, I), Q es Wishart W
p
(I, m) y adems y, Q son independientes,
entonces
T
2
= my

Q
1
y
sigue la distribucin T
2
de Hotelling, que se indica por T
2
(p, m).
Propiedades:
1. Si x es N
p
(,) independiente de M que es W
p
(, m), entonces
T
2
= m(x)

M
1
(x) T
2
(p, m).
2. T
2
est directamente relacionada con la distribucin de Fisher-Snedecor
T
2
(p, m)
mp
mp + 1
F
p
mp+1
.
3. Si x, S son el vector de medias y la matriz de covarianzas de la matriz
X
np
con las independientes N
p
(, ), entonces
(n 1)(x)

S
1
(x) T
2
(p, n 1),
y por lo tanto
n p
p
(x)

S
1
(x) F
p
np
.
2.5. DISTRIBUCIN DE WILKS 29
4. Si x, S
1
,y, S
2
son el vector de medias y la matriz de covarianzas de
las matrices X
n
1
p
, Y
n
2
p
, respectivamente, con las independientes
N
p
(, ), y consideramos la estimacin conjunta centrada de

S= (n
1
S
1
+n
2
S
2
)/(n
1
+n
2
2),
entonces
T
2
=
n
1
n
2
n
1
+n
2
(xy)

S
1
(x y) T
2
(p, n
1
+n
2
2)
y por lo tanto
n
1
+n
2
1 p
(n
1
+n
2
2)p
T
2
F
p
n
1
+n
2
1p
.
2.5 Distribucin de Wilks
La distribucin F surge considerando el cociente
F =
A/m
B/n
,
donde A, B sn ji-cuadrados independients con m, n grados de libertad. Si
consideramos la distribucin
=
A
A+B
,
la relacin entre i F es
F =
m
n

1
.
La distribucin de Wilks generaliza esta relacin.
Denicin
Si las matrices A, Bde orden pp son independientes Wishart W
p
(, m), W
p
(, n),
respectivamente, la distribucin del cociente de determinantes
=
[A[
[A+B[
es, por denicin, la distribucin lambda de Wilks, que indicaremos por
(p, m, n).
Propiedades:
30 CAPTULO 2. NORMALIDAD MULTIVARIANTE
1 0.75 0.5 0.25 0
0.2
0.15
0.1
0.05
0
x
y
x
y
Figura 2.2: Un ejemplo de funcin de densidad lambda de Wilks.
1. 0 1 y adems no depende de . Por lo tanto, podemos
estudiarla suponiendo = I.
2. Su distribucin es equivalente a la del producto de n variables beta
independientes:
(p, m, n)
n

i=1
U
i
,
donde U
i
es beta B(
1
2
(m+i p),
1
2
p).
3. Los parmetros se pueden permutar manteniendo la misma distribu-
cin. Concretamente:
(p, m, n) (n, m+n p, p).
4. Para valores 1 2 de p, la distribucin de equivale a la F, segn las
frmulas
1

m
n
F
n
m
(p = 1)
1

m1
n
F
2n
2(m1)
(p = 2)
(2.8)
5. En general, una transformacin de equivale, exacta o asinttica-
mente, a la distribucin F.
2.6. RELACIONES ENTRE WILKS, HOTELLING Y F 31
2.6 Relaciones entre Wilks, Hotelling y F
A. Probemos la relacin entre y F cuando p = 1. Sean A
2
m
, B
2
n
independientes. Entonces = A/(A+B) (1, m, n) y F = (n/m)A/B =
(n/m)F F
m
n
. Tenemos que = (A/B)/(A/B + 1) = F/(1 + F), luego
F = /(1) (n/m)/(1) F
m
n
. Mas si F F
m
n
entonces 1/F F
n
m
.
Hemos demostrado que:
1 (1, m, n)
(1, m, n)
m
n
F
n
m
. (2.9)
B. Recordemos que y es un vector columna y por lo tanto yy

es una matriz
p p. Probemos la relacin entre las distribuciones T
2
y F. Tenemos T
2
=
my

Q
1
y, donde Q es W
p
(I,m), y yy

es W
p
(I,1). Se cumple
[Q+yy

[ = [Q[[1+y

Q
1
y[,
que implica
1+y

Q
1
y = [Q+yy

[/[Q[ = 1/,
donde = [Q[/[Q+yy

[ (p, m, 1) (1, m+1p, p). Adems y

Q
1
y =
1/1 = (1 )/. De (2.9) tenemos que y

Q
1
y(m+1 p)/p F
p
m+1p
y por lo tanto
T
2
= my

Q
1
y
mp
m+ 1 p
F
p
m+1p
.
2.7 Distribuciones con marginales dadas
Sea F(x, y) la funcin de distribucin de dos variables aleatorias (X, Y ).
Tenemos
H(x, y) = P(X x, Y y).
Consideremos las distribuciones marginales, es decir las distribuciones uni-
variantes de X y de Y :
F(x) = P(X x) = H(x, ),
G(y) = P(Y y) = H(, y).
Un procedimiento para la obtencin de modelos de distribuciones bivariantes
consiste en encontrar H a partir de F, G y posiblemente algn parmetro.
32 CAPTULO 2. NORMALIDAD MULTIVARIANTE
Si suponemos X, Y independientes, una primera distribucin es
H
0
(x, y) = F(x)G(y).
M. Frchet introdujo las distribuciones bivariantes
H

(x, y) = maxF(x) +G(y) 1, 0,


H
+
(x, y) = minF(x), G(y)
y demostr la desigualdad
H

(x, y) H(x, y) H
+
(x, y).
Cuando la distribucin es H

, entonces se cumple la relacin funcional entre


X, Y
F(X) +G(Y ) = 1.
y la correlacin

es mnima. Cuando la distribucin es H


+
, entonces se
cumple la relacin funcional entre X, Y
F(X) = G(Y )
y la correlacin
+
es mxima. Previamente W. Hoeding haba probado la
siguiente frmula para la covarianza
cov(X, Y ) =
_
R
2
(H(x, y) F(x)G(y))dxdy
y demostrado la desigualdad


+
,
donde

, y
+
son las correlaciones entre X, Y cuando la distribucin
bivariante es H

, H y H
+
, respectivamente.
Posteriormente, diversos autores han propuesto distribuciones bivariantes
paramtricas a partir de las marginales F, G, que en algunos casos contienen a
H

, H
0
y H
+
. Escribiendo F, G, H para indicar F(x), G(y), H(x, y), algunas
familias son:
1. Farlie-Gumbel-Morgenstern:
H

= FG[1 + (1 F)(1 G)], 1 1.


2.8. COMPLEMENTOS 33
2. Clayton-Oakes:
H

= [F

+ G

1]
1/
, 1 < .
3. Ali-Mikhail-Haq:
H

= FG/[1 (1 F)(1 G)] 1 1.


4. Cuadras-Aug:
H

= (minF, G)

(FG)
1
, 0 1.
5. Familia de correlacin:
H

(x, y) = F(minx, y) + (1 )F(x)J(y), 1 1,


siendo J(y) = [G(y) F(y))/(1 ) una funcin de distribucin uni-
variante.
2.8 Complementos
La distribucin normal multivariante es, con diferencia, la ms utilizada en
anlisis multivariante. Textos como Anderson (1956), Rao (1973), se basan,
casi exclusivamente, en la suposicin de normalidad. Ms recientemente
se han estudiado generalizaciones, como las distribuciones elpticas, cuya
densidad es de la forma
f(x) = [[
1/2
g((x)

1
(x)),
donde g es una funcin positiva creciente. Otras distribuciones importantes
son la multinomial y la Dirichlet.
Cuando se estudiaron muestras normales multivariantes, pronto se plante
la necesidad de encontrar la distribucin de la matriz de covarianzas, y de
algunos estadsticos apropiados para realizar tests multivariantes. As fue
como J. Wishart, H. Hotelling y S. S. Wilks propusieron las distribuciones
que llevan sus nombres, en los aos 1928, 1931 y 1932, respectivamente.
El estudio de las distribuciones con marginales dadas proporciona un
mtodo de construccin de distribuciones univariantes y multivariantes. Al-
gunas referencias son: Hutchinson y Lai (1990), Cuadras y Aug (1981),
34 CAPTULO 2. NORMALIDAD MULTIVARIANTE
Cuadras (1992, 2006). La frmula de Hoeding admite la siguiente general-
izacin
cov((X), (Y )) =
_
R
2
(H(x, y) F(x)G(y))d(x)d(y)
(Cuadras, 2002).
Captulo 3
INFERENCIA
MULTIVARIANTE
3.1 Conceptos bsicos
Sea f(x, ) un modelo estadstico. La funcin score se dene como
z(x, ) =

log f(x, ).
Una muestra multivariante est formada por las n las x

1
, . . . , x

p
indepen-
dientes de una matriz de datos X
np
. La funcin de verosimilitud es
L(X, ) =
n

i=1
f(x
i
, ).
La funcin score de la muestra es
z(X, ) =
n

i=1

log f(x
i
, ).
La matriz de informacin de Fisher F() es la matriz de covarianzas de
z(X, ). Cuando un modelo estadstico es regular se verica:
a) E(z(X, )) = 0.
b) F() =E(z(X, )z(X, )

).
Un estimador t(X) de es insesgado si E(t(X)) = . La desigualdad
de Cramr-Rao dice que si cov(t(X)) es la matriz de covarianzas de t(X),
entonces
cov(t(X)) F()
1
,
35
36 CAPTULO 3. INFERENCIA MULTIVARIANTE
en el sentido de que la diferencia cov(t(X))F()
1
es una matriz semi-
denida positiva.
Un estimador

del parmetro desconocido es mximo verosmil si max-


imiza la funcin L(X, ). En condiciones de regularidad, podemos obtener

resolviendo la ecuacin
n

i=1

log f(x
i
, ) = 0.
Entonces el estimador mximo verosmil

n
obtenido a partir de una muestra
de tamao n satisface:
a) Es asintticamente normal con vector de medias y matriz de covar-
ianzas (nF
1
())
1
, donde F
1
() es la matriz de informacin de Fisher para
una sola observacin.
b) Si t(X) es estimador insesgado de tal que cov(t(X)) = (nF
1
())
1
,
entonces

n
= t(X).
c)

n
converge en probabilidad a .
3.2 Estimacin de medias y covarianzas
Si las n las x

1
, . . . , x

n
de X
np
son independientes N
p
(, ) la funcin de
verosimilitud es
L(X,, ) = det(2)
n/2
exp
_

1
2
n

i=1
(x
i
)
1
(x
i
)

_
Se verica

n
i=1
(x
i
)

1
(x
i
) =

n
i=1
(x
i
x)

1
(x
i
x) +n(x )

1
(x )
= tr
1

n
i=1
(x
i
x)(x
i
x)

+n(x )

1
(x )
y por lo tanto el logaritmo de L se puede expresar como
log L(X,, ) =
n
2
log det(2)
n
2
tr(
1
S)
n
2
(x )

1
(x ).
Derivando matricialmente respecto de y de
1
tenemos

log L = n
1
(x ) = 0,

1
log L =
n
2
[ S (x )(x )

] = 0.
3.3. TESTS MULTIVARIANTES 37
Las estimaciones mximo-verosmiles de , son pues
= x,

= S.
Si slo es desconocido, la matriz de informacin de Fisher es
F() = E(n
1
(x )n
1
(x )

) = n
1
y como cov(x) = /n, tenemos x que alcanza laa cota de Cramr-Rao.
Probaremos ms adelante que:
1. x es N
p
(, /n).
2. x y S son estocsticamente independientes.
3. nS sigue la distribucin de Wishart.
3.3 Tests multivariantes
Un primer mtodo para construir tests sobre los parmetros de una poblacin
normal, se basa en las propiedades anteriores, que dan lugar a estadsticos
con distribucin conocida (ji-cuadrado, F).
3.3.1 Test sobre la media: una poblacin
Supongamos que las las de X
np
son independientes N
p
(, ). Sea
0
un
vector de medias conocido. Queremos realizar un test sobre la hiptesis
H
0
: =
0
1. Si es conocida, como x es N
p
(, /n), el estadstico de contraste es
n(x
0
)

1
(x
0
)
2
p
.
2. Si es desconocida, como (n 1)(x)S
1
(x) T
2
(p, n 1), el
estadstico de contraste es
n p
p
(x
0
)

S
1
(x
0
) F
p
np
.
En ambos casos se rechaza H
0
para valores grandes signicativos del es-
tadstico.
38 CAPTULO 3. INFERENCIA MULTIVARIANTE
3.3.2 Test sobre la media: dos poblaciones
Supongamos ahora que tenemos dos matrices de datos independientes X
n
1
p
,
Y
n
2
p
que provienen de distribuciones N
p
(
1
, ), N
p
(
2
, ). Queremos con-
struir un test sobre la hiptesis
H
0
:
1
=
2
.
1. Si es conocida, como (xy) es N
p
(
1

2
, (1/n
1
+ 1/n
2
)) el es-
tadstico de contraste es
n
1
n
2
n
1
+n
2
(xy)

1
(x y)
2
p
.
2. Si es desconocida, el estadstico de contraste es
n
1
+n
2
1 p
(n
1
+n
2
2)p
n
1
n
2
n
1
+n
2
(xy)

S
1
(x y) F
p
n
1
+n
2
1p
.
3.3.3 Comparacin de medias
Supongamos que las las de g matrices de datos son independientes, y que
provienen de la observacin de g poblaciones normales multivariantes:
matriz orden medias covarianzas distribucion
X
1
n
1
p x
1
S
1
N
p
(
1
, )
X
2
n
2
p x
2
S
2
N
p
(
2
, )
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
X
g
n
g
p x
g
S
g
N
p
(
g
, )
(3.1)
El vector de medias generales y la estimacin centrada de la matriz de
covarianzas comn son
x =
1
n
g

i=1
n
i
x
i
, S =
1
n g
g

i=1
n
i
S
i
,
siendo S
i
= n
1
i
X

i
HX
i
, n =

g
i=1
n
i
.
Deseamos construir un test para decidir si podemos aceptar la hiptesis
de igualdad de medias
H
0
:
1
=
2
= . . . =
g
.
3.4. TEOREMA DE COCHRAN 39
Introducimos las siguientes matrices:
B =

g
i=1
n
i
(x
i
x)(x
i
x)

(dispersion entre grupos)


W =

g
i=1

n
i
=1
(x
i
x
i
)(x
i
x
i
)

(dispersion dentro grupos)


T =

g
i=1

n
i
=1
(x
i
x)(x
i
x)

(dispersion total)
Se verica que W = (n g)S y la relacin:
T = B+W.
Si la hiptesis nula es cierta, se verica adems
B W
p
(, g 1), WW
p
(, n g), T W
p
(, n 1),
B, W son estocasticamente independientes,
por lo tanto, si H
0
es cierta
=
[W[
[W+B[
(p, n g, g 1).
Rechazaremos H
0
si es pequea y signicativa, o si la transformacin a
una F es grande y signicativa.
3.4 Teorema de Cochran
Algunos resultados de la seccin anterior son una consecuencia del teorema
de Cochran.
Lemma 3.4.1 Sea X(np) una matriz de datos N
p
(, ) y u, v dos vectores
n 1 tales que u

u = v

v =1, u

v =0.
1. Si = 0 entonces y

= u

X es N
p
(0, ).
2. y

= u

X es independiente de z

= v

X.
Demost.: Sean x

1
, . . . , x

n
las las (independientes) de X. Si u = (u
1
, . . . , u
n
)

entonces y

= u

X =

n
i=1
u
i
x
i
es normal multivariante con = 0 y matriz
de covarianzas
E(yy

) = E(

n
i=1
u
i
x
i
)(

n
i=1
u
i
x
i
)

= E(

n
i,j=1
u
i
u
j
x
i
x

j
)
=

n
i,j=1
u
i
u
j
E(x
i
x

j
) =

n
i=1
u
2
i
E(x
i
x

i
)
=

n
i=1
u
2
i
= .
40 CAPTULO 3. INFERENCIA MULTIVARIANTE
Anlogamente, si v = (v
1
, . . . , v
n
)

, z

= v

X es tambin normal y suponiendo


= 0,
E(yz

) =
n

i=1
u
i
v
j
E(x
i
x

j
) =
n

i=1
u
i
v
i
E(x
i
x

i
) = u

v = 0,
que prueba la independencia entre y, z. Este resultado no depende de .
Theorem 3.4.2 Sea X(np) una matriz de datos N
p
(0, ) y sea C(n n)
una matriz simtrica.
1. X

CX tiene la misma distribucin que una suma ponderada de matrices


W
p
(, 1), donde los pesos son valores propios de C.
2. X

CX es Wishart W
p
(, r) si y slo si C es idempotente y r(C) = r.
Demost.: Sea
C =
n

i=1

i
u
i
u

i
la descomposicin espectral de C, es decir, Cu
i
=
i
u
i
. Entonces
X

CX =

i
y

i
y
i
Por el Lema 3.4.1 anterior, las las y

i
de la matriz
Y =
_
_
_
y

1
.
.
.
y

n
_
_
_
=
_
_
_
u

1
X
.
.
.
u

n
X
_
_
_
,
son tambin independientes N
p
(0, ) y cada y
i
y

i
es W
p
(, 1).
Si C
2
= C entonces Cu
i
=
i
u
i
siendo
i
= 0 1. Por lo tanto r =tr(C)
y
X

CX =
r

i=1
y
i
y

i
W
p
(, r).
El siguiente resultado se conoce como teorema de Craig, y junto con el
teorema de Cochran, permite construir tests sobre vectores de medias.
3.4. TEOREMA DE COCHRAN 41
Theorem 3.4.3 Sea X(np) una matriz de datos N
p
(, ) y sean C
1
(nn),
C
2
(nn) matrices simtricas. Entonces X

C
1
X es independiente de X

C
2
X
si C
1
C
2
= 0.
Demost.:
C
1
=

n
i=1

i
(1)u
i
u

i
, X

C
1
X =

i
(1)y
i
y

i
,
C
2
=

n
j=1

j
(2)v
j
v

j
, X

C
2
X =

j
(2)z
j
z

j
,
siendo y

i
= u

i
X, z

j
= v

j
X. Por otra parte
C
1
C
2
=

i
(1)
j
(2)u
i
u

i
v
j
v

j
,
C
1
C
2
= 0
i
(1)
j
(2)u

i
v
j
= 0, i, j.
Si suponemos
i
(1)
j
(2) ,= 0, entonces por el Lema 3.4.1 y

i
(1 p) = u

i
X es
independiente de z

j
(1p) = v

j
X. As X

C
1
X es independiente de X

C
2
X.
Una primera consecuencia del Teorema anterior es la independencia entre
vectores de medias y matrices de covarianzas muestrales.
Theorem 3.4.4 Sea X(n p) una matriz de datos N
p
(, ). Entonces :
1. La media x es N
p
(, /n).
2. La matriz de covarianzas S = X

HX/n verica nS W
p
(, n 1).
3. x y S son estocsticamente independientes.
Demost.: Consideremos C
1
= n
1
11

. Tenemos rang(C
1
) = 1, X

C
1
X =xx

.
Consideremos tambin C
2
= H. Como C
1
C
2
= 0 deducimos que x es inde-
pendiente de S.
Por otra parte, como H
2
= H, H1 = 0, rang(H) =n1, H tiene el valor
propio 1 con multiplicidad n 1. As u
i
, vector propio de valor propio 1,
es ortogonal a 1, resultando que y

i
= u

i
X verica E(y

i
) = (

n
=1
u
i
) =
(u

i
1)=0 = 0. Si u
j
es otro vector propio, y
i
, y
j
son independientes (Lema
3.4.1). Tenemos que nS =

n1
i=1
y
i
y

i
, donde los y
i
y

i
son W
p
(, 1) independientes.
Theorem 3.4.5 Sean X
i
, matrices de datos independientes de orden n
i
p
con distribucin N
p
(
i
, ), i = 1, . . . g, n =

g
i=1
n
i
. Si la hiptesis nula
H
0
:
1
=
2
= . . . =
g
es cierta, entonces B, W son independientes con distribuciones Wishart:
B W
p
(, g 1), WW
p
(, n g).
42 CAPTULO 3. INFERENCIA MULTIVARIANTE
Demost.: Escribimos las matrices de datos como una nica matriz
X =
_

_
X
1
.
.
.
X
g
_

_
.
Sean
1
1
= (1, . . . , 1, 0, . . . , 0), . . . , 1
g
= (0, . . . 0, 1, . . . 1),
1 =

g
i=1
1
i
= (1, . . . , 1, . . . , 1, . . . , 1),
donde 1
1
tiene n
1
unos y el resto ceros, etc. Sean tambin
I
i
= diag(1
i
), I =

g
i=1
I
i
,
H
i
= I
i
n
1
i
1
i
1

i
C
1
=

g
i=1
H
i
, C
2
=

g
i=1
n
1
i
1
i
1

i
n
1
11

.
Entonces
C
2
1
= C
1
, C
2
2
= C
2
, C
1
C
2
= 0,
rang(C
1
) = n k, rang(C
2
) = g 1,
W = X

C
1
X, B = X

C
2
X.
El resultado es consecuencia de los Teoremas 3.4.4 y 3.4.5.
3.5 Construccin de tests multivariantes
3.5.1 Razn de verosimilitud
Supongamos que la funcin de densidad de (X
1
, . . . , X
p
) es f(x, ), donde
x R
p
y , siendo una regin paramtrica de dimensin geomtrica
r. Sea
0
una subregin paramtrica de dimensin s, y planteamos el
test de hiptesis
H
0
:
0
vs H
1
:
0
.
Sea x
1
, . . . , x
n
una muestra de valores independientes de X , consideremos
la funcin de verosimilitud
L(x
1
, . . . , x
n
; ) =
n

i=1
f(x, )
3.5. CONSTRUCCIN DE TESTS MULTIVARIANTES 43
y sea

el estimador mximo verosmil de . Consideremos anloga-
mente

0
, el estimador de mxima verosimilitud de
0
. Tenemos que

maximiza L sin restricciones y

0
maximiza L cuando se impone la condicin
de que pertenezca a
0
. La razn de verosimilitud es el estadstico

R
=
L(x
1
, . . . , x
n
;

0
)
L(x
1
, . . . , x
n
;

)
,
que satisface 0
R
1. Aceptamos la hiptesis H
0
si
R
es prxima a 1 y
aceptamos la alternativa H
1
si
R
es signicativamente prximo a 0.
El test basado en
R
tiene muchas aplicaciones en AM, pero en la mayora
de los casos su distribucin es desconocida. Existe un importante resultado
(atribuido a Wilks), que dice que la distribucin de -2 veces el logaritmo de

R
es ji-cuadrado con r s g.l. cuando el tamao de la muestra n es grande.
Theorem 3.5.1 Bajo ciertas condiciones de regularidad, se verica:
2 log
R
es asintticamente
2
rs
,
donde s = dim(
0
) < r = dim().
Entonces rechazamos la hiptesis H
0
cuando 2 log
R
sea grande y sig-
nicativo. Veamos dos ejemplos.
Test de independencia
Si (X
1
, . . . , X
p
) es N(, ), y queremos hacer un test sobre la independencia
estocstica de las variables, entonces

0
= (,
0
), s = 2p,
= (, ), r = p +p(p + 1)/2,
donde
0
es diagonal.
0
contiene las p medias de las variables y las p
varianzas. es cualquier matriz denida positiva. Se demuestra (Seccin
5.4.2) que
2 log
R
= nlog [R[,
donde R es la matriz de correlaciones. El estadstico nlog [R[ es asintti-
camente ji-cuadrado con
q = p +p(p + 1)/2 2p = p(p 1)/2 g.l.
Si las variables son independientes, tendremos que R I, nlog [R[ 0, y
es probable que
2
q
= nlog [R[ no sea signicativo.
44 CAPTULO 3. INFERENCIA MULTIVARIANTE
Test de comparacin de medias
Consideremos el test de comparacin de medias planteado en la Seccin 3.3.3.
Ahora

0
= (, ), s = p +p(p + 1)/2,
= (
1
, . . . ,
g
), ), r = gp +p(p + 1)/2,
donde es matriz denida positiva y (vector) es la media comn cuando
H
0
es cierta. Hay gp +p(p +1)/2 parmetros bajo H
1
, y p +p(p +1)/2 bajo
H
0
. Se demuestra la relacin

R
=
n/2
,
donde = [W[/[T[ es la lambda de Wilks y n = n
1
+. . . +n
g
. Por lo tanto
nlog es asintticamente ji-cuadrado con r s = (g 1)p g.l. cuando la
hiptesis H
0
es cierta.
3.5.2 Principio de unin-interseccin
Es un principio general que permite construir tests multivariantes a partir
de tests univariantes y se aplica a muchos tests. Como ejemplo, planteemos
la hiptesis nula multivariante H
0
: =
0
como un test univariante. Sea
X
a
= Xa una variable compuesta con media (a) =a. El test univariante
H
0
(a) : (a) =
0
(a) contra la alternativa H
1
(a) : (a) ,=
0
(a) se resuelve
mediante la t de Student
t(a) =

n 1
x(a)
0
(a)
s(a)
t
n1
donde x(a) = x

a es la media muestral de X
a
y s
2
(a) = a

Sa es la varianza.
Aceptaremos H
0
: =
0
si aceptamos todas las hiptesis univariantes H
0
(a),
y nos decidiremos por la alternativa H
1
: ,=
0
si aceptamos una sola de las
alternativas H
1
(a), es decir, formalmente (principio de unin-interseccin):
H
0
=
a
H
0
(a), H
1
=
a
H
1
(a).
As rechazaremos H
0
si la mxima t(a) resulta signicativa. Pues bien, la T
2
de Hotelling (Seccin 3.3.1) es precisamente el cuadrado de esta mxima t
de Student.
3.6. EJEMPLOS 45
Theorem 3.5.2 En el test sobre el vector de medias, la T
2
de Hotelling y
la t de Student estn relacionadas por
T
2
= max
a
t
2
(a).
Demost.: (x
0
) es un vector columna y podemos escribir t
2
(a) como
t
2
(a) = (n 1)
a

(x
0
)(x
0
)

a
a

Sa
Sea A = (x
0
)(x
0
)

matriz de orden p p y rango 1. Si v


1
satisface
Av
1
=
1
Sv
1
entonces

1
= max
v
v

Av
v

Sv
.
De (x
0
)(x
0
)

v
1
=
1
Sv
1
resulta que S
1
(x
0
)(x
0
)

v
1
=
1
v
1
y de la identidad
S
1
(x
0
)(x
0
)

(S
1
(x
0
)) = (x
0
)

S
1
(x
0
)(S
1
(x
0
))
vemos que
1
= (x
0
)

S
1
(x
0
), v
1
= S
1
(x
0
). Por lo tanto
T
2
= max
a
t
2
(a) = (n 1)(x
0
)

S
1
(x
0
).
3.6 Ejemplos
Example 3.6.1
Se desean comparar dos especies de moscas de agua: Amerohelea fasci-
nata, Amerohelea pseudofascinata. En relacin a las variables X
1
= long.
antena, X
2
= long. ala (en mm), para dos muestras de tamaos n
1
= 9 y
n
2
= 6, se han obtenido las matrices de datos de la Tabla 3.1.
Vectores de medias (valores multiplicados por 100):
x= (141.33, 180.44), y = (122.67, 192.67).
46 CAPTULO 3. INFERENCIA MULTIVARIANTE
Amerohelea fascinata A. pseudofascinata
n
1
= 9 n
2
= 6
X
1
X
2
1.38 1.64
1.40 1.70
1.24 1.72
1.36 1.74
1.38 1.82
1.48 1.82
1.54 1.82
1.38 1.90
1.56 2.08
X
1
X
2
1.14 1.78
1.20 1.86
1.18 1.96
1.30 1.96
1.26 2.00
1.28 2.00
Tabla 3.1: X
1
= long. antena, X
2
= long. ala (en mm), para dos muestras
de tamao n
1
= 9 y n
2
= 6,.
Matrices de covarianzas:
S
1
=
_
98.00 80.83
80.83 167.78
_
S
2
=
_
39.47 43.47
43.47 77.87
_
.
Estimacin centrada de la matriz de covarianzas comn:

S=
1
13
(8S
1
+ 5S
2
) =
_
75.49 66.46
66.46 133.81
_
.
Distancia de Mahalanobis entre las dos muestras:
D
2
= (x y)

S
1
(x y)

= 15.52.
Estadstico T
2
:
T
2
=
6 9
6 + 9
D
2
= 55.87
Estadstico F :
9 + 6 1 2
2(9 + 6 2)
T
2
= 25.78 F
2
12
Decisin: rechazamos la hiptesis de que las dos especies son iguales (Nivel
de signicacin=0.001).
Example 3.6.2
3.6. EJEMPLOS 47
Comparacin de las especies virginica, versicolor, setosa de ores del
gnero Iris (datos de R. A. Fisher, Tabla 3.2), respecto a las variables que
miden longitud y ancho de spalos y ptalos:
X
1
, X
2
= long., anch.(sepalos), X
3
, X
4
= long., anch.(petalos).
Vectores de medias y tamaos mustrales:
I. setosa (5.006, 3.428, 1.462, 0.246) n
1
= 50
I. versicolor (5.936, 2.770, 4.260, 1.326) n
2
= 50
I. virginica (6.588, 2.974, 5.550, 2.026) n
3
= 50
Matriz dispersin entre grupos:
B =
_
_
_
_
63.212 19.953 165.17 71.278
11.345 57.23 22.932
436.73 186.69
80.413
_
_
_
_
Matriz dispersin dentro grupos:
W =
_
_
_
_
38.956 12.630 24.703 5.645
16.962 8.148 4.808
27.322 6.284
6.156
_
_
_
_
Lambda de Wilks:
=
[W[
[W+B[
= 0.02344(4, 147, 2)
Transformacin a una F :
F = 198.95 F
8
288
Decisin: las diferencias entre las tres especies son muy signicativas.
48 CAPTULO 3. INFERENCIA MULTIVARIANTE
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
5.1 3.5 1.4 0.2 7.0 3.2 4.7 1.4 6.3 3.3 6.0 2.5
4.9 3.0 1.4 0.2 6.4 3.2 4.5 1.5 5.8 2.7 5.1 1.9
4.7 3.2 1.3 0.2 6.9 3.1 4.9 1.5 7.1 3.0 5.9 2.1
4.6 3.1 1.5 0.2 5.5 2.3 4.0 1.3 6.3 2.9 5.6 1.8
5.0 3.6 1.4 0.2 6.5 2.8 4.6 1.5 6.5 3.0 5.8 2.2
5.4 3.9 1.7 0.4 5.7 2.8 4.5 1.3 7.6 3.0 6.6 2.1
4.6 3.4 1.4 0.3 6.3 3.3 4.7 1.6 4.9 2.5 4.5 1.7
5.0 3.4 1.5 0.2 4.9 2.4 3.3 1.0 7.3 2.9 6.3 1.8
4.4 2.9 1.4 0.2 6.6 2.9 4.6 1.3 6.7 2.5 5.8 1.8
4.9 3.1 1.5 0.1 5.2 2.7 3.9 1.4 7.2 3.6 6.1 2.5
5.4 3.7 1.5 0.2 5.0 2.0 3.5 1.0 6.5 3.2 5.1 2.0
4.8 3.4 1.6 0.2 5.9 3.0 4.2 1.5 6.4 2.7 5.3 1.9
4.8 3.0 1.4 0.1 6.0 2.2 4.0 1.0 6.8 3.0 5.5 2.1
4.3 3.0 1.1 0.1 6.1 2.9 4.7 1.4 5.7 2.5 5.0 2.0
5.8 4.0 1.2 0.2 5.6 2.9 3.6 1.3 5.8 2.8 5.1 2.4
5.7 4.4 1.5 0.4 6.7 3.1 4.4 1.4 6.4 3.2 5.3 2.3
5.4 3.9 1.3 0.4 5.6 3.0 4.5 1.5 6.5 3.0 5.5 1.8
5.1 3.5 1.4 0.3 5.8 2.7 4.1 1.0 7.7 3.8 6.7 2.2
5.7 3.8 1.7 0.3 6.2 2.2 4.5 1.5 7.7 2.6 6.9 2.3
5.1 3.8 1.5 0.3 5.6 2.5 3.9 1.1 6.0 2.2 5.0 1.5
5.4 3.4 1.7 0.2 5.9 3.2 4.8 1.8 6.9 3.2 5.7 2.3
5.1 3.7 1.5 0.4 6.1 2.8 4.0 1.3 5.6 2.8 4.9 2.0
4.6 3.6 1.0 0.2 6.3 2.5 4.9 1.5 7.7 2.8 6.7 2.0
5.1 3.3 1.7 0.5 6.1 2.8 4.7 1.2 6.3 2.7 4.9 1.8
4.8 3.4 1.9 0.2 6.4 2.9 4.3 1.3 6.7 3.3 5.7 2.1
5.0 3.0 1.6 0.2 6.6 3.0 4.4 1.4 7.2 3.2 6.0 1.8
5.0 3.4 1.6 0.4 6.8 2.8 4.8 1.4 6.2 2.8 4.8 1.8
5.2 3.5 1.5 0.2 6.7 3.0 5.0 1.7 6.1 3.0 4.9 1.8
5.2 3.4 1.4 0.2 6.0 2.9 4.5 1.5 6.4 2.8 5.6 2.1
4.7 3.2 1.6 0.2 5.7 2.6 3.5 1.0 7.2 3.0 5.8 1.6
4.8 3.1 1.6 0.2 5.5 2.4 3.8 1.1 7.4 2.8 6.1 1.9
5.4 3.4 1.5 0.4 5.5 2.4 3.7 1.0 7.9 3.8 6.4 2.0
5.2 4.1 1.5 0.1 5.8 2.7 3.9 1.2 6.4 2.8 5.6 2.2
5.5 4.2 1.4 0.2 6.0 2.7 5.1 1.6 6.3 2.8 5.1 1.5
4.9 3.1 1.5 0.2 5.4 3.0 4.5 1.5 6.1 2.6 5.6 1.4
5.0 3.2 1.2 0.2 6.0 3.4 4.5 1.6 7.7 3.0 6.1 2.3
5.5 3.5 1.3 0.2 6.7 3.1 4.7 1.5 6.3 3.4 5.6 2.4
4.9 3.6 1.4 0.1 6.3 2.3 4.4 1.3 6.4 3.1 5.5 1.8
4.4 3.0 1.3 0.2 5.6 3.0 4.1 1.3 6.0 3.0 4.8 1.8
5.1 3.4 1.5 0.2 5.5 2.5 4.0 1.3 6.9 3.1 5.4 2.1
5.0 3.5 1.3 0.3 5.5 2.6 4.4 1.2 6.7 3.1 5.6 2.4
4.5 2.3 1.3 0.3 6.1 3.0 4.6 1.4 6.9 3.1 5.1 2.3
4.4 3.2 1.3 0.2 5.8 2.6 4.0 1.2 5.8 2.7 5.1 1.9
5.0 3.5 1.6 0.6 5.0 2.3 3.3 1.0 6.8 3.2 5.9 2.3
5.1 3.8 1.9 0.4 5.6 2.7 4.2 1.3 6.7 3.3 5.7 2.5
4.8 3.0 1.4 0.3 5.7 3.0 4.2 1.2 6.7 3.0 5.2 2.3
5.1 3.8 1.6 0.2 5.7 2.9 4.2 1.3 6.3 2.5 5.0 1.9
4.6 3.2 1.4 0.2 6.2 2.9 4.3 1.3 6.5 3.0 5.2 2.0
5.3 3.7 1.5 0.2 5.1 2.5 3.0 1.1 6.2 3.4 5.4 2.3
5.0 3.3 1.4 0.2 5.7 2.8 4.1 1.3 5.9 3.0 5.1 1.8
Tabla 3.2: Longitud y anchura de spalos y ptalos de 3 especies del gnero
Iris: Setosa, Versicolor, Virginica.
3.7. COMPLEMENTOS 49
3.7 Complementos
C. Stein prob que la estimacin = x de de la distribucin N
p
(, )
puede ser inadmisible si p 3, en el sentido de que no minimiza
p

i=1
(
i

i
)
2
,
y propuso una mejora de aquel estimador. B. Efron y C. Morris explicaron
esa peculiaridad desde una perspectiva bayesiana. S. M. Stigler di una
interesante explicacin en trminos de regresin, justicando porqu p 3
(consultar Cuadras, 1991).
El principio de unin interseccin es debido a S. N. Roy, pero no siempre
es aplicable. El test de mxima-verosimilitud es atribuido a S. Wilks y es
ms general. Es interesante notar que 2 log se puede interpretar como
una distancia de Mahalanobis. Otros tests semejantes fueron propuestos por
C. R. Rao y A. Wald. Consultar Cuadras y Fortiana (1993b), Rao (1973).
En general, es necesario corregir los tests multiplicando por una constante
a n de conseguir tests insesgados (la potencia del test ser siempre ms
grande que el nivel de signicacin). Por ejemplo, es necesario hacer la
modicacin de G. E. P. Box sobre el test de Bartlett para comparar matrices
de covarianzas (Seccin 7.5.2).
50 CAPTULO 3. INFERENCIA MULTIVARIANTE
Captulo 4
ANALISIS DE
CORRELACION CANONICA
4.1 Introduccin
En este captulo estudiamos la relacin multivariante entre vectores aleato-
rios. Introducimos y estudiamos las correlaciones cannicas, que son gener-
alizaciones de las correlaciones simple y mltiple.
Tenemos tres posibilidades para relacionar dos variables:
La correlacin simple si X, Y son dos v.a.
La correlacin mltiple si Y es una v.a. y X = (X
1
, . . . , X
p
) es un
vector aleatorio.
La correlacin cannica si X = (X
1
, . . . , X
p
) e Y = (Y
1
, . . . , Y
q
) son dos
vectores aleatorios.
4.2 Correlacin mltiple
Queremos relacionar una variable respuesta Y con p variables cuantitativas
explicativas X
1
, . . . , X
p
, que suponemos centradas. El modelo de regresin
mltiple consiste en encontrar la combinacin lineal

Y =
1
X
1
+. . . +
p
X
p
51
52 CAPTULO 4. ANALISIS DE CORRELACION CANONICA
que mejor se ajuste a la variable Y. Sea la matriz de covarianzas de X y
= (
1
, . . . ,
p
)

el vector columna con las covarianzas


j
= cov(Y, X
j
), j =
1, . . . , p. El criterio de ajuste es el de los mnimos cuadrados.
Theorem 4.2.1 Los coecientes

= (

1
, . . . ,

p
) que minimizan la canti-
dad E(Y

Y )
2
verican la ecuacin

=
1
. (4.1)
Demost.:
() = E(Y

Y )
2
= E(Y )
2
+E(

Y )
2
2E(Y

Y )
= var(Y ) +

Derivando vectorialmente respecto de e igualando a 0

() = 2 2 = 0.
La variable prediccin es

Y = X

1
X
1
+. . . +

p
X
p
. Si ponemos
Y =

Y +

Y ,
entonces

Y es la variable residual.
La correlacin mltiple entre Y y X
1
, . . . , X
p
es, por denicin, la cor-
relacin simple entre Y y la mejor prediccin

Y = X

. Se indica por
R = cor(Y,

Y ).
Se verica:
1. 0 R 1.
2. R = 1 si Y es combinacin lineal de X
1
, . . . , X
p
.
3. R = 0 si Y est incorrelacionada con cada una de las variables X
i
.
Theorem 4.2.2 La variable prediccin

Y , residual

Y y la correlacin mlti-
ple R cumplen:
1.

Y e

Y son variables incorrelacionadas.
4.3. CORRELACIN CANNICA 53
2. var(Y ) =var(

Y )+var(

Y ).
3. R
2
=var(

Y )/var(Y ).
Demost.: 1) es consecuencia de

= . En efecto,
cov(

Y ,

Y ) = E(

Y

Y ) = E(

(Y

X))
=

= 0.
2) es consecuencia inmediata de 1). Finalmente, de
cov(Y,

Y ) = cov(Y,
p
i=1

i
X
i
) =
p
i=1

i
=

= var(

Y ),
obtenemos
R
2
=
cov
2
(Y,

Y )
var(Y )var(

Y )
=
var(

Y )
var(Y )
. (4.2)
4.3 Correlacin cannica
Sean X = (X
1
, . . . , X
p
), Y = (Y
1
, . . . , Y
q
) dos vectores aleatorios de dimen-
siones p y q. Planteemos el problema de encontrar dos variables compuestas
U = Xa = a
1
X
1
+. . . +a
p
X
p
, V = Yb = b
1
Y
1
+. . . +b
p
Y
q
,
siendo a = (a
1
, . . . , a
p
)

, b = (b
1
, . . . , b
p
)

tales que la correlacin entre ambas


cor(U, V )
sea mxima. Indicamos por S
11
, S
22
las matrices de covarianzas (muestrales)
de las variables X, Y, respectivamente, y sea S
12
la matriz p q con las
covarianzas de las variables X con las variables Y. Es decir:
X Y
X S
11
S
12
Y S
21
S
22
donde S
21
= S

12
.
Podemos suponer
var(U) = a

S
11
a =1, var(V ) = b

S
22
b =1.
54 CAPTULO 4. ANALISIS DE CORRELACION CANONICA
As el problema se reduce a:
maximizar a

S
12
b restringido a a

S
11
a = b

S
22
b =1.
Los vectores de coecientes a, b que cumplen esta condicin son los primeros
vectores cannicos. La mxima correlacin entre U, V es la primera cor-
relacin cannica r
1
.
Theorem 4.3.1 Los primeros vectores cannicos satisfacen las ecuaciones
S
12
S
1
22
S
21
a = S
11
a,
S
21
S
1
11
S
12
b = S
22
b.
(4.3)
Demost.: Consideremos la funcin
(a, b) = a

S
12
b

2
(a

S
11
a1)

2
(b

S
22
b1),
donde , son multiplicadores de Lagrange. Entonces de /a =/b = 0
obtenemos las dos ecuaciones
S
12
bS
11
a = 0, S
21
aS
22
b = 0. (4.4)
Multiplicando la primera por a

y la segunda por b

, tenemos
a

S
12
b =a

S
11
a, b

S
21
a =b

S
22
b,
que implican = . As pues, de la segunda ecuacin en (4.4), b =
1
S
1
22
S
21
a,
y substituyendo en la primera obtenemos
1
S
12
S
1
22
S
21
aS
11
a = 0. Pre-
scindiendo de
1
, pues es un factor multiplicativo arbitrario, y operando
anlogamente con la otra ecuacin, obtenemos (4.3).
Theorem 4.3.2 Los vectores cannicos normalizados por a

S
11
a = b

S
22
b =
1, estn relacionados por
a =
1/2
S
1
11
S
12
b,
b =
1/2
S
1
22
S
21
a,
y la primera correlacin cannica es r
1
=

1
, donde
1
es el primer valor
propio de S
1
11
S
12
S
1
22
S
21
.
4.3. CORRELACIN CANNICA 55
Demost.: Tenemos de (4.4) que a =S
1
11
S
12
b, donde es una constante a
determinar. Partimos de que a

S
11
a =1 y para =
1/2
resulta que:
a

S
11
a =
1/2
a

S
11
S
1
11
S
12
b
=
1/2
a

S
12
b
=
1/2

1/2
a

S
12
S
1
22
S
21
a
=
1
a

S
11
a
= 1
La correlacin es r
1
= a

S
12
b y como 1 =
1/2
a

S
12
b deducimos que r
2
1
=
1
.
De hecho, las ecuaciones en valores y vectores propios tienen otras solu-
ciones. Concretamente hay m = minp, q parejas de vectores cannicos
a
1
, b
1
, . . . , a
m
, b
m
, que proporcionan las variables y correlaciones cannicas
U
1
= Xa
1
, V
1
= Yb
1
, r
1
= cor(U
1
, V
1
),
U
2
= Xa
2
, , V
2
= Yb
2
, r
2
= cor(U
2
, V
2
),
.
.
.
.
.
.
.
.
.
U
m
= Xa
m
, V
m
= Yb
m
, r
m
= cor(U
m
, V
m
).
Theorem 4.3.3 Supongamos r
1
> r
2
> . . . > r
m
. Entonces:
1. Tanto las variables cannicas U
1
, . . . , U
m
como las variables cannicas
V
1
, . . . , V
m
estn incorrelacionadas.
2. La primera correlacin cannica r
1
= cor(U
1
, V
1
) es la mxima cor-
relacin entre una combinacin lineal de X y una combinacin lineal
de Y.
3. La segunda correlacin cannica r
2
= cor(U
2
, V
2
) es la mxima cor-
relacin entre las combinaciones lineales de X incorrelacionadas con
U
1
y las combinaciones lineales de Y incorrelacionadas con V
1
.
4. cor(U
i
, V
j
) = 0 si i ,= j.
Demost.: Sea i ,= j. Expresando (4.3) para a
k
,
k
, k = i, j, y multiplicando
por a

j
y por a

i
tenemos que
a

j
S
12
S
1
22
S
21
a
i
=
i
a

j
S
11
a
i
,
a

i
S
12
S
1
22
S
21
a
j
=
j
a

i
S
11
a
j
.
56 CAPTULO 4. ANALISIS DE CORRELACION CANONICA
Restando: (
i

j
)a

i
S
11
a
j
= 0 a

i
S
11
a
j
= 0 cor(U
i
, U
j
) = 0.
Por otra parte, expresando (4.3) como
S
1
11
S
12
S
1
22
S
21
a =
i
a
i
, S
1
22
S
21
S
1
11
S
12
b
j
=
j
b
j
,
y multiplicando por b

j
S
21
y por a

i
S
12
llegamos a
b

j
S
21
S
1
11
S
12
S
1
22
S
21
a
i
=
i
b

j
S
21
a
i
,
a

i
S
12
S
1
22
S
21
S
1
11
S
12
b
j
=
j
a

i
S
12
b
j
.
Restando: (
i

j
)a

i
S
12
b
j
= 0 a

i
S
12
b
j
= 0 cor(U
i
, V
j
) = 0.
4.4 Correlacin cannica y descomposicin sin-
gular
Podemos formular una expresin conjunta para los vectores cannicos uti-
lizando la descomposicin singular de una matriz. Supongamos p q, con-
sideremos la matriz p q
Q = S
1/2
11
S
12
S
1/2
22
y hallemos
Q = UV

,
la descomposicin singular de Q, donde U es una matriz p q con columnas
ortonormales, V es una matriz q q ortogonal, y es una matriz diago-
nal con los valores singulares de Q. Es decir, U

U = I
p
, V

V = V

V = I
q
,
=diag(
1
, . . . ,
p
).
Theorem 4.4.1 Los vectores cannicos y correlaciones cannicas son
a
i
= S
1/2
11
u
i
, b
i
= S
1/2
22
v
i
, r
i
=
i
.
Demost.:
QQ

= S
1/2
11
S
12
S
1/2
22
S
1/2
22
S
21
S
1/2
11
= U
2
U

y por lo tanto
S
1/2
11
S
12
S
1
22
S
21
S
1/2
11
u
i
=
2
i
u
i
Multiplicando por S
1/2
11
S
1
11
S
12
S
1
22
S
21
(S
1/2
11
u
i
) =
2
i
(S
1/2
11
u
i
)
y comparando con resultados anteriores, queda probado el teorema.
4.5. SIGNIFICACIN DE LAS CORRELACIONES CANNICAS 57
4.5 Signicacin de las correlaciones canni-
cas
Hemos encontrado las variables y correlaciones cannicas a partir de las ma-
trices de covarianzas y correlaciones muestrales, es decir, a partir de mues-
tras de tamao n. Naturalmente, todo lo que hemos dicho vale si sustituimos
S
11
, S
12
, S
22
por las versiones poblacionales
11
,
12
,
22
. Sean

1

2

m
las m = minp, q correlaciones cannicas obtenidas a partir de
11
,
12
,
22
,
soluciones de:
[
12

1
22

21

11
[ = 0.
Si queremos decidir cules son signicativas, supongamos normalidad multi-
variante, indiquemos
0
= 1 y planteemos el test
H
k
0
:
k
>
k+1
= =
m
= 0, (k = 0, 1, . . . , m),
que equivale a rang(
1
22

21
) = k. El test de Bartlett-Lawley demuestra que
si H
k
0
es cierta, entonces
L
k
= [n 1 k
1
2
(p +q + 1) +
k

i=1
r
2
i
] log[
m

i=k+1
(1 r
2
i
)
es asintticamente ji-cuadrado con (m k)(p k) g.l. Este test se aplica
secuencialmente: si L
i
es signicativo para i = 0, 1, . . . , k 1, pero L
k
no es
signicativo, entonces se acepta H
k
0
.
4.6 Test de independencia
Suponiendo normalidad, armar que X es independiente de Y consiste en
plantear
H
0
:
12
= 0, H
1
:
12
,= 0.
Podemos resolver este test de hiptesis de dos maneras.
58 CAPTULO 4. ANALISIS DE CORRELACION CANONICA
4.6.1 Razn de verosimilitud
Si la hiptesis es cierta, entonces el test de razn de verosimilitud (Seccin
3.5.1) se reduce al estadstico
=
[S[
[S
11
[[S
22
[
=
[R[
[R
11
[[R
22
[
,
que sigue la distribucin lambda de Wilks (p, n 1 q, q), equivalente a
(q, n 1 p, q). Rechazaremos H
0
si es pequea y signicativa (Mardia
et al. 1979, Rencher, 1998).
Es fcil probar que es funcin de las correlaciones cannicas
= [I S
1
22
S
21
S
1
11
S
12
[ =
m

i=1
(1 r
2
i
).
4.6.2 Principio de unin interseccin
Consideremos las variables U = a
1
X
1
+. . . +a
p
X
p
,V = b
1
Y
1
+. . . +b
p
Y
q
. La
correlacin entre U, V es
(U, V ) =
a

12

12
b

a
11
a

22
b
H
0
equivale a (U, V ) = 0 para todo U, V. La correlacin muestral es
r(U, V ) =
a

S
12
b

S
11
a

S
22
b
.
Aplicando el principio de unin interseccin (Seccin 3.5.2), aceptaremos H
0
si r(U, V ) no es signicativa para todo U, V, y aceptaremos H
1
si r(U, V ) es
signicativa para algn par U, V. Este criterio nos lleva a estudiar la signi-
cacin de
r
1
= max
U,V
r(U, V )
es decir, de la primera correlacin cannica. Por tanto, el test es:
H
0
:
1
= 0, H
1
:
1
> 0.
Existen tablas especiales para decidir si r
1
es signicativa (Morrison, 1976),
pero tambin se puede aplicar el estadstico L
0
de Bartlett-Lawley.
4.7. UN EJEMPLO 59
4.7 Un ejemplo
Ejemplo 1. Se consideran n = 25 familias y las variables:
X
1
= long. cabeza primer hijo, X
2
= ancho cabeza primer hijo,
Y
1
= long. cabeza segundo hijo, Y
2
= ancho cabeza segundo hijo,
La matriz de correlaciones es:
R =
_
_
_
_
1.0000 0.7346 0.7108 0.7040
0.7346 1.0000 0.6932 0.8086
0.7108 0.6932 1.0000 0.8392
0.7040 0.8086 0.8392 1.0000
_
_
_
_
Entonces:
R
11
=
_
1.0000 0.7346
0.7346 1.0000
_
, R
12
=
_
0.7108 0.7040
0.6932 0.8086
_
,
R
22
=
_
1.0000 0.8392
0.8392 1.0000
_
.
Las races de la ecuacin:
[R
12
R
1
22
R
21
R
11
[ = 0.460363
2
0.287596 + 0.000830 = 0
son:
1
= 0.6218,
2
= 0.0029, y por tanto las correlaciones cannicas son:
r
1
= 0.7885, r
2
= 0.0539.
Los vectores cannicos normalizados son:
a
1
= (0.0566, 0.0707)

, a
2
= (0.1400, 0.1870)

,
b
1
= (0.0502, 0.0802)

, b
2
= (0.1760, 0.2619)

.
Las variables cannicas con variaza 1 son:
U
1
= 0.0566X
1
+ 0.0707X
2
, V
1
= 0.0502Y
1
+ 0.0802Y
2
, (r
1
= 0.7885),
U
2
= 0.1400X
1
0.1870X
2
, V
2
= 0.1760Y
1
0.2619Y
2
, (r
2
= 0.0539).
La dependencia entre (X
1
, X
2
) y (Y
1
, Y
2
) viene dada principalmente por la
relacin entre (U
1
, V
1
) con correlacin 0.7885, ms alta que cualquier cor-
relacin entre una variable X
i
y una variable Y
j
. Podemos interpretar las
60 CAPTULO 4. ANALISIS DE CORRELACION CANONICA
primeras variables cannicas como un factor de tamao de la cabeza y las
segundas como un factor de forma. Habra entonces una notable relacin
en el tamao y una escasa relacin en la forma de la cabeza.
El test de independencia entre (X
1
, X
2
) y (Y
1
, Y
2
) da
=
[R[
[R
11
[[R
22
[
= 0.3771 (2, 22, 2)
que, segn (2.8), transformamos con una F obteniendo 6.60 con 4 y 42 g.l.
Rechazamos la hiptesis de independencia.
La prueba de signicacin de las correlaciones cannicas d:
H
0
0
:
0
= 1 >
1
=
2
= 0, L
0
= 22.1 (4 g.l.),
H
1
0
:
1
>
2
= 0, L
1
= 1.22 (2 g.l.).
Podemos rechazar H
0
0
y aceptar H
1
0
. Solamente la primera correlacin cannica
es signicativa.
Ejemplo 2. Se consideran los resultados de unas elecciones celebradas en
las 41 comarcas catalanas y para cada comarca se tabulan los valores de las
siguientes variables:
X
1
= log(porcentaje de votos a CU), X
2
= log(porcentaje de votos a PSC),
X
3
= log(porcentaje de votos a PP), X
4
= log(porcentaje de votos a ERC),
Y
1
= log(cociente Juan/Joan), Y
2
= log(cociente Juana/Joana),
donde cociente Juan/Joan signica el resultado de dividir el nmero de
hombres que se llaman Juan por el nmero de hombres que se llaman Joan.
Valores positivos de las variables Y
1
, Y
2
en una comarca indican predominio
de los nombres en castellano sobre los nombres en cataln.
La matriz de correlaciones es:
X
1
X
2
X
3
X
4
X
1
1 .8520 .6536 .5478
X
2
1 .5127 .7101
X
3
1 .6265
X
4
1
Y
1
Y
2
.6404 .5907
.7555 .6393
.5912 .5146
.7528 .7448
Y
1
Y
2
1 .8027
1
Slo hay 2 correlaciones cannicas:
r
1
= 0.8377, r
2
= 0.4125.
4.8. COMPLEMENTOS 61
Las variables cannicas son:
U
1
= +0.083X
1
0.372X
2
0.1130X
3
+ 0.555X
4
, (r
1
= 0.8377),
V
1
= +0.706Y
1
+ 0.339Y
2
,
U
2
= +1.928X
1
+ 2.4031.546X
2
+ 1.127X
3
+ 1.546X
4
, (r
2
= 0.4125).
V
2
= +1.521Y
1
1.642Y
2
,
Las primeras variables cannicas U
1
, V
1
, que podemos escribir conven-
cionalmente como
U
1
= +0.083CU0.372PSC0.1130PP+ 0.555ERC,
V
1
= +0.706(Juan/Joan) + 0.339(Juana/Joanna),
nos indican que las regione ms catalanas, en el sentido de que los nombres
castellanos Juan y Juana no predominan tanto sobre los catalanes Joan y
Joanna, tienden a votar ms a CU y ERC, que son partidos ms nacional-
istas. Las regiones que votan ms al PSC y al PP, que son partidos ms
centralistas, estn en general, ms castellanizadas. Las segundas variables
cannicas tienen una interpretacin ms dicil.
4.8 Complementos
El anlisis de correlacin cannica (ACC) fu introducido por H. Hotelling en
1935, que buscaba la relacin entre tests mentales y medidas biomtricas, a n
de estudiar el nmero y la naturaleza de las relaciones entre mente y cuerpo,
que con un anlisis de todas las correlaciones sera difcil de interpretar. Es
un mtodo de aplicacin limitada, pero de gran inters terico puesto que
diversos mtodos de AM se derivan del ACC.
Aplicaciones a la psicologa se pueden encontrar en Cooley y Lohnes
(1971), Cuadras y Snchez (1975). En ecologa se ha aplicado como un
modelo para estudiar la relacin entre presencia de especies y variables am-
bientales (Gittings, 1985).
La distribucin de las correlaciones cannicas es bastante complicada.
Solamente se conocen resultados asintticos (Muirhead, 1982).
Si f(x, y) es la densidad de dos v.a. X, Y , tiene inters en estadstica el
concepto de mxima correlacin (propuesto por H. Gabelein) que se dene
como

1
= sup
,
cor((X), (Y )),
62 CAPTULO 4. ANALISIS DE CORRELACION CANONICA
donde (X), (Y ) son funciones con varianza nita. Entonces
1
= 0 si X, Y
son variables independientes. Podemos ver a
1
como la primera correlacin
cannica,
1
(X),
1
(Y ) como las primeras variables cannicas y denir las
sucesivas correlaciones cannicas. Sin embargo el clculo de
1
puede ser
complicado (Cuadras, 2002a). Lancaster (1969) estudia estas correlaciones
y demuestra que f(x, y) se puede desarrollar en serie a partir de las correla-
ciones y funciones cannicas. Diversos autores han estudiado la estimacin de
las primeras funciones cannicas, como una forma de predecir una variable en
funcin de la otra (Hastie y Tibshirani, 1990). Finalmente cabe destacar que
las correlaciones cannicas pueden constituir un conjunto contnuo (Cuadras,
2005).
Captulo 5
ANALISIS DE
COMPONENTES
PRINCIPALES
5.1 Denicin y obtencin de las componentes
principales
Sea X =[X
1
, . . . , X
p
] una matriz de datos multivariantes. Lo que sigue tam-
bin vale si X es un vector formado por p variables observables.
Las componentes principales son unas variables compuestas incorrela-
cionadas tales que unas pocas explican la mayor parte de la variabilidad
de X.
Denition 5.1.1 Las componentes principales son las variables compuestas
Y
1
= Xt
1
, Y
2
= Xt
2
, . . . , Y
p
= Xt
p
tales que:
1. var(Y
1
) es mxima condicionado a t

1
t
1
= 1.
2. Entre todas las variables compuestas Y tales que cov(Y
1
, Y ) = 0, la
variable Y
2
es tal que var(Y
2
) es mxima condicionado a t

2
t
2
= 1.
3. Y
3
es una variable incorrelacionada con Y
1
, Y
2
con varianza mxima.
Anlogamente denimos las dems componentes principales.
63
64 CAPTULO 5. ANALISIS DE COMPONENTES PRINCIPALES
Si T = [t
1
, t
2
, . . . , t
p
] es la matriz p p cuyas columnas son los vectores
que denen las componentes principales, entonces la transformacin lineal
X Y
Y = XT (5.1)
se llama transformacin por componentes principales.
Theorem 5.1.1 Sean t
1
, t
2
, . . . , t
p
los p vectores propios normalizados de la
matriz de covarianzas S, es decir,
St
i
=
i
t
i
, t

i
t
i
= 1, i = 1, . . . , p.
Entonces:
1. Las variables compuestas Y
i
= Xt
i
, i = 1, . . . , p, son las componentes
principales.
2. Las varianzas son los valores propios de S
var(Y
i
) =
i
, i = 1, . . . , p.
3. Las componentes principales son variables incorrelacionadas:
cov(Y
i
, Y
j
) = 0, i ,= j = 1, . . . , p.
Demost.: Supongamos
1
> >
p
> 0. Probemos que las variables Y
i
=
Xt
i
, i = 1, . . . , p, son incorrelacionadas:
cov(Y
i
, Y
j
) = t

i
St
j
= t

j
t
j
=
j
t

i
t
j
,
cov(Y
j
, Y
i
) = t

j
St
i
= t

j
t
i
=
i
t

j
t
i
,
(
j

i
)t

i
t
j
= 0, t

i
t
j
= 0, cov(Y
i
, Y
j
) =
j
t

i
t
j
= 0, si i ,= j.
Adems:
var(Y
i
) =
i
t

i
t
j
=
i
.
Sea ahora Y =

p
i=1
a
i
X
i
=

p
i=1

i
Y
i
una variable compuesta tal que

p
i=1

2
i
= 1. Entonces
var(Y ) = var(
p

i=1

i
Y
i
) =
p

i=1

2
i
var(Y
i
) =
p

i=1

2
i

i
(
p

i=1

2
i
)
1
= var(Y
1
),
5.2. VARIABILIDADEXPLICADAPORLAS COMPONENTES PRINCIPALES65
que prueba que Y
1
tiene varianza mxima.
Consideremos ahora las variables Y incorrelacionadas con Y
1
. Las podemos
expresar como:
Y =
p

i=1
b
i
X
i
=
p

i=2

i
Y
i
condicionado a
p

i=2

2
i
= 1.
Entonces:
var(Y ) = var(
p

i=2

i
Y
i
) =
p

i=2

2
i
var(Y
i
) =
p

i=2

2
i

i
(
p

i=2

2
i
)
2
= var(Y
2
),
y por lo tanto Y
2
est incorrelacionada con Y
1
y tiene varianza mxima. Si p
3, la demostracin de que Y
3
, . . . , Y
p
son tambin componentes principales es
anloga.
5.2 Variabilidad explicada por las componentes
principales
La varianza de la componente principal Y
i
es var(Y
i
) =
i
y la variacin total
es tr(S) =

p
i=1

i
. Por lo tanto:
1. Y
i
contribuye con la cantidad
i
a la variacin total tr(S).
2. Si q < p, Y
1
, . . . , Y
q
contribuyen con la cantidad

q
i=1

i
a la variacin
total tr(S).
3. El porcentaje de variabilidad explicada por las mprimeras componentes
principales es
P
m
= 100

1
+ +
m

1
+ +
p
. (5.2)
En las aplicaciones cabe esperar que las primeras componentes expliquen
un elevado porcentaje de la variabilidad total. Por ejemplo, si m = 2 < p, y
P
2
= 90%, las dos primeras componentes explican una gran parte de la vari-
abilidad de las variables. Entonces podremos sustituir X
1
, X
2
, . . . , X
p
por las
componentes principales Y
1
, Y
2
. En muchas aplicaciones, tales componentes
tienen interpretacin experimental.
66 CAPTULO 5. ANALISIS DE COMPONENTES PRINCIPALES
5.3 Representacin de una matriz de datos
Sea X =[X
1
, . . . , X
p
] una matriz n p de datos multivariantes. Queremos
representar, en un espacio de dimensin reducida m (por ejemplo, m = 2), las
las x

1
, x

2
, . . . , x

n
de X. Necesitamos introducir una distancia (ver Seccin
1.9).
Denition 5.3.1 La distancia eucldea (al cuadrado) entre dos las de X
x
i
= (x
i1
, . . . , x
ip
), x
j
= (x
j1
, . . . , x
jp
),
es

2
ij
= (x
i
x
j
)

(x
i
x
j
) =
p

h=1
(x
ih
x
jh
)
2
.
La matriz = (
ij
) es la matriz n n de distancias entre las las.
Podemos representar las n las de X como n puntos en el espacio R
p
distanciados de acuerdo con la mtrica
ij
. Pero si p es grande, esta repre-
sentacin no se puede visualizar. Necesitamos reducir la dimensin.
Denition 5.3.2 La variabilidad geomtrica de la matriz de distancias
es la media de sus elementos al cuadrado
V

(X) =
1
2n
2
n

i,j=1

2
ij
.
Si Y = XT es una transformacin lineal de X, donde T es una matriz p q
de constantes,

2
ij
(q) = (y
i
y
j
)

(y
i
y
j
) =
q

h=1
(y
ih
y
jh
)
2
es la distancia eucldea entre dos las de Y. La variabilidad geomtrica en
dimensin q p es
V

(Y)
q
=
1
2n
2
n

i,j=1

2
ij
(q).
5.3. REPRESENTACIN DE UNA MATRIZ DE DATOS 67
Theorem 5.3.1 La variabilidad geomtrica de la distancia eucldea es la
traza de la matriz de covarianzas
V

(X) =tr(S) =
p

h=1

h
.
Demost.: Si x
1
, . . . , x
n
es una muestra univariante con varianza s
2
, entonces
1
2n
2
n

i,j=1
(x
i
x
j
)
2
= s
2
. (5.3)
En efecto, si x es la media
1
n
2

n
i,j=1
(x
i
x
j
)
2
=
1
n
2

n
i,j=1
(x
i
x (x
j
x))
2
=
1
n
2

n
i,j=1
(x
i
x)
2
+
1
n
2

n
i,j=1
(x
j
x)
2
+
2
n
2

n
i,j=1
(x
i
x)(x
j
x))
2
=
1
n
ns
2
+
1
n
ns
2
+ 0 = 2s
2
.
Aplicando (5.3) a cada columna de X y sumando obtenemos
V

(X) =
p

j=1
s
jj
= tr(S).
Una buena representacin en dimensin reducida q (por ejemplo, q =
2) ser aquella que tenga mxima variabilidad geomtrica, a n de que los
puntos estn lo ms separados posible.
Theorem 5.3.2 La transformacin lineal T que maximiza la variabilidad
geomtrica en dimensin q es la transformacin por componentes principales
(5.1), es decir, T = [t
1
, . . . , t
q
] contiene los q primeros vectores propios nor-
malizados de S.
Demost.: Aplicando (5.3), la variabilidad geomtrica de Y = XT, donde T
es cualquiera, es
V

(Y)
q
=
p

j=1
s
2
(Y
j
) =
p

j=1
t

j
St
j
,
68 CAPTULO 5. ANALISIS DE COMPONENTES PRINCIPALES
siendo s
2
(Y
j
) = t

j
St
j
la varianza de la variable compuesta Y
j
. Alcanzamos la
mxima varianza cuando Y
j
es una componente principal: s
2
(Y
j
)
j
. As:
max V

(Y)
q
=
p

j=1

j
.
El porcentaje de variabilidad geomtrica explicada por Y es
P
q
= 100
V

(Y)
q
V

(X)
p
= 100

1
+ +
q

1
+ +
p
.
Supongamos ahora q = 2. Si aplicamos la transformacin (5.1), la matriz
de datos X se reduce a
Y =
_
_
_
_
_
_
_
y
11
y
12
.
.
.
.
.
.
y
i1
y
i2
.
.
.
.
.
.
y
n1
y
n2
_
_
_
_
_
_
_
.
Entonces, representando los puntos de coordenadas (y
i1
, y
i2
), i = 1, . . . , n,
obtenemos una representacin ptima en dimensin 2 de las las de X.
5.4 Inferencia
Hemos planteado el ACPsobre la matriz S, pero lo podemos tambin plantear
sobre la matriz de covarianzas poblacionales . Las componentes principales
obtenidas sobre S son, en realidad, estimaciones de las componentes princi-
pales sobre .
Sea X matriz de datos n p donde las las son independientes con dis-
tribucin N
p
(, ). Recordemos que:
1. x es N
p
(, /n).
2. U =nS es Wishart W
p
(, n 1).
3. x y S son estocsticamente independientes.
5.4. INFERENCIA 69
Sea =

la diagonalizacin de . Indiquemos
= [
1
, . . . ,
p
], = [
1
, . . . ,
p
], = diag(
1
, . . . ,
p
),
los vectores propios y valores propios de . Por otra parte, sea S = GLG

la
diagonalizacin de S. Indiquemos:
G = [g
1
, . . . , g
p
], l = [l
1
, . . . , l
p
], L = diag(l
1
, . . . , l
p
)
los vectores propios y valores propios de S. A partir de ahora supondremos

1
. . .
p
.
5.4.1 Estimacin y distribucin asinttica
Theorem 5.4.1 Se verica:
1. Si los valores propios son diferentes, los valores y vectores propios
obtenidos a partir de S son estimadores mximo-verosmiles de los
obtenidos a partir de

i
= l
i
,
i
= g
i
, i = 1, . . . , p.
2. Cuando k > 1 valores propios son iguales a

1
> . . . >
pk
=
pk+1
= . . . =
p
= ,
el estimador mximo verosmil de es la media de los correspondientes
valores propios de S

= (l
pk+1
+. . . +l
p
)/k
Demost.: Los valores y vectores propios estn biunvocamente relacionados
con y por lo tanto 1) es consecuencia de la propiedad de invariancia de
la estimacin mximo verosmil. La demostracin de 2) se encuentra en
Anderson (1959).
Theorem 5.4.2 Los vectores propios [g
1
, . . . , g
p
] y valores propios l = [l
1
, . . . , l
p
]
verican asintticamente:
70 CAPTULO 5. ANALISIS DE COMPONENTES PRINCIPALES
1. l es N
p
(, 2
2
/n). En particular:
l
i
es N(
i
, 2
2
i
/n), cov(l
i
, l
j
) = 0, i ,= j,
es decir, l
i
, l
j
son normales e independientes.
2. g
i
es N
p
(
i
, V
i
/n) donde
V
i
=
i

j=i

i
(
i

j
)
2

i
3. l es independiente de G.
Demost.: Anderson (1959), Mardia, Kent y Bibby (1979).
Como consecuencia de que l
i
es N(
i
, 2
2
i
/n), obtenemos el intervalo de
conanza asinttico con coeciente de conanza 1
l
i
(1 +az
/2
)
1/2
<
i
<
l
i
(1 az
/2
)
1/2
siendo a
2
= 2/(n 1) y P([Z[ > z
/2
) = /2, donde Z es N(0, 1).
Se obtiene otro intervalo de conanza como consecuencia de que log l
i
es
N(log
i
, 2/(n 1))
l
i
e
az
/2
<
i
< l
i
e
+az
/2
.
5.4.2 Tests de hiptesis
Determinados tests de hiptesis relativos a las componentes principales son
casos particulares de un test sobre la estructura de la matriz .
A. Supongamos que queremos decidir si la matriz es igual a una matriz
determinada
0
. Sea X un matriz n p con las independientes N
p
(, ).
El test es:
H
0
: =
0
( desconocida)
Si L es la verosimilitud de la muestra, el mximo de log L bajo H
o
es
log L
0
=
n
2
log [2
0
[
n
2
tr(
1
0
S).
El mximo no restringido es
log L =
n
2
log [2S[
n
2
p.
5.4. INFERENCIA 71
El estadstico basado en la razn de verosimilitud
R
es
2 log
R
= 2(log L log L
0
)
= ntra(
1
0
S)nlog [
1
0
S[ np.
(5.4)
Si L
1
, . . . , L
p
son los valores propios de
1
0
S y a, g son las medias aritmtica
y geomtrica
a = (L
1
+. . . +L
p
)/p, g = (L
1
. . . L
p
)
1/p
, (5.5)
entonces, asintticamente
2 log
R
= np(a log g 1)
2
q
, (5.6)
siendo q = p(p + 1)/2par(
0
) el nmero de parmetros libres de menos
el nmero de parmetros libres de
0
.
B. Test de independencia completa.
Si la hiptesis nula arma que las p variables son estocsticamente inde-
pendientes, el test se formula como
H
0
: =
d
= diag(
11
, ,
pp
) ( desconocida).
Bajo H
0
la estimacin de
d
es S
d
=diag(s
11
, , s
pp
) y S
1
d
S = R es la ma-
triz de correlaciones. De (5.4) y de log [2S
d
[log [2S[ =log [R[, tra(R) =p,
obtenemos
2 log
R
= nlog [R[
2
q
siendo q = p(p +1)/2 p = p(p 1)/2. Si el estadstico nlog [R[ no es sig-
nicativo, entonces podemos aceptar que las variables son incorrelacionadas
y por lo tanto, como hay normalidad multivariante, independientes.
C. Test de igualdad de valores propios.
Este es un test importante en ACP. La hiptesis nula es
H
0
:
1
> . . . >
pk
=
pk+1
= . . . =
p
= .
Indicamos los valores propios de S y de S
0
(estimacin de si H
0
es cierta)
S (l
1
, . . . , l
k
, l
k+1
, . . . , l
p
), S
0
(l
1
, . . . , l
k
, a
0
, . . . , a
0
),
donde a
0
= (l
k+1
+. . . +l
p
)/(p k) (Teorema 5.4.1). Entonces
S
1
0
S (1, . . . , 1, l
k+1
/a
0
, . . . , l
p
/a
0
),
72 CAPTULO 5. ANALISIS DE COMPONENTES PRINCIPALES
5 4 3 2 1 0
50
37.5
25
12.5
k
lam
k
lam
Figura 5.1: Ejemplo de representacin de los valores propios, que indicara 3
componentes principales.
las medias (5.5) son a = 1 y g = (l
k+1
. . . l
p
)
1/p
a
(kp)/p
0
y aplicando (5.6)
2 log
R
= n(p k) log(l
k+1
+. . . +l
p
)/(p k) n(
p

i=k+1
log l
i
)
2
q
, (5.7)
donde q = (p k)(p k + 1)/2 1.
5.5 Nmero de componentes principales
En esta seccin presentamos algunos criterios para determinar el nmero
m < p de componentes principales.
5.5.1 Criterio del porcentaje
El nmero m de componentes principales se toma de modo que P
m
sea prx-
imo a un valor especicado por el usuario, por ejemplo el 80%. Por otra
parte, si la representacin de P
1
, P
2
, . . . , P
k
, . . . con respecto de k prctica-
mente se estabiliza a partir de un cierto m, entonces aumentar la dimensin
apenas aporta ms variabilidad explicada.
5.5. NMERO DE COMPONENTES PRINCIPALES 73
5.5.2 Criterio de Kaiser
Obtener las componentes principales a partir de la matriz de correlaciones
R equivale a suponer que las variables observables tengan varianza 1. Por
lo tanto una componente principal con varianza inferior a 1 explica menos
variabilidad que una variable observable. El criterio, llamado de Kaiser, es
entonces:
Retenemos las m primeras componentes tales que
m
1,
donde
1
. . .
p
son los valores propios de R, que tambin son las
varianzas de las componentes. Estudios de Montecarlo prueban que es ms
correcto el punto de corte

= 0.7, que es ms pequeo que 1.


Este criterio se puede extender a la matriz de covarianzas. Por ejemplo,
m podra ser tal que
m
v, donde v =tra(S)/p es la media de las varianzas.
Tambin es aconsejable considerar el punto de corte 0.7 v.
5.5.3 Test de esfericidad
Supongamos que la matriz de datos proviene de una poblacin normal mul-
tivariante N
p
(, ). Si la hiptesis
H
(m)
0
:
1
> . . . >
m
>
m+1
= . . . =
p
es cierta, no tiene sentido considerar ms de m componentes principales. En
efecto, no hay direcciones de mxima variabilidad a partir de m, es decir,
la distribucin de los datos es esfrica. El test para decidir sobre H
(m)
0
est
basado en el estadstico ji-cuadrado (5.7) y se aplica secuencialmente: Si
aceptamos H
(0)
0
no hay direcciones principales, pero si rechazamos H
(0)
0
, en-
tonces repetimos el test con H
(1)
0
. Si aceptamos H
(1)
0
entonces m = 1, pero si
rechazamos H
(1)
0
repetimos el test con H
(2)
0
, y as sucesivamente. Por ejem-
plo, si p = 4, tendramos que m = 2 si rechazamos H
(0)
0
, H
(1)
0
y aceptamos
H
(2)
0
:
1
>
2
>
3
=
4
.
5.5.4 Criterio del bastn roto
Los valores propios suman V
t
=tr(S), que es la variabilidad total. Imaginemos
un bastn de longitud V
t
, que rompemos en p trozos al azar (asignando p 1
puntos uniformemente sobre el intervalo (0, V
t
)) y que los trozos ordenados
74 CAPTULO 5. ANALISIS DE COMPONENTES PRINCIPALES
son los valores propios l
1
> l
2
> . . . > l
p
. Si normalizamos a V
t
= 100,
entonces el valor esperado de l
j
es
E(L
j
) = 100
1
p
pj

i=1
1
j +i
.
Las m primeras componentes son signicativas si el porcentaje de varianza
explicada supera claramente el valor de E(L
1
) + . . . + E(L
m
). Por ejemplo,
si p = 4, los valores son:
Porcentaje E(L
1
) E(L
2
) E(L
3
) E(L
4
)
Esperado 52.08 27.08 14.58 6.25
Acumulado 52.08 79.16 93.74 100
Si V
2
= 93.92 pero V
3
= 97.15, entonces tomaremos slo dos componentes.
5.5.5 Un ejemplo
Example 5.5.1
Sobre una muestra de n = 100 estudiantes de Bioestadstica, se midieron
las variables
X
1
= peso (kg), X
2
=talla (cm.), X
3
=ancho hombros (cm.), X
4
= ancho
caderas (cm.),
con los siguientes resultados:
1. medias: x
1
= 54.25, x
2
= 161.73, x
3
= 36.53, x
4
= 30.1.
2. matriz de covarianzas:
S =
_
_
_
_
44.7 17.79 5.99 9.19
17.79 26.15 4.52 4.44
5.99 4.52 3.33 1.34
9.19 4.44 1.34 4.56
_
_
_
_
5.5. NMERO DE COMPONENTES PRINCIPALES 75
3. vectores y valores propios (columnas):
t
1
t
2
t
3
t
4
. 8328 . 5095 . 1882 . 1063
. 5029 . 8552 .0 202 . 1232
. 1362 .05 88 . 1114 . 9826
.1867 .0738 .9755 .0892
Val. prop. 58.49 15.47 2.54 2.24
Porc. acum. 74.27 93.92 97.15 100
4. Nmero de componentes:
a. Criterio de Kaiser: la media de las varianzas es v =tr(S)/p =
19.68. Los dos primeros valores propios son 58.49 y 15.47, que son
mayores que 0.7 v. Aceptamos m = 2.
b. Test de esfericidad.
m
2
g.l.
0 333.9 9
1 123.8 5
2 0.39 2
Rechazamos m = 0, m = 1 y aceptamos m = 2.
c. Test del bastn roto: Puesto que P
2
= 93.92 supera claramente el
valor esperado 79.16 y que no ocurre lo mismo con P
3
, aceptamos
m = 2.
5. Componentes principales:
Y
1
= . 8328X
1
+. 5029X
2
+. 1362X
3
+ . 1867X
4
,
Y
2
= . 5095X
1
. 8552X
2
.05 88X
3
+.0738X
4
.
6. Interpretacin: la primera componente es la variable con mxima var-
ianza y tiene todos sus coecientes positivos. La interpretamos como
una componente de tamao. La segunda componente tiene coecientes
positivos en la primera y cuarta variable y negativos en las otras dos.
La interpretamos como una componente de forma. La primera com-
ponente ordena las estudiantes segn su tamao, de la ms pequea
a la ms grande, y la segunda segn la forma, el tipo pcnico en con-
traste con el tipo atltico. Las dimensiones de tamao y forma estn
incorrelacionadas.
76 CAPTULO 5. ANALISIS DE COMPONENTES PRINCIPALES
5.6 Complementos
El Anlisis de Componentes Principales (ACP) fu iniciado por K. Pearson en
1901 y desarrollado por H. Hotelling en 1933. Es un mtodo referente a una
poblacin, pero W. Krzanowski y B. Flury han investigado las componentes
principales comunes a varias poblaciones.
El ACP tiene muchas aplicaciones. Una aplicacin clsica es el estudio
de P. Jolicoeur y J. E. Mosimann sobre tamao y forma de animales, en
trminos de la primera, segunda y siguientes componentes principales. La
primera componente permite ordenar los animales de ms pequeos a ms
grandes, y la segunda permite estudiar su variabilidad en cuanto a la forma.
Ntese que tamao y forma son conceptos independientes.
El ACP puede servir para estudiar la capacidad. Supongamos que la
caparazn de una tortuga tiene longitud L, ancho A, y alto H. La capacidad
sera C = L

, donde , , son parmetros. Aplicando logaritmos,


obtenemos
log C = log L + log A+ log H = log(L

),
que podemos interpretar como la primera componente principal Y
1
de las
variables log L, log A, log H, y por tanto , , seran los coecientes de Y
1
.
Por medio del ACP es posible efectuar una regresin mltiple de Y so-
bre X
1
, . . . , X
p
, considerando las primeras componentes principales Y
1
, Y
2
, . . .
como variables explicativas, y realizar regresin de Y sobre Y
1
, Y
2
, . . . , evi-
tando as efectos de colinealidad, aunque las ltimas componentes princi-
pales tambin pueden inuir (Cuadras, 1993). La regresin ortogonal es
una variante interesante. Supongamos que se quieren relacionar las variables
X
1
, . . . , X
p
(todas con media 0), en el sentido de encontrar los coecientes

1
, . . . ,
p
tales que
1
X
1
+ . . . +
p
X
p

= 0. Se puede plantear el problema
como var(
1
X
1
+ . . . +
p
X
p
) =mnima, condicionado a
2
1
+ . . . +
2
p
= 1.
Es fcil ver que la solucin es la ltima componente principal Y
p
.
Se pueden denir las componentes principales de un proceso estocstico
y de una variable aleatoria. Cuadras y Fortiana (1995), Cuadras y Lahlou
(2000) han estudiado las componentes principales de las variables uniforme,
exponencial y logstica.
Captulo 6
ANLISIS FACTORIAL
6.1 Introduccin
El Anlisis Factorial (AF) es un mtodo multivariante que pretende expresar
p variables observables como una combinacin lineal de m variables hipotti-
cas o latentes, denominadas factores. Tiene una formulacin parecida al
Anlisis de Componentes Principales, pero el modelo que relaciona variables
y factores es diferente en AF. Si la matriz de correlaciones existe, las compo-
nentes principales tambin existen, mientras que el modelo factorial podra
ser aceptado o no mediante un test estadstico.
Ejemplos en los que la variabilidad de las variables observables se puede
resumir mediante unas variables latentes, que el AF identica como fac-
tores, son:
1. La teoria clsica de la inteligencia supona que los tests de inteligen-
cia estaban relacionados por un factor general, llamado factor g de
Spearman.
2. La estructura de la personalidad, tambin medida a partir de los tests,
est dominada por dos dimensiones: el factor neuroticismo-estabilidad
y el factor introversin-extroversin.
3. Las diferentes caractersticas polticas de ciertos pases estn inuidas
por dos dimensiones: izquierda-derecha y centralismo-nacionalismo.
El AF obtiene e interpreta los factores comunes a partir de la matriz de
77
78 CAPTULO 6. ANLISIS FACTORIAL
correlaciones entre las variables:
R =
_
_
_
_
1 r
12
r
1p
r
21
1 r
2p
. . . . . .
r
p1
r
p2
1
_
_
_
_
.
6.2 El modelo unifactorial
Consideremos X
1
, . . . , X
p
variables observables sobre una misma poblacin.
El modelo ms simple de AF slo contempla un factor comn F, que recoge
la covariabilidad de todas las variables, y p factores nicos U
1
, . . . , U
p
, uno
para cada variable. El modelo factorial es
X
i
= a
i
F +d
i
U
i
, i = 1, . . . , p. (6.1)
De acuerdo con este modelo, cada variable X
i
depende del factor comn
F y de un factor nico U
i
. El modelo supone que:
a) las variables y los factores estn estandarizados (media 0 y varianza
1).
b) Los p + 1 factores estn incorrelacionados.
De este modo F contiene la parte de la variabilidad comn a todas las
variables, y cada X
i
est adems inuida por un factor nico U
i
, que aporta
la parte de la variabilidad que no podemos explicar a partir del factor comn.
El coeciente a
i
es la saturacin de la variable X
i
en el factor F.
De (6.1) deducimos inmediatamente que
a
2
i
+d
2
i
= 1,
cor(X
i
, F) = a
i
,
cor(X
i
, X
j
) = a
i
a
j
, i ,= j.
Por lo tanto la saturacin a
i
es el coeciente de correlacin entre X
i
y el factor
comn. Por otra parte a
2
i
, cantidad que recibe el nombre de comunalidad,
indicada por h
2
i
, es la proporcin de variabilidad que se explica por F y la
correlacin entre X
i
, X
j
slo depende de las saturaciones a
i
, a
j
.
Una caracteritzacin del modelo unifactorial es
r
ij
r
i

j
=
r
ij

r
i

=
a
i
a
i

, (6.2)
6.2. EL MODELO UNIFACTORIAL 79
es decir, los cocientes entre elementos de la misma columna no diagonal de
dos las de la matriz de correlaciones R es constante. Esto es equivalente a
decir que el determinante de todo menor de orden dos de R, que no contenga
elementos de la diagonal, es cero:

r
ij
r
ij

r
i

j
r
i

= r
ij
r
i

j
r
ij
r
i

j
= a
i
a
j
a
i
a
j
a
i
a
j
a
i
a
j
= 0. (6.3)
Estas son las llamadas relaciones tetrdicas, que necesariamente se deben
cumplir para que sea vlido el modelo unifactorial.
La matriz de correlacions reducida R

se obtiene substituyendo la diago-


nal de unos por las comunalidades (vase (6.7)). Es inmediato probar que R

tiene rango 1, que todos los menores de orden dos se anulan y que las comu-
nalidades se obtienen a partir de las correlaciones. Por ejemplo, la primera
comunalidad es
h
2
1
=
r
12
r
13
r
23
=
r
12
r
14
r
24
= =
r
1p1
r
1p
r
pp1
. (6.4)
En las aplicaciones reales, tanto estas relaciones, com las tetrdicas, slo se
verican aproximadamente. As, la estimacin de la primera comunalidad
podra consistir en tomar la media de los cocientes (6.4).
Por ejemplo, la siguiente matriz de correlaciones
C F I M D Mu
C 1.00 0.83 0.78 0.70 0.66 0.63
F 0.83 1.00 0.67 0.67 0.65 0.57
I 0.78 0.67 1.00 0.64 0.54 0.51
M 0.70 0.67 0.64 1.00 0.45 0.51
D 0.66 0.65 0.54 0.45 1.00 0.40
Mu 0.63 0.57 0.51 0.51 0.40 1.00
relaciona las calicaciones en C(clsicas), F (francs), I (ingls), M(matemti-
cas), D (discriminacin de tonos) y Mu (msica) obtenidas por los alumnos
de una escuela. Esta matriz verica, aproximadamente, las relaciones (6.2).
Si consideramos la primera y la tercera la, tenemos que:
0.83
0.67

=
0.70
0.64

=
0.66
0.54

=
0.63
0.51

= 1.2 .
De acuerdo con el modelo unifactorial, estas calicaciones dependen esencial-
mente de un factor comn.
80 CAPTULO 6. ANLISIS FACTORIAL
6.3 El modelo multifactorial
6.3.1 El modelo
El modelo del anlisis factorial de m factores comunes considera que las p
variables observables X
1
, . . . , X
p
dependen de mvariables latentes F
1
, . . . , F
m
,
lamadas factores comunes, y p factores nicos U
1
, . . . , U
p
, de acuerdo con el
modelo lineal:
X
1
= a
11
F
1
+ + a
1m
F
m
+d
1
U
1
X
2
= a
21
F
1
+ + a
2m
F
m
+d
2
U
2

X
p
= a
p1
F
1
+ + a
1p
F
m
+d
p
U
p
.
(6.5)
Las hiptesis del modelo son:
1. Los factores comunes y los factores nicos estn incorrelacionados dos
a dos
cor(F
i
, F
j
) = 0, i ,= j = 1, . . . , m,
cor(U
i
, U
j
) = 0, i ,= j = 1, . . . , p.
2. Los factores comunes estn incorrelacionados con los factores nicos
cor(F
i
, U
j
) = 0, i = 1, . . . , m, j = 1, . . . , p.
3. Tanto los factores comunes como los factores nicos sn variables re-
ducidas.
En el modelo factorial (6.5) se admite que las variables, en conjunto,
dependen de los factores comunes, salvo una parte de su variabilidad, slo
explicada por el correspondiente factor especco. Los factores comunes rep-
resentan dimensiones independentes en el sentido lineal, y dado que tanto
los factores comunes como los nicos son variables convencionales, podemos
suponer que tienen media 0 y varianza 1.
6.3. EL MODELO MULTIFACTORIAL 81
6.3.2 La matriz factorial
Los coecientes a
ij
son las saturaciones entre cada variable X
i
y el factor F
j
.
La matriz p m que contiene estos coecientes es la matriz factorial
A =
_
_
_
_
a
11
a
1m
a
21
a
2m

a
p1
a
pm
_
_
_
_
.
Si indicamos por X = (X
1
, . . . , X
p
)

el vector columna de las variables,


y anlogamente F = (F
1
, . . . , F
m
)

, U =(U
1
, . . . , U
p
)

, el modelo factorial en
expresin matricial es
X = AF +DU, (6.6)
donde D =diag(d
1
, . . . , d
p
) es la matriz diagonal con las saturaciones entre
variables y factores nicos. El AF tiene como principal objetivo encontrar e
interpretar la matriz factorial A.
6.3.3 Las comunalidades
De las condiciones del modelo del AF se verica
var(X
i
) = a
2
i1
+ +a
2
im
+d
2
i
,
y por lo tanto a
2
ij
es la parte de la variabilidad de la variable X
i
que es debida
al factor comn F
j
, mientras que d
2
i
es la parte de la variabilidad explicada
exclusivamente por el factor nico U
i
.
La cantidad
h
2
i
= a
2
i1
+ +a
2
im
(6.7)
se llama comunalidad de la variable X
i
. La cantidad d
2
i
es la unicidad. Luego,
para cada variable tenemos que:
variabilidad = comunalidad + unicidad.
La comunalidad es la parte de la variabilidad de las variables slo explicada
por los factores comunes.
Si supoemos que las variables observables son tambin reducidas, entonces
tenemos que
1 = h
2
i
+d
2
i
. (6.8)
82 CAPTULO 6. ANLISIS FACTORIAL
La matriz de correlaciones reducida se obtiene a partir de Rsubstituyendo
los unos de la diagonal por las comunalidades
R

=
_
_
_
_
h
2
1
r
12
r
1p
r
21
h
2
2
r
2p
. . . . . .
r
p1
r
p2
h
2
p
_
_
_
_
.
Evidentmente se verica
R = R

+D
2
. (6.9)
6.3.4 Nmero mximo de factores comunes
El nmero m de factores comunes est limitado por un valor mximo m
a
,
que podemos determinar teniendo en cuenta que hay p(p1)/2 correlaciones
diferentes y p m saturaciones. Pero si A es matriz factorial tambin lo es
AT, donde T es matriz ortogonal, por tanto introduciremos m(m 1)/2
restricciones y el nmero de parmetros libres de A ser p mm(m1)/2.
El nmero de correlaciones menos el nmero de parmetros libres es
d = p(p 1)/2 (p mm(m1)/2) =
1
2
[(p m)
2
p m]. (6.10)
Si igualamos d a 0 obtenemos una ecuacin de segundo grado que un vez
resuelta nos prueba que
m m
a
=
1
2
(2p + 1
_
8p + 1).
Un modelo factorial es sobredeterminado si m > m
a
, pues hay ms satu-
raciones libres que correlaciones. Si m = m
a
el modelo es determinado y
podemos encontrar A algebraicamente a partir de R.
Desde un punto de vista estadstico, el caso ms interesante es m < m
a
,
ya que entonces podemos plantear la estimacin estadstica de A, donde
d > 0 juega el papel de nmero de grados de libertad del modelo. El nmero
mximo m

de factores comunes en funcin de p es:


p 2 3 4 5 6 7 8 9 10 20 30 40
m

0 1 1 2 3 3 4 5 6 14 22 31
Asignamos a m

el valor entero por defecto cuando m


a
tiene parte frac-
cionaria.
6.3. EL MODELO MULTIFACTORIAL 83
6.3.5 El caso de Heywood
Una limitacin del model factorial es que alguna comunalidad puede alcanzar
(algebraicamente) un valor superior a 1, contradiciendo (6.8). Cuando esto
ocurre, la soluci se ha de interpretar con precaucin. En algunos mtodos,
como el de la mxima verosimilitud, se resuelve este inconveniente (primera-
mente observado por H.B. Heywood) imponiendo la condicin h
2
i
1 en la
estimacin de las comunalidades.
6.3.6 Un ejemplo
Las asignaturas clsicas de la enseanza media, se dividen, en lneas gen-
erales, en asignaturas de Ciencias o de Letras, las primeras con contenido ms
racional y emprico, las segundas con contenido ms humanstico y artstico.
Consideremos las siguientes 5 asignaturas:
Ciencias Naturales (CNa), Matemticas (Mat), Francs (Fra), Latn (Lat),
Literatura (Lit). Supongamos que estn inuidas por dos factores comunes o
variables latentes: Ciencias (C) y Letras (L). En otras palabras, suponemos
que C y L son dos variables no observables, que de manera latente inuyen
sobre las cinco asignaturas. Las calicaciones de n = 20 alumnos en las
asignaturas y en los factores se encuentran en la Tabla 6.1.
Vamos a suponer que la matriz factorial es
C L
CNa .8 .2
Mat .9 .1
Fra .1 .9
Lla .3 .8
Lit .2 .8
Las dos primeras asignaturas estn ms inuidas por el factor C, y las
tres ltimas por el factor L. Por ejemplo, Matemticas tiene una correlacin
de 0.9 con Ciencias y slo 0.1 con Letras.
La calicacin del primer alumno en CNa es 7, debida a 7 puntos en
Ciencias y 5 puntos en Letras. Segn el modelo factorial:
7 = 0.8 7 + 0.2 5 + 0.4
84 CAPTULO 6. ANLISIS FACTORIAL
Asignaturas Factors
Alumno CNa Mat Fra Lat Lit
1 7 7 5 5 6
2 5 5 6 6 5
3 5 6 5 7 5
4 6 8 5 6 6
5 7 6 6 7 6
6 4 4 6 7 6
7 5 5 5 5 6
8 5 6 5 5 5
9 6 5 7 6 6
10 6 5 6 6 6
11 6 7 5 6 5
12 5 5 4 5 4
13 6 6 6 6 5
14 8 7 8 8 8
15 6 7 5 6 6
16 4 3 4 4 4
17 6 4 7 8 7
18 6 6 7 7 7
19 6 5 4 4 4
20 7 7 6 7 6
Cincies Lletres
7 5
5 6
6 5
7 5
6 6
4 6
5 6
6 5
5 6
5 6
7 5
6 4
6 6
7 8
6 5
3 4
5 7
6 7
5 4
7 6
Tabla 6.1: Calicaciones en 5 asignaturas y puntuaciones en 2 factores co-
munes de 20 alumnos.
CNa Mat Fra Lat Lit
CNa 1 0.656 0.497 0.420 0.584
Mat 1 0.099 0.230 0.317
Fra 1 0.813 0.841
Lat 1 0.766
Lit 1
Tabla 6.2: Matriz de correlaciones para las calicaciones en 5 asignaturas.
6.4. TEOREMAS FUNDAMENTALES 85
De los 7 puntos, 5.6 se explican por el factor comn C, 1 punto por el factor
comn L y 0.4 punts por el factor nico. Este factor nico representa la
variabilidad propia de las CNa, independente de los conceptos C y L.
Las comunalidades son:
h
2
1
= 0.68, h
2
2
= 0.82, h
2
3
= 0.82, h
2
4
= 0.73, h
2
5
= 0.68.
Los porcentajes de la variabilidad explicada por los factores comunes y las
comunalidades son:
Factor C Factor L Comunalidades
C. Naturales 64 4 68
Matemticas 81 1 82
Francs 1 81 82
Latn 9 64 73
Literatura 4 64 68
6.4 Teoremas fundamentales
El primer teorema, conocido como teorema de Thurstone, permite relacionar
la matriz factorial con la matriz de correlaciones, o ms exactamente, con la
matriz de correlaciones reducida. El segundo teorema permite determinar,
tericamente, el nmero de factores comunes y los valores de las comunali-
dades.
Theorem 6.4.1 Bajo las hiptesis del modelo factorial lineal se verica
r
ij
=

m
k=1
a
ik
a
jk
, i ,= j = 1, . . . , p,
1 =

m
k=1
a
2
ik
+d
2
i
, i = 1, . . . , p.
En notacin matricial
R = AA

+D
2
. (6.11)
Demost.: Al ser las variables reducidas, R =E(XX

) y de (6.6)
R = E((AF +DU)(AF +DU)

)
= AE(FF

)A

+DE(UU

)D

+ 2AE(FU

)D.
Por las condiciones de incorrelacin entre factores tenemos que E(FF

) = I
m
,
E(UU

) = I
p
, E(FU

) = 0, lo que prueba (6.11).


86 CAPTULO 6. ANLISIS FACTORIAL
De (6.9) vemos inmediatamente que
R

= AA

. (6.12)
Una solucin factorial viene dada por cualquier matriz A que cumpla la
relacin (6.12). As pues, si m > 1, existen innitas soluciones, pues si A es
solucin, tambin lo es AT, siendo T una matriz mm ortogonal. Por otro
lado, (6.11) o (6.12) tampoco resuelven completamente el problema, ya que
desconocemos las comunalidades. La obtencin de las comunalidades est
muy ligada al nmero de factores comunes.
Theorem 6.4.2 Se verica:
1. El modelo factorial existe si R es la suma de una matriz semidenida
positiva y una matriz diagonal con elementos no negativos.
2. El nmero m de factores comunes es el rango de la matriz R

. Por
lo tanto m es el orden del ms grande menor de R que no contiene
elementos de la diagonal.
3. Les comunalidades son aquellos valores 0 h
2
i
1 tales que R

es
matriz semi-denida positiva (tiene m valores propios positivos).
Prueba: Es una consecuencia de la relacin (6.12) entre R

y A. El mayor
menor de Rquiere decir la submatriz cuadrada con determinante no negativo,
que no contenga elementos de la diagonal.
Hemos visto que a partir de R podemos encontrar m, pero la solucin no
es nica. El principio de parsimonia en AF dice que entre varias soluciones
admisibles, escogeremos la que sea ms simple. El modelo factorial ser pues
aquel que implique un nmero mnimo m de factores comunes. Fijado m,
las comunalidads se pueden encontrar, algebraicamente, a partir de la matriz
de correlaciones R. En la prctica, las comunalidades se hallan aplicando
mtodos estadsticos.
Finalmente, podemos probar de manera anloga, que si el anlisis factorial
lo planteamos a partir de la matriz de covarianzas , sin suponer las variables
reducidas, aunque s los factores, entonces obtenemos la estructura
= AA

+D
2
. (6.13)
6.5. MTODO DEL FACTOR PRINCIPAL 87
6.5 Mtodo del factor principal
Es un mtodo de obtencin de la matriz factorial con la propiedad de que
los factores expliquen mxima varianza y sean incorrelacionados.
La variabilidad total de las variables, que suponemos reducidas, es p. La
variabilidad de la variable X
i
explicada por el factor F
j
es a
2
ij
. La suma de
variabilidades explicadas por F
j
es
V
j
= a
2
1j
+. . . +a
2
pj
.
El primer factor principal F
1
es tal que V
1
es mximo. Consideremos pues
el problema de maximizar V
1
con la restriccin R

= AA

. Utilizando el
mtodo de los multiplicadores de Lagrange debemos considerar la funcin
V
1
+
p

j,j

=1
q
jj
(r
jj

m

k=1
a
jk
a
j

k
),
donde q
jj
= q
j

j
sn los multiplicadores. Igualando las derivadas a cero se
obtiene que las saturaciones a
1
= (a
11
, . . . , a
p1
)

del primer factor principal


verican
R

a
1
=
1
a
1
,
es decir, a
1
es el primer vector propio de R

y
1
es el primer valor propio.
El valor mximo de V
1
es precisamente
1
.
Si ahora restamos del modelo factorial el primer factor
X

i
= X
i
a
i1
F
1
= a
i2
F
2
+. . . +a
im
F
m
+d
i
U
i
,
el modelo resultante contiene m1 factores. Aplicando de nuevo el criterio
del factor principal al modelo vemos que las saturaciones a
2
= (a
12
, . . . , a
p2
)

tales que la variabilidad explicada por el segundo factor


V
2
= a
2
12
+. . . +a
2
p2
,
sea mxima, corresponende al segundo vector propio de R

con valor propio

2
, que es precisament el valor mximo de V
2
.
En general, si R

= UU

es la descomposicin espectral de R

, la
solucin del factor principal es
A = U
1/2
.
88 CAPTULO 6. ANLISIS FACTORIAL
Fijado un valor compatible de m, un algoritmo iterativo de obtencin de
la matriz factorial y de las comunalidads es:
Paso 1 R = UU

(p valores y vectores propios)


Paso 2 R
1
= U
(1)
m

(1)
m
U
(1)
m
(m primeros valores y vectores prop
Paso i R
i
= U
(i)
m

(i)
m
U
(i)
m
,
A
i
= U
(i)
m
(
(i)
m
)
1/2
Paso i+1 R
i+1
=diag(A
i
A

i
) +RI (volver al paso i)
La matriz A
i
converge a la matriz factorial A. Como criterio de conver-
gencia podemos considerar la estabilidad de las comunalidades. Pararemos
si pasando de i a i + 1 los valores de las comunalidads, es decir, los valores
en diag(A
i
A

i
), prcticamente no varan. Esta refactorizacin podria fallar si
se presenta el caso de Heywood o R no satisface el model factorial (6.11).
Ejemplo: Volviendo al ejemplo de las asignaturas, la solucin por el
mtodo del factor principal encuentra dos factores que explican el 74.6% de
la varianza:
F
1
F
2
C. Naturales .621 -.543
Matemticas .596 -.682
Francs .796 .432
Latn .828 .210
Literatura .771 .292
Valor propio 2.654 1.076
Porcentaje 53.08 21.52
6.6 Mtodo de la mxima verosimilitud
6.6.1 Estimacin de la matriz factorial
Podemos plantear la obtencin de la matriz factorial como un problema de
estimacin de la matriz de covarianzas , con la restriccin que se descom-
pone en la forma
= AA

+V,
donde V = D
2
es una matriz diagonal (vase (6.13)). Si suponemos que las
n observacions de las p variables provienen de una distribucin normal con
6.6. MTODO DE LA MXIMA VEROSIMILITUD 89
= 0, el logaritmo de la funcin de verosimilitud es
log L(X,, ) =
n
2
(log [2[ tr(
1
S)).
Cambiando de signo y modicando algunas constantes, se trata de estimar
A y V de manera que
F
p
(A, V) =log [[ +tr(
1
S)log [S[p (6.14)
sea mnimo, siendo S la matriz de covarianzas muestrales. Las derivadas
respecto de A y V son
F
p
A
= 2
1
( S)
1
A,
F
p
V
= diag(
1
( S)
1
).
Por tanto, las ecuaciones a resolver para obtener estimaciones de A y V son

1
( S)
1
A = 0, diag(
1
( S)
1
) = 0,
= AA

+V, A

V
1
A es diagonal.
(6.15)
La ltima condicin es slo una restriccin para concretar una solucin,
puesto que si A es solucin, tamb lo es AT, siendo T matriz ortogonal.
Debe tenerse en cuenta que se trata de encontrar el espacio de los factores
comunes. La solucin nal ser, en la prctica, una rotacin de la solu-
cin que verique ciertos criterios de simplicidad. Las ecuaciones (6.15) no
proporcionan una solucin explcita, pero es posible encontrar una solucin
utilizando un mtodo numrico iterativo.
6.6.2 Hiptesis sobre el nmero de factores
Una ventaja del mtodo de la mxima verosimilitud es que permite formular
un test de hiptesis sobre la estructura factorial de y el nmero m de
factores comunes.
Planteemos el test
H
0
: = AA

+V vs H
1
: es denida positiva,
donde A es de rango m.
90 CAPTULO 6. ANLISIS FACTORIAL
Si

=

A

V, siendo

Ay

Vlas estimaciones, los mximos del logaritmo
de la razn de verosimilitud son (Seccin 5.4.2)
H
0
:
n
2
(log [

[ + tr(

1
S)),
H
1
:
n
2
(log [S[ +p).
Aplicando el Teorema 3.5.1 tenemos que el estadstico
C
k
= n(log [

[ log [S[ + tr(

1
S)p) = nF
p
(

A,

V)
sigue asinptticamente la distribucin ji-cuadrado con
k = p(p 1)/2 (p m+p m(m1)/2) =
1
2
((p m)
2
p m)
grados de libertad. Podemos observar que C
k
es n veces el valor mnimo de
la funcin (6.14) y que k coincide con (6.10).
6.7 Rotaciones de factores
La obtencin de la matriz factorial, por aplicacin de los dos mtodos que
hemos expuesto, no es ms que el primer paso del AF. Normalmente la matriz
obtenida no dene unos factores interpretables. En el ejemplo de las asig-
naturas, la solucin por el mtodo del factor principal es en principio vlida,
pero dene dos factores comunes F
1
, F
2
que no son fcilmente identicables.
Se hace necesario rotar estos dos factores hacia unos factores ms fciles
de interpretar.
Se han propuesto diferentes versiones sobre como transformar la matriz
factorial a n de obtener una estructura simple de los factores. Esencialmente
se trata de conseguir que unas saturaciones sean altas a costa de otras, que
sern bajas, para as destacar la inuencia de los factores comunes sobre las
variables observables.
6.7.1 Rotaciones ortogonales
Dada una matriz factorial A, queremos encontrar una matriz ortogonal T
tal que la nueva matriz factorial B = AT dena unos factores que tengan
una estructura ms simple. Un criterio analtico considera la funcin
G =
m

k=1
m

k=j=1
[
p

i=1
a
2
ij
a
2
ik


p
p

i=1
a
2
ij
p

i=1
a
2
ik
], (6.16)
6.7. ROTACIONES DE FACTORES 91
donde es un parmetro tal que 0 1. Hay dos criterios especialmente
interesantes.
Quartimax: Si = 0 minimizar G equivale a maximizar la varianza de
los cuadrados de los p m coecientes de saturacin. Si cada saturacin a
2
ij
se
divide por la comunalidad, es decir, se considera a
2
ij
/h
2
i
, la rotacin se llama
quartimax normalizada.
Varimax: Si = 1 minimizar G equivale a maximizar la suma de las
varianzas de los cuadrados de los coecientes de saturacin de cada columna
de A. Anlogamente si consideramos a
2
ij
/h
2
i
, la rotacin se llama varimax
normalizada.
6.7.2 Factores oblicuos
Los factores comunes pueden estar tambin correlacionados, y entonces se
habla del model factorial oblcuo. Este modelo postula que las variables
observables dependen de unos factores correlacionados F

1
, . . . , F

m
y de p
factores nicos. As para cada variable X
i
X
i
= p
i1
F

1
+. . . +p
im
F

m
+d
i
U
i
, i = 1, . . . , p. (6.17)
La solucin factorial oblicua consistir en hallar las siguientes matrices:
1. Matriz del modelo factorial oblcuo
P =(p
ij
)
siendo p
ij
la saturacin de la variable X
i
en el factor F

j
.
2. Matriz de correlaciones entre factores oblcuos
= (
ij
) siendo
ij
= cor(F

i
, F

j
).
3. Estructura factorial oblicua (estructura de referencia)
Q =(q
ij
) siendo q
ij
= cor(X
i
, F

j
).
Si indicamos F
0
= (F

1
, . . . , F

m
)

y escribimos el modelo (6.17) en forma


matricial
X = PF
0
+DU,
92 CAPTULO 6. ANLISIS FACTORIAL
fcilmente probamos la relacin entre las tres matrices P, y Q
Q = P,
y la versin del teorema de Thurstone para factores correlacionados
R = PP

+D
2
.
Si los factores son ortogonales, el modelo factorial coincide con la estructura
factorial y tenemos que
P = Q, = I
m
.
6.7.3 Rotacin oblicua
Ya se ha dicho que hallar una matriz factorial A constituye el primer paso de
la factorizacin. Queremos encontrar una matriz L tal que la nueva matriz
factorial P = AL dena unos factores oblicuos que tengan una estructura
ms simple. Un criterio analtico sobre la matriz de estructura factorial Q
considera la funcin
H =
m

k=1

k=j=1
[
p

i=1
q
2
ij
q
2
ik


p
p

i=1
q
2
ij
p

i=1
q
2
ik
]
donde es un parmetro tal que 0 1. Hay tres criterios especial-
mente interesantes, que tienen una interpretacin parecida al caso ortogonal
y que tambin se pueden formular, ms adecuadamente, dividiendo por las
comunalidades.
Quartimin: Si = 0 hay mxima oblicuidad entre los factores comunes.
Bi-quartimin: Si = 1/2 el criterio es intermedio entre quartimin y
covarimin.
Covarimin: Si = 1 hay mnima oblicuidad entre los factores comunes.
Conviene tener en cuenta que las rotaciones ortogonales y oblcuas in-
tentan simplicar la estructura factorial A y la estructura de referencia Q,
respectivamente.
Un criterio directo de rotacin oblicua es el promax. Sea A la matriz fac-
torial obtenida por el mtodo varimax. Queremos destacar unas saturaciones
sobre otras, por tanto denimos P

= (p

ij
) tal que
p

ij
= [a
k+1
ij
[/a
ij
, k > 1,
6.7. ROTACIONES DE FACTORES 93
siendo k un nmero entero.
Cada elemento de Aqueda elevado a una potencia k conservando el signo.
Seguidamente ajustamos P

a AL en el sentido de los mnimos cuadrados


L = (A

A)
1
A

.
Es necesario normalizar la matriz L de manera que los vectores columna de
T = (L

)
1
tengan mdulo unidad. Obtenemos entonces
P = AL, = T

T, Q = AT.
El grado de oblicuidad de los factores comunes aumenta con k. Se suele tomar
k = 4.
Ejemplo: Continuando con el ejemplo de las 5 asignaturas, la estimacin
mximo verosmil y la matriz factorial rotada son:
Mxim veros. Varimax Comun.
CNa
Mat
Fra
Lat
Lit
F
1
F
2
.659 .432
.999 .005
.104 .974
.234 .809
.327 .831
C L
.636 .464
.999 .046
.055 .978
.193 .820
.280 .847
.62
.99
.96
.71
.79
El test de hiptesis de que hay m = 2 factores comunes da
2
1
= 1.22,
no signicativo. Podemos aceptar m = 2. La rotacin varimax pone de
maniesto la existencia de dos factores C, L, que podemos interpretar como
dimensiones latentes de Ciencias y Letras.
La rotacin oblicua promax con k = 4 da las matrices P, Q, :
Modelo factorial Estruct. factorial Correlaciones factores
CNa
Mat
Fra
Lla
Lit
C L
.570 .375
1.04 -.135
-.150 1.024
.028 .831
.114 .844
C L
.706 .581
.992 .242
.221 .970
.330 .842
.420 .885
_
1 .362
.362 1
_
La Figura 6.1 representa los factores ortogonales iniciales F
1
y F
2
, dibu-
jados como vectores unitarios, y los factores oblcuos C y L. Las variables
tienen una longitud proporcional a la raz cuadrada de sus comunalidades.
94 CAPTULO 6. ANLISIS FACTORIAL
Figura 6.1: Proyeccin de las variables sobre los factors comunes ortogonals,
y factores rotados (rotacin promax), interpretados como factores de Ciencias
y Letras.
6.7.4 Factores de segundo orden
Un vez hemos obtenido los factores oblcuos con matriz de correlaciones ,
podemos suponer que estos m factores primarios dependen de m

factores
secundarios de acuerdo con una matriz factorial B que verica
= BB

+E
2
,
siendo E la matriz mm diagonal.
Si los factores secundarios son tambin oblicuos, el proceso de factor-
izacin puede continuar hasta llegar a un nico factor comn de orden supe-
rior.
Un ejemplo de aplicacin nos lo proporciona la teoria clsica de la estruc-
tura factorial de la inteligencia. Los tests de aptitud dependen de un conjunto
elevado de factores primarios, que dependen de un conjunto de 7 factores se-
cundarios (verbal, numrico, espacial, razonamiento, memoria, percepcin,
psicomotores), que a su vez dependen de un factor general g (el factor g
de Spearman), que sintetiza el hecho de que todas las aptitudes mentales
estn correlacionadas.
6.8. MEDICIN DE FACTORES 95
6.8 Medicin de factores
Sea x = (x
1
, . . . , x
p
)

los valores de las p variables observables obtenidas so-


bre un individuo . Nos planteamos ahora medir los factores, es decir,
encontrar los valores f = (f
1
, . . . , f
m
)

de los factores comunes sobre . Se


verica
x = Af +Du, (6.18)
siendo u = (u
1
. . . , u
p
)

los valores de las unicidades.


Si interpretamos (6.18) como un modelo lineal, donde x es el vector de
observaciones, Aes la matriz de diseo, f es el vector de parmetros y e = Du
es el trmino de errror, el criterio de los mnimos cuadrado (vase (12.4)) nos
da
f = (A

A)
1
A

x.
Un mtodo ms elaborado (propuesto por M. S. Bartlett) considera que
f es funcin lineal de x y que los valores de los factores nicos
u = D
1
(x Af )
son trminos de error. Si queremos minimizar
u

u = u
2
1
+. . . +u
2
p
,
expresando (6.18) como D
1
x = D
1
Af +u, es fcil ver que
f = (A

D
2
A)
1
A

D
2
x.
Una modicacin de este mtodo (propuesta por T. W. Anderson y H.
Rubin) consiste en aadir la condicin de que los factores comunes estimados
estn incorrelacionados. La solucin que resulta es
f = B
1
A

D
2
x,
siendo B
2
= A

D
2
RD
2
A.
Ejemplo: Continuando con el ejemplo de las 5 asignaturas, las calica-
ciones en las asignatures de los 4 primeros alumnos (Tabla 6.1) y las pun-
tuaciones (Anderson-Rubin) en los factores C y L, obtenidos con la rotacin
varimax, son:
Alumno CNa Mat Fra Lat Lit C L
1 7 7 5 5 6 1.06 -.559
2 5 5 6 6 5 -.568 .242
3 5 6 5 7 5 .259 -.505
4 6 8 5 6 6 1.85 -.614
96 CAPTULO 6. ANLISIS FACTORIAL
Teniendo en cuenta que los factores comunes son variables estandarizadas,
el primer alumno tiene una nota relativamente alta en Ciencias y una nota
algo por debajo de la media en Letras.
6.9 Anlisis factorial conrmatorio
Los mtodos del factor principal y de la mxima verosimilitud son explorato-
rios, en el sentido de que exploran las dimensiones latentes de las variables.
El AF tambin se puede plantear en sentido conrmatorio, estableciendo una
estructura factorial de acuerdo con el problema objeto de estudio, y seguida-
mente aceptando o rechazando esta estructura mediante un test de hiptesis.
Por ejemplo, podemos considerar que la matriz factorial en el ejemplo de las
5 asignaturas es
C L
CNa 1 0
Mat 1 0
Fra 0 1
Lla 0 1
Lit 0 1
interpretando que las dos primeras slo dependen del factor Ciencias y las
otras tres del factor Letras. Entonces podemos realizar una transformacin
de la matriz factorial inicial para ajustarnos a la matriz anterior.
Si la solucin inicial es A, postulamos una estructura B y deseamos en-
contrar T ortogonal tal que AT se aproxime a B en el sentido de los mnimos
cuadrados
tr(BAT)
2
= mnimo,
entonces la solucin es T = UV

, siendo A

B = UV

la descomposicin
singular de A

B. Si T no es ortogonal y por lo tanto se admite una estructura


oblicua, entonces T se obtiene siguiendo un procedimiento parecido a la
rotacin promax
T = (A

A)
1
A

B,
per normalizando a mdulo 1 los vectores columna de T.
Ms generalmente, en AF conrmatorio se especica el nmero de factores
comunes, el tipo ortogonal u oblicuo de la solucin, y los valores libres o jos
de las saturaciones.
6.9. ANLISIS FACTORIAL CONFIRMATORIO 97
Ejemplo: Un AF conrmatorio sobre 9 tests (estudiado por K. Joreskog)
obtiene siete soluciones conrmatorias. De los 9 tests considerados, los tests
1,2,3 miden relaciones espaciales, los tests 4,5,6 inteligencia verbal y los tests
7,8,9 velocidad de percepcin. La matriz de correlaciones es:
1 2 3 4 5 6 7 8 9
1 1 .318 .468 .335 .304 .326 .116 .314 .489
2 1 .230 .234 .157 .195 .057 .145 .139
3 1 .327 .335 .325 .099 .160 .327
4 1 .722 .714 .203 .095 .309
5 1 .685 .246 .181 .345
6 1 .170 .113 .280
7 1 .585 .408
8 1 .512
9 1
Slo comentaremos tres soluciones. La primera solucin es oblicua no
restringida, y se puede aceptar, puesto que la ji-cuadrado del ajuste no es
signicativa.
P Comun.
.71 .00 .00 .50
.54 -.03 -.08 .26
.67 .04 -.09 .46
.00 .87 .00 1 .76
-.03 .81 .13 .54 1 .70
.01 .82 -.01 .24 .28 1 .68
.00 .00 .78 .61
.42 -.30 .73 .68
.56 -.06 .41 .54

2
12
= 9.77
p = 0.64
La segunda solucin es oblicua restringida. Se impone la condicin de que
los tres primeros tests correlacionen slo con el primer factor, los tres sigu-
ientes slo con el segundo y los tres ltimos slo con el tercero. No obstante,
el valor ji-cuadrado es signicativo y esta solucin no debera aceptarse.
98 CAPTULO 6. ANLISIS FACTORIAL
P Comun.
.68 .00 .00 .46
.52 .00 .00 .27
.69 .00 .00 .48
.00 .87 .00 1 .77
.00 .83 .00 .54 1 .69
.00 .83 .00 .52 .34 1 .69
.00 .00 .66 .43
.00 .00 .80 .63
.00 .00 .70 .49

2
24
= 51.19
p = 0.001
La tercera solucin es ortogonal no restringida, con un factor general y
tres factores especcos, en el sentido que el primero no correlaciona con la
variable 4, el segundo no correlaciona con las variables 1 y 7 y el tercero
no correlaciona con 1,2 y 4. El valor ji-cuadrado indica que esta solucin es
aceptable.
P Comun.
.38 .58 .00 .00 .48
.24 .41 .35 .00 .37
.38 .53 .30 -.03 1 .52
.87 .00 .03 .00 .00 1 .75
.83 .01 -.13 .06 .00 .00 1 .72
.83 .01 .04 -.02 .00 .00 .00 1 .68
.24 .02 .00 .95 .95
.15 .43 -.13 .57 .56
.36 .59 -.22 .34 .64

2
6
= 2.75
p = 0.84
6.10 Complementos
Constituyen dos precedentes del Anlisis Factorial el concepto de factor la-
tente de F. Galton y de eje principal de K. Pearson. El primer trabajo, pub-
licado en 1904, por Ch. Spearman (Spearman, 1904) desarrolla una teora
de la inteligencia alrededor de un factor comn, el factor g. Esta teora,
6.10. COMPLEMENTOS 99
que ordenaba la inteligencia de los individuos a lo largo de una sola dimen-
sin, fue defendida por C. Burt, con consecuencias sociolgicas importantes,
pues proporcion una base cientca para nanciar las escuelas privadas en
detrimento de otras.
El Anlisis Factorial moderno se inicia con la obra Multiple Factor
Analysis de L.L. Thurstone, que postulaba ms de un factor comn, intro-
duca la estructura simple y las rotaciones de factores. A partir de Thurstone
la medida de la inteligencia era ms democrtica, ya que posea varias di-
mensiones latentes, quedando sin sentido una ordenacin de los individuos,
que si en una dimensin era posible hacerlo, en varias dimensiones no. Haba
una polmica similar sobre la personalidad. La teoria psicoanaltica defenda
una continuidad entre la personalidad neurtica y la psictica, mientras que
el AF revela que neurosis y psicosis son dimensiones independientes.
Los modelos y mtodos de Spearman, Burt, Thurstone y otros (Holzinger,
Harman y Horst), son ya historia. Los mtodos actuales para obtener la
matriz factorial son: factor principal, anlisis factorial cannico (C.R. Rao),
mtodo Alfa (H.F. Kaiser, J. Carey) y el mtodo de la mxima verosimilitud
(D.N. Lawley, K.G. Joreskog). Vase Joreskog (1967).
El mtodo varimax de rotacin ortogonal de Kaiser es uno de los ms
recomendados. J.B. Carroll introdujo la rotacin oblicua quartimin y A.E.
Hendrickson y P.O. White la promax. Anderson y Rubin (1956) publicaron
un excelente trabajo sobre AF, tratando todo los aspectos algebraicos y es-
tadsticos del tema. Vase Harman (1976), Torrens-Ibern (1972).
El estudio de las dimensiones latentes es un tema presente en la ciencia
y siempre ha despertado inters. C. R. Rao demostr que si conocemos la
distribucin de k combinaciones lineales de p variables independientes, siendo
k(k 1)/2 < p k(k + 1)/2, entonces la distribucin de cada una de las p
variables queda determinada (salvo la media o parmetro de localizacin). Si
tenemos p = 210 variables independientes bastara conocer la distribucin de
k = 20 combinaciones lineales adecuadas para determinar la distribucin de
las 210 variables. Este resultado proporciona una cierta justicacin terica
acerca del hecho que la informacin multivariante posee una dimensionalidad
latente mucha ms pequea.
La etapa inicial del AF (hasta 1966), era exploratoria, como una her-
ramienta para explorar la dimensionalidad latente de las variables. Ms
tarde, el anlisis factorial se ha entendido en sentido conrmatorio (Joreskog,
Lawley, Maxwell, Mulaik), estableciendo una estructura factorial de acuerdo
con el problema, y seguidamente aceptando o rechazando esta estructura
100 CAPTULO 6. ANLISIS FACTORIAL
mediante un test de hiptesis (Joreskog, 1969, 1970). Consltese Cuadras
(1981).
Se han llevado a cabo muchas aplicaciones del AF. Citaremos tres, las
dos primeras sobre AF exploratorio y la tercera sobre AF conrmatorio.
Rummel (1963) estudia 22 medidas de los conictos de 77 naciones y en-
cuentra tres dimensiones latentes, que identica como: agitacin, revolucin
y subversin, y ordena las naciones segn las puntuaciones en los factors
comunes.
Snchez-Turet y Cuadras (1972) adaptan el cuestionario E.P.I. de person-
alidad (Eysenck Personality Inventory) y sobre un test de 69 tems (algunos
tems detectan mentiras) encuentran tres factores: Introversin-Extroversin,
Estabilidad-Inestabilidad, Escala de mentiras.
Joreskog (1969) explica un ejemplo de AF conrmatorio sobre 9 tests,
previamente estudiado por Anderson y Rubin. Vase la Seccin 6.9.
Finalmente, el Anlisis de Estructuras Covariantes es una generalizacin
del AF, que unica este mtodo con otras tcnicas multivariantes (MANOVA,
anlisis de componentes de la varianza, anlisis de caminos, modelos simplex
y circumplexos, etc.). Se supone que la estructura general para la matriz de
covarianzas es
= B(PP

+D
2
)B

+
2
.
Otra generalizacin es el llamado modelo LISREL (Linear Structural Re-
lationship), que permite relacionar un grupo de variables dependientes Y
con un grupo de variables independientes X, que dependen de unas variables
latentes a travs de un modelo de medida. Las variables latentes estn rela-
cionadas por un modelo de ecuaciones estructurales. LISREL (Joreskog y
Sorbom, 1999) es muy exible y tiene muchas aplicaciones (sociologa, psi-
cologa, economa). Vase Satorra (1989), Batista y Coenders (2000).
Captulo 7
ANLISIS CANNICO DE
POBLACIONES
7.1 Introduccin
Con el Anlisis de Componentes Principales podemos representar los individ-
uos de una poblacin, es decir, representar una nica matriz de datos. Pero
si tenemos varias matrices de datos, como resultado de observar las variables
sobre varias poblaciones, y lo que queremos es representar las poblaciones,
entonces la tcnica adecuada es el Anlisis Cannico de Poblaciones (CANP).
Supongamos que de la observacin de p variables cuantitativas X
1
, . . . , X
p
sobre g poblaciones obtenemos g matrices de datos
X =
_
_
_
_
_
X
1
X
2
.
.
.
X
g
_
_
_
_
_
n
1
p
n
2
p
.
.
.
n
g
p
donde X
i
es la matriz n
i
p de la poblacin i. Sean x

1
,x

2
, . . . ,x

g
los vectores
(la) de las medias de cada poblacin. X es de orden n p, siendo n =

g
i=1
n
i
. Indiquemos
X=
_
_
_
_
_
x

1
x

2
x

.
.
.
x

g
x

_
_
_
_
_
101
102 CAPTULO 7. ANLISIS CANNICO DE POBLACIONES
la matriz g p con las medias de las g poblaciones. Tenemos dos maneras
de cuanticar matricialmente la dispersin entre las poblaciones:
La matriz de dispersin no ponderada entre grupos
A =X

X =
g

i=1
(x
i
x)(x
i
x)

.
La matriz de dispersin ponderada entre grupos
B =
g

i=1
n
i
(x
i
x)(x
i
x)

.
La matriz A es proporcional a una matriz de covarianzas tomando como
datos slo las medias de las poblaciones. La matriz B participa, juntamente
con W (matriz de dispersin dentro de grupos) en el test de comparacin
de medias de g poblaciones. Aqu trabajaremos con la matriz A, si bien los
resultados seran parecidos si utilizramos la matriz B. Tambin haremos uso
de la matriz de covarianzas (vase (3.1)):
S =
1
n g
g

i=1
n
i
S
i
.
Entonces A =X

X juega el papel de matriz de covarianzas entre las pobla-


ciones, S juega el papel de matriz de covarianzas dentro de las poblaciones.
7.2 Variables cannicas
Denition 7.2.1 Sean V = [v
1
, . . . , v
p
] los vectores propios de A respecto
de S con valores propios
1
> . . . >
p
, es decir,
Av
i
=
i
S
i
v
i
,
normalizados segn
v

i
S
i
v
i
= 1.
Los vectores v
1
, . . . , v
p
son los vectores cannicos y las variables cannicas
son las variables compuestas
Y
i
= Xv
i
.
7.2. VARIABLES CANNICAS 103
Si v
i
= (v
1i
, . . . , v
pi
)

y X = [X
1
, . . . , X
p
], la variable cannica Y
i
es la
variable compuesta
Y
i
= Xv
i
= v
1i
X
1
+ +v
pi
X
p
que tiene S-varianza 1 y Avarianza
i
, es decir:
var
A
(Y
i
) = v

i
Av
i
=
i
, var
S
(Y
i
) = v

i
S
i
v
i
= 1.
Trabajaremos con p variables cannicas, pero de hecho el nmero efectivo es
k = minp, g 1, ver Seccin 7.5.3.
Theorem 7.2.1 Las variables cannicas verican:
1. Son incorrelacionadas dos a dos respecto a A y tambin respecto a S
cov
A
(Y
i
, Y
j
) = cov
S
(Y
i
, Y
j
) = 0 si i ,= j.
2. Las A-varianzas son respectivamente mximas:
var
A
(Y
1
) =
1
> > var
A
(Y
p
) =
p
,
en el sentido de que Y
1
es la variable con mxima varianza entre grupos,
condicionada a varianza 1 dentro grupos, Y
2
es la variable con mxima
varianza entre grupos, condicionada a estar incorrelacionada con Y
1
y
tener varianza 1 dentro grupos, etc.
Demost.: Supongamos
1
> >
p
> 0. Probemos que las variables
Y
i
= Xt
i
, i = 1, . . . , p, estn incorrelacionadas:
cov
A
(Y
i
, Y
j
) = t

i
At
j
= t

i
S
j
t
j
=
j
t

i
St
j
,
cov
A
(Y
j
, Y
i
) = t

j
At
i
= t

j
S
j
t
i
=
i
t

j
St
i
,
(
j

i
)t

i
St
j
= 0 t

i
St
j
= 0 cov
A
(Y
i
, Y
j
) =
j
t

i
St
j
=
cov
A
(Y
i
, Y
j
) = 0, si i ,= j. Adems, de t

i
St
j
= 1:
var
A
(Y
i
) =
i
t

i
St
j
=
i
.
Sea ahora Y =

p
i=1
a
i
X
i
=

p
i=1

i
Y
i
una variable compuesta tal que
var
S
(Y ) =

p
i=1

2
i
var
S
(Y
i
) =

p
i=1

2
i
= 1. Entonces:
var
A
(Y ) = var
A
(
p

i=1

i
Y
i
) =
p

i=1

2
i
var
A
(Y
i
) =
p

i=1

2
i

i
(
p

i=1

2
i
)
1
= var
A
(Y
1
),
104 CAPTULO 7. ANLISIS CANNICO DE POBLACIONES
que prueba que Y
1
tiene mxima varianza entre grupos.
Consideremos a continuacin las variables Y incorrelacionadas con Y
1
,
que podemos expresar como:
Y =
p

i=1
b
i
X
i
=
p

i=2

i
Y
i
condicionado a
p

i=2

2
i
= 1.
Entonces:
var
A
(Y ) = var
A
(
p

i=2

i
Y
i
) =
p

i=2

2
i
var
A
(Y
i
) =
p

i=2

2
i

i
(
p

i=2

2
i
)
2
= var
A
(Y
2
),
y por lo tanto Y
2
est incorrelacionada con Y
1
y tiene varianza mxima. La
demostracin de que Y
3
, . . . , Y
p
son tambin variables cannicas es anloga.
7.3 Distancia de Mahalanobis y transforma-
cin cannica
La distancia de Mahalanobis entre dos poblaciones es una medida natural
de la diferencia entre las medias de las poblaciones, pero teniendo en cuenta
las covarianzas. En la Seccin 1.9 hemos introducido la distancia entre los
individuos de una misma poblacin. Ahora denimos la distancia entre dos
poblaciones cuando hay ms de dos poblaciones.
Denition 7.3.1 Consideremos muestras multivariantes de g poblaciones
con vectores de medias x
1
,x
2
, . . . ,x
g
y matriz de covarianzas (comn) S. La
distancia (al cuadrado) de Mahalanobis entre las poblaciones i, j es
M
2
(i, j) = (x
i
x
j
)

S
1
(x
i
x
j
).
Si X es la matriz centrada con los vectores de medias y V = [v
1
, . . . , v
p
]
es la matriz con los vectores cannicos (vectores propios de A =X

Xrespecto
de S), la transformacin cannica es
Y =XV.
La matriz Y de orden g p contiene las coordenadas cannicas de las g
poblaciones.
7.4. REPRESENTACIN CANNICA 105
Theorem 7.3.1 La distancia de Mahalanobis entre cada par de poblaciones
i, j coincide con la distancia Eucldea entre las las i, j de la matriz de co-
ordenadas cannicas Y. Si y
i
= x
i
V entonces
d
2
E
(i, j) = (y
i
y
j
)

(y
i
y
j
) = (x
i
x
j
)

S
1
(x
i
x
j
). (7.1)
Demost.: Basta probar que los productos escalares coinciden
y
i
y

j
= x
i
S
1
x

j
XS
1
X

= YY

.
Sea =diag(
1
, . . . ,
p
) la matriz diagonal con los valores propios de A =X

X
respecto de S. Entonces
AV = SV con V

SV = I
p
,
y la transformacin cannica es Y =XV.
Sea C matriz ortogonal denida por V = S
1/2
C, siendo S = UDU

, con
D diagonal y S
1/2
= UD
1/2
U

. Tenemos que V

AV = V

SV es
C

S
1/2
AS
1/2
C = C

S
1/2
SS
1/2
C = ,
es decir, S
1/2
C contiene los vectores propios de A con valores propios .
Entonces AV = SV implica
AS
1/2
C =S
1/2
C con C

C = CC

= I
p
.
La transformacin cannica es pues Y =XS
1/2
C, as que
XS
1
X

= XS
1/2
CC

S
1/2
X

= YY

.
7.4 Representacin cannica
La representacin de las g poblaciones mediante las las de X con la mtrica
de Mahalanobis es bastante complicada: la dimensin puede ser grande y
los ejes son oblcuos. En cambio, la representacin mediante las coordenadas
cannicas Y con la mtrica Eucldea se realiza a lo largo de ejes ortogo-
nales. Si adems, tomamos las q primeras coordenadas cannicas (q = 2, por
ejemplo), la representacin es totalmente factible y es ptima en dimensin
reducida, en el sentido de que maximiza la variabilidad geomtrica.
106 CAPTULO 7. ANLISIS CANNICO DE POBLACIONES
Theorem 7.4.1 La variabilidad geomtrica de las distancias de Mahalanobis
entre las poblaciones es proporcional a la suma de los valores propios:
V
M
(X) =
1
2g
2
g

i,j=1
M(i, j)
2
=
1
g
p

i=1

i
. (7.2)
Si Y =XV, donde V, de orden p q es la matriz de la transformacin
cannica en dimensin q y

2
ij
(q) = (y
i
y
j
)(y
i
y
j
)

=
q

h=1
(y
ih
y
jh
)
2
es la distancia Eucldea (al cuadrado) entre dos las de Y, la variabilidad
geomtrica en dimensin q p es
V

(Y)
q
=
1
2g
2
g

i,j=1

2
ij
(q) =
1
g
q

i=1

i
,
y esta cantidad es mxima entre todas las transformaciones lineales en di-
mensin q.
Demost.: De (5.3) y (7.1)
V
M
(X) =
1
2g
2
g

i,j=1
M(i, j)
2
=
1
2g
2
g

i,j=1
p

h=1
(y
ih
y
jh
)
2
= s
2
1
+. . . + s
2
p
donde s
2
j
= (

g
i=1
y
2
ij
)/g representa la varianza ordinaria de la columna Y
j
de Y. Adems
1
g
Y

Y =
1
g
V

XV =
1
g
V

AV =
1
g

y por lo tanto s
2
j
=
j
/g, lo que prueba (7.2).
Sea ahora

Y=XT una transformacin cualquiera tal que T

ST = I. Es
decir, si
X= [X
1
, . . . , X
p
]

Y=XT = [

Y
1
, . . . ,

Y
p
]
donde X
j
,

Y
j
son las columnas de X,

Y, que son matrices centradas, y


T = [t
1
, . . . , t
p
] =
_
_
_
t
11
t
1p
.
.
.
.
.
.
.
.
.
t
p1
t
pp
_
_
_
,
7.5. ASPECTOS INFERENCIALES 107
entonces

Y
k
= Xt
k
= t
1k
X
1
+. . . +t
pk
X
p
tiene A-varianza
var
A
(

Y
k
) = t

k
At
k
= t

k
X

Xt
k
=

Y

Y
k
= g s
2
(

Y
k
)
donde s
2
(

Y
k
) indica la varianza ordinaria. Puesto que la A-varianza mxima
es
k
, tenemos:
V

Y)
q
=
g

k=1
s
2
(

Y
k
) =
1
g
g

k=1
var
A
(

Y
k
)
1
g
g

k=1

k
.
El porcentaje de variabilidad geomtrica explicada por las q primeras
coordenadas cannicas es
P
q
= 100
V (Y)
q
V
M
(X)
= 100

1
+ +
q

1
+ +
p
.
7.5 Aspectos inferenciales
Supongamos que las matrices de datos X
1
, . . . , X
g
provienen de g poblaciones
normales N
p
(
1
,
1
), . . . , N
p
(
g
,
g
). Para poder aplicar correctamente un
anlisis cannico de poblaciones conviene que los vectores de medias sean
diferentes y que las matrices de covarianzas sean iguales.
7.5.1 Comparacin de medias
El test
H
0
:
1
=
2
= . . . =
g
(7.3)
ha sido estudiado en la Seccin 3.3.3 y se decide calculando el estadstico
= [W[/[B+W[ con distribucin lambda de Wilks. Si aceptamos H
0
las
medias de las poblaciones son tericamente iguales y el anlisis cannico,
tcnica destinada a representar las medias de las poblaciones a lo largo de
ejes cannicos, no tiene razn de ser. Por lo tanto, conviene rechazar H
0
.
7.5.2 Comparacin de covarianzas
El test
H

0
:
1
=
2
= . . . =
g
108 CAPTULO 7. ANLISIS CANNICO DE POBLACIONES
se resuelve mediante el test de razn de verosimilitud

R
=
[S
1
[
n
1
/2
[S
g
[
ng/2
[S[
n/2
,
donde S
i
es la matriz de covarianzas de las datos de la poblacin i, estimacin
mximo verosmil de
i
y
S = (n
1
S
1
+ +n
g
S
g
)/n = W/n
es la estimacin mximo verosmil de , matriz de covarianzas comn bajo
H

0
. Rechazaremos H

0
si el estadstico
2 log
R
= nlog [S[ (n
1
log [S
1
[ + +n
g
log [S
g
[)
2
q
es signicativo, donde q = gp(p+1)/2p(p+1)/2 = (g1)p(p+1)/2 son los
grados de libertad de la ji-cuadrado. Si rechazamos H

0
, entonces resulta que
no disponemos de unos ejes comunes para representar todas las poblaciones
(la orientacin de los ejes viene dada por la matriz de covarianzas), y el
anlisis cannico es tericamente incorrecto. Conviene pues aceptar H

0
.
Debido a que el test anterior puede ser sesgado, conviene aplicar la cor-
reccin de Box,
c (n g) log [S[ ((n
1
1) log [

S
1
[ + + (n
g
1) log [

S
g
[)
donde

S
i
= (n
i
/(n
i
1))S
i
, y la constante c es
c = [1 (
2p
2
+ 3p 1
6(p + 1)(g 1)
)(
g

k=1
1
n
g
1

1
n g
)].
7.5.3 Test de dimensionalidad
Como el rango de A = X

X no puede superar ni la dimensin p ni g 1, es


obvio que el nmero efectivo de valores propios es
k = minp, g 1.
Si los vectores de medias poblacionales estn en un espacio R
m
de dimen-
sin m < k, entonces el espacio cannico tiene dimensin m y por lo tanto
debemos aceptar la hiptesis
H
(m)
0
:
1
> . . . >
m
>
m+1
= . . . =
k
,
7.5. ASPECTOS INFERENCIALES 109
donde
1
> . . . >
m
son los valores propios de MM

(la versin poblacional


de A) respecto de . Si
l
1
> . . . > l
k
son los valores propios de B respecto de W (ver Seccin 3.3.3), es decir,
soluciones de
[BlW[ = 0,
entonces un test para decidir H
(m)
0
est basado en el estadstico
b
m
= [n 1
1
2
(p +g)]
k

i=m+1
log(1 +l
i
)
2
q
,
donde q = (p m)(g m1). Este test asinttico, propuesto por Bartlett,
se aplica secuencialmente: si b
0
es signicativo, estudiaremos b
1
; si b
1
es
tambin signicativo, estudiaremos b
2
, etc. Si b
0
, . . . , b
m1
son signicativos
pero b
m
no, aceptaremos que la dimensin es m. Obsrvese que aceptar H
(0)
0
equivale a la hiptesis nula de igualdad de vectores de medias (que entonces
coincidiran en un punto), es decir, equivale a aceptar (7.3).
Otros autores utilizan este test independienmente para cada dimensin.
As, el test H
0
:
j
= 0 est basado en el estadstico
c
j
= [n 1
1
2
(p +g)] log(1 +l
j
)
2
r
,
donde r = p + g 2j son los grados de liberdad. Rechazaremos H
0
si c
j
es
signicativo.
7.5.4 Regiones condenciales
Sean y

i
= x

i
V,i = 1, . . . , g las proyecciones cannicas de los vectores de
medias muestrales de las poblaciones. Podemos entender y
i
como una esti-
macin de

i
=
i
V, la proyeccin cannica del vector de medias poblacional

i
. Queremos encontrar regiones condenciales para

i
, i = 1, . . . , g.
Theorem 7.5.1 Sea 1 el coeciente de conanza, F

tal que P(F >


F

) = , donde F sigue la distribucin F con p y (n g p + 1) g.l. y


consideremos:
R
2

= F

(n g)p
(n g p + 1)
.
110 CAPTULO 7. ANLISIS CANNICO DE POBLACIONES
Entonces las proyecciones cannicas

i
de los vectores de medias pobla-
cionales pertenecen a regiones condenciales que son hiperesferas (esferas
en dimensin 3, crculos en dimensin 2) de centros y radios
(y
i
, R

n
i
),
donde n
i
es el tamao muestral de la poblacin i.
Demost.: x
i

i
es N
p
(0, /n
i
) independiente de W que sigue la dis-
tribucin W
p
(, n g). Por lo tanto
(n g)n
i
(x
i

i
)

W
1
(x
i

i
)
= n
i
(x
i

i
)S
1
(x
i

i
)

T
2
(p, n g),
y como la distribucin de Hotelling equivale a una F, tenemos que
(x
i

i
)

S
1
(x
i

i
)
(n g)p
n
i
(n g p + 1)
F
p
ngp+1
.
As pues
P[(x
i

i
)

S
1
(x
i

i
)
R
2

n
i
] = 1 ,
que dene una regin condencial hiperelptica para
i
con coeciente de
conanza 1 . Pero la transformacin cannica y

i
= x

i
V convierte (x
i

i
)

S
1
(x
i

i
) en (y
i

i
)

(y
i

i
) y por lo tanto
P[(y
i

i
)

(y
i

i
)
R
2

n
i
] = 1 .
Esta transformacin convierte adems hiperelipses en hiperesferas (elipses
en crculos si la dimensin es 2), ya que las variables cannicas son incorrela-
cionadas, lo que tambin es vlido si reducimos la dimensin (tomamos las
m primeras coordenadas cannicas).
Por ejemplo, si elegimos 1 = 0.95 y una representacin en dimensin
reducida 2, cada poblacin vendr representada por un crculo de centro y
i
y radio R
0.05
/

n
i
, de manera que el vector de medias proyectado pertenece
al crculo con coeciente de conanza 0.95. La separacin entre los centros
indicar diferencias, mientras que si dos crculos se solapan, ser indicio de
que las dos poblaciones son posiblemente iguales.
Example 7.5.1
7.5. ASPECTOS INFERENCIALES 111
Figura 7.1: Proyecin cannica de cuatro poblaciones.
Se tienen medidas de 5 variables biomtricas sobre colepteros del gnero
Timarcha de 5 especies encontradas en 8 localidades:
1. T. sinustocollis (Campellas, Pirineos) n
1
= 40.
2. T. sinustocollis (Planollas, Pirineos) n
2
= 40.
3. T. indet (vall de Llauset, Pirineos, Osca) n
3
= 20.
4. T. monserratensis (Collformic, Barcelona) n
4
= 40.
5. T. monserratensis (Collfsuspina, Barcelona) n
5
= 40.
6. T. catalaunensis (La Garriga, Barcelona) n
6
= 40.
7. T. balearica (Mahn, Baleares) n
7
= 15
8. T. pimeliodes (Palermo, Sicilia) n
8
= 40
Las medidas (en mm.) son:
X
1
= long. prognoto, X
2
=diam. mximo prognoto, X
3
= base prognoto,
X
4
= long. litros, X
5
= diam. mximo litros.
Se quiere estudiar si existen diferencias entre las 8 especies y represen-
tarlas mediante la distancia de Mahalanobis. Los resultados del anlisis
cannico son:
Matriz de covarianzas comn:
S =
_
_
_
_
_
_
3.277 3.249 2.867 5.551 4.281
7.174 6.282 9.210 7.380
6.210 8.282 6.685
20.30 13.34
13.27
_
_
_
_
_
_
112 CAPTULO 7. ANLISIS CANNICO DE POBLACIONES
Test de Bartlett para homogeneidad de la matriz de covarianzas. Ji-
cuadrado = 229.284, con 105 g.l. Signicativo al 5%.
Matriz de dispersin entre grupos:
B =
_
_
_
_
_
_
6268 11386 8039 22924 17419
21249 15370 42795 32502
11528 31009 23475
86629 65626
49890
_
_
_
_
_
_
W
4
(7, )
Matriz de dispersin dentro de grupos:
W =
_
_
_
_
_
_
874.8 867.5 765.4 1482 1142
1915 1677 2458.99 1970
1658 2211 1784
5419 3562
3541
_
_
_
_
_
_
W
5
(267, )
Matriz de dispersin total:
T =
_
_
_
_
_
_
7143 12253 8804 24407 18562
23164 17047 45254 34472
13186 33220 25260
92049 69189
53432
_
_
_
_
_
_
Test de comparacin de medias:
= [W[ / [B+W[ = 0.0102 (5, 267, 7) F = 62.5 (35 y 1108 g.l.)
Existen diferencias muy signicativas.
Transformacin cannica, valores propios y porcentaje acumulado:
v
1
v
2
-.0292 .2896
.5553 .7040
-.6428 -.9326
.1259 -.1326
.1125 .0059
158.64 24.53
% 85.03 98.18
7.6. COMPLEMENTOS 113
Figura 7.2: Representacin cannica de 8 especies de colepteros.
De acuerdo con la Fig. 7.2, las poblaciones 1 y 2 pertenecen claramente
a la misma especie, as como la 4 y 5. Las poblaciones 3 y 6 son especies
prximas, mientras que las 7 y 8 se diferencian mucho de las otras especies.
7.6 Complementos
El Anlisis Cannico de Poblaciones (CANP) fu planteado por M.S. Bartlett
en trminos de correlacin cannica entre las poblaciones y las variables
observables. C. R. Rao lo relacion con la distancia de Mahalanobis y lo
estudi como una tcnica para representar poblaciones. Su difusin es debido
a Seal (1964).
Existen diferentes criterios para obtener la regin condencial para las
medias de las poblaciones. Aqu hemos seguido un criterio propuesto por
Cuadras (1974). Una formulacin que no supone normalidad es debido a
Krzanowski y Radley (1989). A menudo los datos no cumplen la condicin
de igualdad de las matrices de covarianzas, aunque el CANP es vlido si las
matrices muestrales son relativamente semejantes.
En el CANP, y ms adelante en el Anlisis Discriminante, interviene la
descomposicin T = B+W, es decir:
g

i=1
n
i

h=1
(x
ih
x)(x
ih
x)

=
g

i=1
n
i
(x
i
x)(x
i
x)

+
g

i=1
n
i

h=1
(x
ih
x
i
)(x
ih
x
i
)

.
114 CAPTULO 7. ANLISIS CANNICO DE POBLACIONES
Si los datos provienen de g poblaciones con densidades f
i
(x), medias y
matrices de covarianzas (
i
,
i
) y probabilidades p
i
, i = 1, . . . , g, es decir, con
densidad
f(x) =p
1
f
1
(x) +. . . +p
g
f
g
(x),
entonces el vector de medias correspondiente a f es
=p
1

1
+. . . +p
g

g
,
y la matriz de covarianzas es
=
g

i=1
p
i
(
i
)(
i
)

+
g

i=1
p
i

i
.
Esta descomposicin de es la versin poblacional de T = B+W, y la
versin multivariante de
var(Y ) = E[var[Y [X]] + var[E[Y [X]],
donde Y [X representa la distribucin de una variable Y dada X. Ver Flury
(1997).
Captulo 8
ESCALADO
MULTIDIMENSIONAL
(MDS)
8.1 Introduccin
Representar un conjunto nito cuando disponemos de una distancia entre los
elementos del conjunto, consiste en encontrar unos puntos en un espacio de
dimensin reducida, cuyas distancias eucldeas se aproximen lo mejor posible
a las distancias originales.
Sea =
1
,
2
, . . . ,
n
un conjunto nito con n elementos diferentes,
que abreviadamente indicaremos
= 1, 2, ..., n.
Sea
ij
= (i, j) = (j, i) (i, i) = 0 una distancia o disimilaridad entre
los elementos i, j de . Consideremos entonces la matriz de distancias
=
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2

n
_
_
_
_
_

ij
=
ji
= (i, j)
ii
= 0.
Denition 8.1.1 Diremos que = (
ij
) es una matriz de distancias Eu-
cldeas si existen n puntos x
1
, . . . , x
n
R
p
, siendo
x

i
= (x
i1
, . . . , x
ip
), i = 1, . . . , n,
115
116 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
tales que

2
ij
=
p

=1
(x
i
x
j
)
2
= (x
i
x
j
)

(x
i
x
j
) (8.1)
Indicaremos las coordenadas de los puntos x
1
, . . . , x
n
, que representan los
elementos 1, . . . , n de , en forma de matriz
X =
_
_
_
_
_
x
11
x
12
x
1p
x
21
x
22
x
2n
.
.
.
.
.
.
.
.
.
.
.
.
x
n1
x
n2
x
np
_
_
_
_
_
.
El objetivo del escalamiento multidimensional es encontrar la X adecuada a
partir de la matriz de distancias.
8.2 Cuando una distancia es eucldea?
Sea
(2)
= (
2
ij
) la matriz de cuadrados de las distancias. Si la distancia es
eucldea entonces de (8.1)

2
ij
= x

i
x
i
+x

j
x
j
2x

i
x
j
La matriz de productos internos asociada a es
G = XX

.
Los elementos de G = (g
ij
) son g
ij
= x

i
x
j
. Relacionando
(2)
= (
2
ij
) con G
vemos que

(2)
= 1g

+g1

2G, (8.2)
donde g =(g
11
, . . . , g
nn
)

contiene los elementos de la diagonal de G. Sea Hla


matriz de centrado (Cap. 1). Introducimos ahora las matrices A =
1
2

(2)
y B = HAH.
Theorem 8.2.1 La matriz de distancias es eucldea si y slo si B 0, es
decir, los valores propios de B son no negativos.
8.3. EL ANLISIS DE COORDENADAS PRINCIPALES 117
Demost.: La relacin entre B = (b
ij
) y A = (a
ij
) es
b
ij
= a
ij
a
i.
a
.j
+a
..
,
donde a
i.
es la media de la columna i de A, a
.j
es la media de la la j y a
..
es la media de los n
2
elementos de A. Entonces
b
ii
= a
i.
a
.i
+a
..
, b
jj
= a
j.
a
.j
+a
..
,
y por lo tanto

2
ij
= b
ii
+b
jj
2b
ij
= a
ii
+a
jj
2a
ij
. (8.3)
Supongamos que es eucldea. Entonces G = XX

. De (8.2) resulta que


A = (1g

+g1

)/2 +G.
Multiplicando ambos lados de A por H, dado que H1 = 1

H = 0, tenemos
que
B = HAH = HGH = HXX

H = XX

0,
lo que prueba que B es semidenida positiva.
Supongamos ahora que B 0. Entonces B = YY

para alguna matriz


Y de orden n p, es decir, b
ij
= y

i
y
j
, donde y

i
es la la i- sima de Y.
Aplicando (8.3) tenemos

2
ij
= y

i
y
i
+y

j
y
j
2y

i
y
j
= (y
i
y
j
)

(y
i
y
j
),
que demuestra que es matriz de distancias eucldeas.
8.3 El anlisis de coordenadas principales
Hemos visto que si B 0, cualquier matriz Y tal que B = YY

proporciona
unas coordenadas cartesianas compatibles con la matriz de distancias . Sea
B = UU

la descomposicin espectral de B, donde U es una matriz n p de vectores


propios ortonormales de B y es matriz diagonal que contiene los valores
propios ordenados

1

p
>
p+1
= 0 (8.4)
118 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
Obsrvese que B1 = 0, y por lo tanto
p+1
= 0 es tambin valor propio de
B de vector propio el vector 1 de unos. Entonces es evidente que la matriz
n p
X = U
1/2
(8.5)
tambin verica B = XX

.
Denition 8.3.1 La solucin por coordenadas principales es la matriz de co-
ordenadas (8.5), tal que sus columnas X
1
, . . . , X
p
, que interpretaremos como
variables, son vectores propios de B de valores propios (8.4). Las coorde-
nadas del elemento i son
x

i
= (x
i1
, . . . , x
ip
),
donde x
i
es la la i-sima de X. Reciben el nombre de coordenadas principales
y cumplen (8.1).
La solucin por coordenadas principales goza de importantes propiedades.
En las aplicaciones prcticas, se toman las q < p primeras coordenadas prin-
cipales a n de representar . Por ejemplo, si q = 2, las dos primeras coor-
denadas de X proporcionan una representacin a lo largo de los ejes X
1
y
X
2
:
X
1
X
2
1 x
11
x
12
2 x
21
x
22
.
.
.
.
.
.
.
.
.
n x
n1
x
n2
Propiedades:
1. Las variables X
k
(columnas de X) tienen media 0.
X
1
= = X
p
= 0
Prueba: 1 es vector propio de B ortogonal a cada X
k
, por lo tanto
X
k
=
1
n
(1

X
k
) = 0.
2. Las varianzas son proporcionales a los valores propios
s
2
k
=
1
n

k
, k = 1, . . . , p
Prueba: la varianza es
1
n
X

k
X
k
=
1
n

k
.
8.3. EL ANLISIS DE COORDENADAS PRINCIPALES 119
3. Las variables son incorrelacionadas
cor(X
k
, X
k
) = 0, k ,= k

= 1, . . . , p.
Prueba: como las medias son nulas, la covarianza es
cov(X
k
, X
k
) =
1
n
X

k
X
k
= 0,
pues los vectores propios de B son ortogonales.
4. Las variables X
k
son componentes principales de cualquier matriz de
datos Z tal que las distancias eucldeas entre sus las concuerden con
.
Prueba: Supongamos Z matriz de datos centrada. Tenemos que
B = XX

= ZZ

La matriz de covarianzas de Z es
S =
1
n
Z

Z = TDT

,
donde D es diagonal y T es la matriz ortogonal de la transformacin
en componentes principales. Entonces:
Z

Z = nTDT

,
ZZ

Z = nZTDT,

BZT = ZTnD,
y por lo tanto ZT es matriz de vectores propios de B con valores
propios los elementos diagonales de nD, lo que implica X = ZT. En
consecuencia la matriz de coordenadas principales X coincide con la
transformacin por componentes principales de Z.
5. La variabilidad geomtrica de es
V

(X) =
1
2n
2
n

i,j=1

2
ij
=
1
n
p

k=1

k
.
120 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
6. La variabilidad geomtrica en dimensin q es mxima cuando tomamos
las q primeras coordenadas principales. Es decir,
V

(X)
q
=
1
2n
2
n

i,j=1

2
ij
(q) =
1
2n
2
n

i,j=1
q

k=1
(x
ik
x
jk
)
2
=
1
n
q

k=1

k
es mximo.
Prueba: Sea x
1
, ..., x
n
una muestra con media x = 0 y varianza s
2
. Se
verica
1
2n
2

n
i,j=1
(x
i
x
j
)
2
=
1
2n
2
(

n
i,j=1
x
2
i
+

n
i,j=1
x
2
j
2

n
i,j=1
x
i
x
j
)
=
1
2n
2
(n

n
i=1
x
2
i
+n

n
j=1
x
2
j
2

n
i=1
x
i

n
ij=1
x
j
)
= s
2
,
por lo tanto
V

(X) =
p

k=1
s
2
k
.
Hemos demostrado que para cualquier matriz X tal que B = XX

, la
suma de las varianzas de las colummnas de X es igual a la variabilidad
geomtrica. Si en particular tenemos las coordenadas principales, esta
suma de varianzas es la suma de los valores propios dividida por n, y
como entonces las columnas son componentes principales, sus varianzas
son respectivamente mximas.
El porcentaje de variabilidad explicada por los q primeros ejes principales
es la proporcin de variabilidad geomtrica
P
q
= 100
V

(X)
q
V

(X)
= 100

q
k=1

p
k=1

k
Example 8.3.1
Consideremos = 1, 2, 3, 4, 5 y la matriz de distancias (al cuadrado):
1 2 3 4 5
1 0 226 104 34 101
2 0 26 104 29
3 0 26 9
4 0 41
5 0
8.4. SIMILARIDADES 121
Los valores propios de B son
1
= 130,
2
= 10,
3
=
4
=
5
= 0.
Por lo tanto es matriz de distancias eucldeas y se puede representar
en un espacio de dimensin 2. Las coordenadas principales son las columnas
X
1
, X
2
de:
X
1
X
2
1
1 -8 -1 1
2 7 0 1
3 2 1 1
4 -3 2 1
5 2 -2 1
130 10 0
x 0 0 1
s
2
26 2 0
8.4 Similaridades
En ciertas aplicaciones, especialmente en Biologa y Psicologa, en lugar de
una distancia, lo que se mide es el grado de similaridad entre cada par de
individuos.
Una similaridad s sobre un conjunto nito es una aplicacin de
en R tal que:
s(i, i) s(i, j) = s(j, i) 0.
La matriz de similaridades entre los elementos de es
S =
_
_
_
_
_
s
11
s
12
... s
1n
s
21
s
22
... s
2n
.
.
.
.
.
.
.
.
.
.
.
.
s
n1
s
n2
... s
nn
_
_
_
_
_
donde s
ij
= s(i, j).
Supongamos que tenemos p variables binarias X
1
, X
2
, ...X
p
, donde cada
X
i
toma los valores 0 1. Para cada par de individuos (i, j) consideremos la
tabla
j
1 0
i 1 a b
0 c d
122 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
donde a, b, c, d las frecuencias de (1,1), (1,0), (0,1) y (0,0), respectivamente,
con p = a + b + c + d. Un coeciente de similaridad debera ser funcin de
a, b, c, d. Son conocidos los coecientes de similaridad:
s
ij
=
a +d
p
(Sokal-Michener)
s
ij
=
a
a +b +c
(Jaccard)
(8.6)
que verican : s
ii
= 1 s
ij
= s
ji
0.
Podemos transformar una similaridad en distancia aplicando la frmula
d
2
ij
= s
ii
+s
jj
2s
ij
. (8.7)
Entonces la matriz A = (d
2
ij
)/2 es
A =
1
2
(S
f
+S

f
2S),
donde S
f
tiene todas sus las iguales, y como HS
f
= S

f
H = 0, resulta que
B = HAH = HSH.
Por lo tanto:
1. Si S es matriz (semi)denida positiva, la distancia d
ij
es eucldea.
2. rang(HSH) = rang(S) 1.
3. Las coordenadas principales se obtienen diagonalizando HSH.
8.5 Nociones de MDS no mtrico
Supongamos que la matriz de distancias es no eucldea. Entonces la matriz
B (Teorema 8.2.1) tiene valores propios negativos:

1

p
> 0 >
p+1

p
.
El fundamento del MDS no mtrico es transformar las distancias
ij
para
convertirlas en eucldeas, pero conservando las relaciones de proximidad entre
los elementos del conjunto .
8.5. NOCIONES DE MDS NO MTRICO 123
Figura 8.1: Representacin de 4 objetos conservando las preordenaciones
relacionadas a tres matrices de distancias.
Denition 8.5.1 La preordenacin asociada a la matriz de distancias es
la ordenacin de las m = n(n 1)/2 distancias:

i
1
j
1

i
2
j
2

i
m
j
m
. (8.8)
La preordenacin es, de hecho, una propiedad asociada a , es decir,
podemos escribir
(i
1
, j
1
) _ (i
2
, j
2
) _ _ (i
m
, j
m
), (i
k
, j
k
) ,
donde
(i, j) _ (i

, j

) si
ij

i

j
.
Se trata de representar en un espacio que conserve la preordenacin. Por
ejemplo, si consideramos las tres matrices de distancias sobre {A,B,C,D}:
A B C D A B C D A B C D
A 0 1 2 3 0 1 1 1 0 1 1 1
B 0 1 2 0 1 1 0 1 1
C 0 1 0 0 0 1
D 0 0 0
las preordenaciones se pueden representar en 1, 2 3 dimensiones (Fig. 8.1),
respectivamente.
124 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
Si transformamos la distancia
ij
en

ij
= (
ij
), donde es una funcin
positiva creciente, es evidente que

ij
tiene la misma preordenacin (8.8), y
por lo tanto, individuos prximos (alejados) segn
ij
estarn tambin prx-
imos (alejados) con respecto a

ij
. Si adems

ij
es eucldea, tendremos la
posibilidad de representar , aplicando, por ejemplo, un anlisis de coorde-
nadas principales sobre la distancia transformada, pero conservando (aprox-
imadamente) la preordenacin. En general, la funcin no es lineal, y se
obtiene por regresin montona. Hay dos casos especialmente simples.
Denition 8.5.2 La transformacin q-aditiva de
ij
se dene como

2
ij
=
_

2
ij
2a si i ,= j
0 si i = j
donde a < 0 es una constante. La transformacin aditiva se dene como

ij
=
_

ij
+c si i ,= j
0 si i = j
donde c > 0 es una constante.
Es evidente que las dos transformaciones aditiva y q-aditiva conservan
la preordenacin de la distancia. Probemos ahora que la primera puede dar
lugar a una distancia eucldea.
Theorem 8.5.1 Sea una matriz de distancias no eucldeas y sea
p
< 0 el
menor valor propio de B. Entonces la transformacin q-aditiva proporciona
una distancia eucldea para todo a tal que a
p
.
Demost.: Sea

= (

ij
) la matriz de distancias transformadas. Las ma-
trices A, B y

A,

B (ver Teorema 8.2.1) verican

A= Aa(I J),

B = BaH.
Sea v vector propio de B de valor propio ,= 0. Entonces Hv = v y por lo
tanto

Bv = (BaH)v = ( a)v.
As

B tiene los mismos vectores propios que B, pero los valores propios son

1
a
p
a > 0 >
p+1
a
p
a,
8.6. DISTANCIAS ESTADSTICAS 125
que son no negativos si a
p
, en cuyo caso

B es semidenida positiva.
La mejor transformacin q-aditiva es la que menos distorsiona la distancia
original. De acuerdo con este criterio, el mejor valor para la constante es
a =
p
.
Las transformaciones aditiva y no lineal son ms complicadas y las de-
jamos para otro dia. De hecho, los programas de MDS operan con trans-
formaciones no lineales, siguiendo criterios de minimizacin de una funcin
que mide la discrepancia entre la distancia original y la transformada. Por
ejemplo, el mtodo de Kruskal consiste en:
1. Fijar una dimensin Eucldea p.
2. Transformar la distancia
ij
en la disparidad

ij
= (
ij
), donde
es una funcin montona creciente. Las disparidades conservan la
preordenacin de las distancias.
3. Ajustar una distancia eucldea d
ij
a las disparidades

ij
de manera que
minimice

i<j
(d
ij

ij
)
2
.
4. Asociar a las distancias d
ij
una conguracin eucldea p-dimensional, y
representar los n objetos a partir de las coordenades de la conguracin.
Para saber si la representacin obtenida reeja bien las distancias entre
los objetos, se calcula la cantidad
S =

i<j
(d
ij

ij
)
2

i<j
d
2
ij
,
denominada stress, que verica 0 S 1, pero se expresa en forma de
porcentaje. La representacin es considerada buena si S no supera el 5%.
Tambin es conveniente obtener el diagrama de Sheppard, que consiste en
representar los n(n 1)/2 puntos (
ij
, d
ij
). Si los puntos dibujan una curva
creciente, la representacin es buena, porque entonces se puede decir que
conserva bien la preordenacin (Fig. 8.4).
8.6 Distancias estadsticas
En esta seccin discutiremos algunos modelos de distancias estadsticas.
126 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
8.6.1 Variables cuantitativas
Siendo x = (x
1
, x
2
, . . . , x
p
), y = (y
1
, y
2
, . . . , y
p
) dos puntos de R
p
. La distancia
de Minkowsky se dene como
d
q
(x, y) = (
p

i=1
[x
i
y
i
[
q
)
1/q
,
Casos particulares de la distancia d
q
son:
1. Distancia ciudad:
d
1
(x, y) =
p

i=1
[x
i
y
i
[
2. Distancia Eucldea:
d
2
(x, y) =

_
p

i=1
(x
i
y
i
)
2
3. Distancia dominante:
d

(x, y) = max
1ip
[x
i
y
i
[
Tienen tambin inters en las aplicaciones, la distancia normalizada por
el rang R
i
de la variable i
d
G
(x, y) =
1
p
p

i=1
[x
i
y
i
[
R
i
,
y, cuando los valores de las variables son positivos, la mtrica de Canberra
d
C
(x, y) =
1
p
p

i=1
[x
i
y
i
[
x
i
+y
i
.
d
G
y d
C
son invariantes por cambios de escala.
8.6. DISTANCIAS ESTADSTICAS 127
Supongamos ahora dos poblaciones
1
,
2
con vectores de medias
1
,
2
y matrices de covarianzas
1
,
2
. Cuando
1
=
2
= , la distancia de
Mahalanobis entre poblaciones es
M
2
(
1
,
2
) = (
1

2
)

1
(
1

2
)
Esta distancia, ya introducida previamente, es invariante por cambios de es-
cala y tiene en cuenta la correlacin entre las variables. Adems, si M
p
, M
q
, M
p+q
indican las distancias basada en p, q, p +q variables, respectivamente, se ver-
ica:
a) M
p
M
p+q
.
b) M
2
p+q
= M
2
p
+M
2
q
si los dos grupos de p y q variables son independientes.
No es fcil dar una denicin de distancia cuando
1
,=
2
. Una denicin
de compromiso es
(
1

2
)

[
1
2
(
1
+
2
)]
1
(
1

2
).
8.6.2 Variables binarias
Cuando todas las variables son binarias (toman solamente los valores 0 y
1), entonces conviene denir un coeciente de similaridad (Seccin 8.4) y
aplicar (8.7) para obtener una distancia. Existen muchas maneras de denir
una similaridad s
ij
en funcin del peso que se quiera dar a los a, b, c, d. Por
ejemplo:
s
ij
=
a
a + 2(b +c)
(Sokal-Sneath)
s
ij
=
2a
(a +b)(a +c)
(Dice)
(8.9)
Las similaridades denidas en (8.6) y (8.9) proporcionan distancias eucldeas.
8.6.3 Variables categricas
Supongamos que las observaciones pueden ser clasicades en k categoras ex-
cluyentes A
1
, . . . , A
k
, con probabilidades p = (p
1
, . . . , p
k
), donde

k
h=1
p
h
=
1. Podemos denir distancias entre individuos y entre poblaciones.
128 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
1. Entre individuos. Si dos individuos i, j tienen las categoras A
h
, A
h
,
respectivamente, una distancia (al cuadrado) entre i, j es:
d(i, j)
2
=
_
0 si h = h

,
p
1
h
+p
1
h

si h ,= h

.
Si hay varios conjuntos de variables categricas, con un total de K
categoras o estados, una similaridad es /K (matching coecient),
donde es el nmero de coincidencias.
2. Entre poblaciones. Si tenemos dos poblaciones representadas por p =
(p
1
, . . . , p
k
), q = (q
1
, . . . , q
k
), dos distancias entre poblaciones son
d
a
(p, q) = 2

k
i=1
[p
i
q
i
[/(p
i
+q
i
),
d
b
(p, q) = arccos(

k
i=1

p
i
q
i
).
8.6.4 Variables mixtas
En las aplicaciones a menudo los datos provienen de las observaciones de
p
1
variables cuantitativas, p
2
variables dicotmicas (dos estados: presente,
ausente) y p
3
variables categricas o cualitativas (ms de dos estados). Un
coeciente de similaridad (propuesto por J.C. Gower) es
s
ij
=

p
1
h=1
(1 [x
ih
x
jh
[/R
h
) +a +
p
1
+ (p
2
d) +p
3
,
donde R
h
es el rango de la variable cuantitativa X
h
, a y d son el nmero
de dobles presencias y dobles ausencias de las variables dicotmicas, y es
el nmero de coincidencias entre las variables categricas. Si solamente hay
variables dicotmicas o variables categricas, s
ij
reduce la similaridad nor-
malizada por el rango, al coeciente de Jaccard o al matching coecient,
respectivamente:
1
1
p
1

p
1
h=1
[x
h
y
h
[/R
h
si p
2
= p
3
= 0,
a/(a +b +c) si p
1
= p
3
= 0,
/p
3
si p
1
= p
2
= 0.
Este coeciente verica 0 s
ij
1, y aplicando (8.7) se obtiene una distancia
eucldea que adems admite la posibilidad de datos faltantes.
8.6. DISTANCIAS ESTADSTICAS 129
8.6.5 Otras distancias
Existen muchos procedimientos para denir distancias, en funcin de los
datos y el problema experimental. Veamos dos.
Modelo de Thurstone
Supongamos que queremos ordenar n estmulos
1
, . . . ,
n
(por ejemplo, n
productos comerciales)

i
1
_ . . . _
in
segn una escala de preferencias
i
1

in
, donde los
i
son parmetros.
Sea p
ij
la proporcin de individuos de la poblacin que preeren
j
sobre
i
.
Un modelo es
p
ij
=
1

2
_

j

e
t
2
/2
dt.
Si ms de la mitad de los individuos preeren
j
sobre
i
, entonces
i
<
j
.
As:
a) p
ij
< 0.5 implica
i
>
j
,
b) p
ij
= 0.5 implica
i
=
j
,
c) p
ij
> 0.5 implica
i
<
j
.
La estimacin de los parmetros a partir de las proporciones p
ij
es com-
plicada. Alternativamente, teniendo en cuenta que p
ij
+ p
ji
= 1 podemos
denir la distancia entre estmulos
d(
i
,
j
) = [p
ij
0.5[
y aplicar un MDS sobre la matriz (d(
i
,
j
)). La representacin de los est-
mulos a lo largo de la primera dimensin nos proporciona una solucin a la
ordenacin de los estmulos.
Distancia de Rao
Sea S

= f(x, ), un modelo estadstico y z() =


log f(x, ) un
vector columna. La matriz de informacin de Fisher F() es la matriz de
130 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
covarianzas de los z

s. Siendo
a
,
b
dos valores de los parmetros. Una
distancia tipo Mahalanobis sera el valor esperado de
(z(
a
) z(
b
))

F()
1
(z(
a
) z(
b
)).
Pero z depende de x y vara entre
a
,
b
. Consideremos entonces a F()
como un tensor mtrico sobre la variedad diferenciable S

. La distancia de
Rao entre
a
,
b
es la distancia geodsica entre los puntos correspondientes de
S

. La distancia de Rao es invariante por transformaciones de las variables y


de los parmetros, generaliza la distancia de Mahalanobis y tiene aplicaciones
en estadstica matemtica. Veamos tres ejemplos.
1. Distribucin de Poisson: f(x, ) = e
x

x
/x!, x = 0, 1, 2, . . . . La dis-
tancia entre dos valores
a
,
b
es:
(
a
,
b
) = 2[
_

b
[.
2. Distribucin multinomial. La distancia entre p = (p
1
, . . . , p
k
) y q =
(q
1
, . . . , q
k
) es:
(p, q) =arccos(
k

i=1

p
i
q
i
).
3. Distribucin normal. Si es ja, la distancia (al cuadrado) entre dos
vectores de medias es:

2
(
1
,
2
) = (
1

2
)

1
(
1

2
).
Finalmente, para un valor jo de , podemos denir la distancia entre
dos observaciones x
1
, x
2
que dan z
i
() =

log f(x
i
, ), i = 1, 2, como
(z
1
() z
2
())

F()
1
(z
1
() z
2
()).
8.7 Dos ejemplos
Example 8.7.1
8.7. DOS EJEMPLOS 131
Un arquelogo encontr 5 herramientas cortantes A,B,C,D,E y una vez
examinadas, comprob que estaban hechas de piedra, bronce y hierro, con-
forme a la siguiente matriz de incidencias:
Piedra Bronce Hierro
A 0 1 0
B 1 1 0
C 0 1 1
D 0 0 1
E 1 0 0
Utilizando la similaridad de Jaccard (8.6), obtenemos la matriz de similari-
dades:
A B C D E
A 1 1/2 1/2 0 0
B 1 1/3 0 1/2
C 1 1/2 0
D 1 0
E 1
Los resultados del anlisis de coordenadas principales son:
A .0000 .6841 -.3446
B .4822 .1787 .2968
C -.4822 .1787 .2968
D -.6691 -.5207 -.1245
E .6691 -.5207 -.1245
valor propio 1.360 1.074 .3258
porc. acum. 44.36 79.39 90.01
La primera y segunda coordenadas explican el 80% de la variabilidad
geomtrica. La representacin (Fig. 8.2) indica que las herramientas quedan
ordenadas segn su antigedad: E es la ms antigua (slo contiene piedra) y
D la ms moderna (slo contiene hierro).
Example 8.7.2
Una distancia gentica es una medida que cuantica las proximidades
entre dos poblaciones a partir de las proporciones gnicas. Por ejemplo, si
existen k ordenaciones cromosmicas que se presentan en las proporciones
132 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
Figura 8.2: Representacin por anlisis de coordenadas principales de 5 her-
ramientas prehistricas.
(p
1
, . . . , p
k
), (q
1
, . . . , q
k
), una distancia adecuada (propuesta por A. Prevosti)
es
1
2r
k

i=1
[p
i
q
i
[
donde r es el nmero de cromosomas diferentes.
Las distancias entre n = 19 poblaciones de D. Suboscura que provienen de
Droback, Dalkeith, Groningen, Fontaineblau, Viena, Zurich, Huelva, Barcelona,
Fornia, Foresta, Etna, Fruska-Gora, Thessaloniki, Silifke, Trabzon, Chalus,
Orangerie, Agadir, Las Mercedes, se dan en la Tabla 8.1. Aplicando un MDS
no mtrico, se obtiene la representacin de las 19 poblaciones (Fig. 8.3), con
un stress de 2.84, que indica que la representacin es buena. La Fig. 8.4
representa las distancias versus las disparidades.
8.8 Complementos
En un plano terico, el MDS comienza con el teorema de I. J. Schoenberg
acerca de la posibilidad de construir las coordenadas de un conjunto de puntos
dadas sus distancias. A nivel aplicado, es de destacar a W. S. Torgerson, que
en 1957 aplica el MDS a la psicologa, y Gower (1966), que prueba su relacin
con el Anlisis de Componentes Principales y el Cannico de Poblaciones,
abriendo un fructfero campo de aplicacin en la biologa.
8.8. COMPLEMENTOS 133
Dro Dal Gro Fon Vie Zur Hue Bar For For Etn Fru The Sil Tra Cha Ora Aga Las
DROBA 0
DALKE .307 0
GRONI .152 .276 0
FONTA .271 .225 .150 0
VIENA .260 .370 .187 .195 0
ZURIC .235 .300 .112 .120 .128 0
HUELV .782 .657 .695 .580 .540 .623 0
BARCE .615 .465 .529 .412 .469 .445 .259 0
FORNI .780 .657 .693 .607 .606 .609 .373 .309 0
FORES .879 .790 .801 .764 .760 .761 .396 .490 .452 0
ETNA .941 .846 .873 .813 .818 .817 .414 .524 .451 .177 0
FRUSK .560 .505 .470 .442 .342 .391 .577 .460 .501 .681 .696 0
THESS .668 .545 .592 .514 .434 .500 .502 .392 .363 .590 .630 .315 0
SILIF .763 .643 .680 .584 .581 .610 .414 .357 .413 .646 .667 .544 .340 0
TRABZ .751 .619 .675 .582 .519 .587 .418 .342 .399 .587 .648 .439 .269 .286 0
CHALU .709 .489 .636 .548 .531 .549 .595 .489 .514 .635 .649 .444 .408 .574 .438 0
ORANG .947 .867 .864 .782 .837 .795 .573 .574 .568 .519 .535 .782 .733 .696 .698 .760 0
AGADI .927 .834 .844 .803 .789 .792 .428 .498 .485 .329 .303 .666 .661 .642 .631 .710 .321 0
LASME .931 .699 .846 .749 .802 .792 .404 .485 .429 .380 .253 .659 .566 .604 .551 .460 .615 .430 0
Tabla 8.1: Distancias genticas respecto a las ordenaciones cromosmicas
entre 19 poblaciones de D. Suboscura.
134 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
Figura 8.3: Representacin MDS de 19 poblaciones de D. Subobscura re-
specto a las distancias genticas entre ordenaciones cromosmicas.
Figura 8.4: Representacin de las distancias genticas vs las disparidades.
8.8. COMPLEMENTOS 135
El MDS no mtrico es debido a R. N. Shepard, que en 1962 introdujo el
concepto de preordenacin, y J. B. Kruskal, que en 1964 propuso algoritmos
efectivos que permitan encontrar soluciones. La transformacin q-aditiva
fue estudiada por J.C. Lingoes y K.V. Mardia. Diversos autores estudiaron
la transformacin aditiva, hasta que Cailliez (1983) encontr la solucin de-
nitiva. Consultar Cox y Cox (1994).
Existen diferentes modelos para tratar el problema de la representacin
cuando actan diferentes matrices de distancias. Un modelo, propuesto por
J.D. Carroll, es el INDSCAL. Un modelo reciente, propuesto por Cuadras y
Fortiana (1998) y Cuadras (1998), es el related metric scaling.
De la misma manera que se hace regresin sobre componentes principales,
se puede hacer regresin de una variable dependiente Y sobre las dimen-
siones principales obtenidas aplicando MDS sobre una matriz de distancias
entre las observaciones. Este modelo de regresin basado en distancias per-
mite plantear la regresin con variables mixtas. Consultar Cuadras y Arenas
(1990), Cuadras et al. (1996).
Una versin del MDS, denominada continuous scaling, permite encon-
trar las coordenadas principales de una variable aleatoria. Consultar Cuadras
y Fortiana (1993a,1995), Cuadras y Lahlou (2000).
P.C. Mahalanobis y C. R. Rao propusieron sus distancias en 1936 y 1945,
respectivamente. Posteriormente Amari, Atkinson, Burbea, Mitchell, Oller y
otros estudiaron la distancia de Rao. Consultar Oller (1987), Oller y Cuadras
(1985), Cuadras (1988).
136 CAPTULO 8. ESCALADO MULTIDIMENSIONAL (MDS)
Captulo 9
ANALISIS DE
CORRESPONDENCIAS
9.1 Introduccin
El Anlisis de Correspondencias (AC) es una tcnica multivariante que per-
mite representar las categoras de las las y columnas de una tabla de con-
tingencia.
Supongamos que tenemos dos variables categricas A y B con I y J cate-
goras respectivamente, y que han sido observadas cruzando las I categoras
A con las J categoras B, obteniendo n =

ij
f
ij
observaciones, donde f
ij
es el nmero de veces en que aparece la interseccn A
i
B
j
, dando lugar a la
tabla de contingencia I J :
B
1
B
2
B
J
A
1
f
11
f
12
f
1J
f
1
A
2
f
21
f
22
f
2J
f
2
.
.
.
.
.
.
.
.
.
A
I
f
I1
f
I2
f
IJ
f
I
f
1
f
2
f
J
n
(9.1)
donde f
i
=

j
f
ij
son las frecuencias de A
i
, f
j
=

i
f
ij
son las frecuencias
de B
j
. Hemos de tener en cuenta que la tabla (9.1) resume la matriz de datos
137
138 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
inicial, que tpicamente es de la forma
A
1
A
2
A
I
B
1
B
2
B
J
1 1 0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
i 0 0 1 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n 0 0 1 0 0 1
en la que damos el valor 1 cuando se presenta una caracterstica y 0 cuando
no se presenta. As, el individuo 1 presentara las caractersticas A
1
y B
1
,
el individuo i presentaria las caractersticas A
I
y B
2
, y el individuo n las
caractersticas A
I
y B
J
. La matriz de datos n (I +J) es pues
Z = [X, Y].
A partir de ahora utilizaremos el nombre de variables las y variables
columnas a las variables A y B, respectivamente.
Indiquemos por N = (f
ij
) la matriz I J con las frecuencias de la tabla
de contingencia. La matriz
P =
1
n
N,
es la matriz de correspondencias. Indiquemos por r el vector I 1 con los
totales marginales de las las de P, y por c el vector J 1 con los totales
marginales de las columnas de P :
r = P1, c = P

1.
Tenemos entonces que
r =
1
n
1

X, c =
1
n
1

Y,
son los vectores de medias de las matrices de datos X, Y. Indiquemos adems
D
r
= diag(r), D
c
= diag(c),
las matrices diagonales que contienen los valores marginales de las y colum-
nas de P. Se verica
X

X = nD
r
, Y

Y = nD
c
, X

Y = nP = N.
9.2. CUANTIFICACIN DE LAS VARIABLES CATEGRICAS 139
Por lo tanto, las matrice de covarianzas entre las, entre columnas y entre
las y columnas, son
S
11
= D
r
rr

, S
22
= D
c
cc

, S
12
= Prc

.
Puesto que la suma de las variables es igual a 1, las matrices S
11
y S
22
son
singulares.
9.2 Cuanticacin de las variables categri-
cas
El problema de las variables categricas, para que puedan ser manejadas en
trminos de AM clsico, es que no son cuantitativas. La cuanticacin 0
1 anterior es convencional. Asignemos pues a las categoras A
1
, . . . ,A
I
de la
variable la, los valores numricos a
1
, . . . , a
I
, y a las categoras B
1
, . . . ,B
J
de
la variable columna, los valores numricos b
1
, . . . , b
J
. es decir, indiquemos los
vectores
a = (a
1
, . . . , a
I
)

, b = (b
1
, . . . , b
J
)

,
y consideremos las variables compuestas
U = Xa, V = Yb.
Si en un individuo k se observan las categoras A
i
,B
j
, entonces los valores de
U, V sobre k son
U
k
= a
i
, V
k
= b
j
.
Deseamos encontrar a, b tales que las correlaciones entre U y V sean
mximas. Claramente, estamos ante un problema de correlacin cannica,
salvo que ahora las matrices S
11
y S
22
son singulares. Una g-inversa de S
11
es la matriz S

11
= D
1
r
que verica
S
11
S

11
S
11
= S
11
.
En efecto,
(D
r
rr

)D
1
r
(D
r
rr

) = (D
r
rr

)(I 1r

)
= D
r
D
r
1r

rr

+rr

1r

= D
r
rr

rr

+rr

= D
r
rr

.
140 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
Anlogamente S

22
= D
1
c
. Aplicando la teoria de la correlacin cannica
(Seccin 4.3), podemos considerar la descomposicin singular
D
1/2
r
(Prc

)D
1/2
c
= UD

, (9.2)
donde D

es la matriz diagonal con los valores singulares en orden decre-


ciente. Si u
1
, v
1
son los primeros vectores cannicos, tendremos entonces
a = S
1/2
11
u
1
, b = S
1/2
22
v
1
, r =
1
,
es decir, el primer valor singular es la mxima correlacin entre las variables
U y V. Pero pueden haber ms vectores y correlaciones canonicas, y por lo
tanto la solucin general es
a
i
= D
1/2
r
u
i
, b
i
= D
1/2
c
v
i
, r
i
=
i
, i = 1, . . . , minI, J.
En notacin matricial, los vectores que cuanticn las categoras de las las y
de las columnas de N, son las columnas de las matrices
A
0
= D
1/2
r
U, B
0
= D
1/2
c
V.
Tambin obtenemos correlaciones mximas considerando las matrices
A = D
1/2
r
UD

, B = D
1/2
c
VD

, (9.3)
pues el producto por una constante (en este caso un valor singular), no altera
las correlaciones.
9.3 Representacin de las y columnas
Los perles de las las son
(
p
i1
r
i
,
p
i2
r
i
, ,
p
iJ
r
i
),
es decir, las probabilidades condicionadas P(B
1
/A
i
), . . . , P(B
J
/A
i
). La
matriz de perles de las las es
Q = D
1
r
P.
9.3. REPRESENTACIN DE FILAS Y COLUMNAS 141
Denition 9.3.1 La distancia ji-cuadrado entre las las i, i

de N es

2
ii
=
J

j=1
(p
ij
/r
i
p
i

j
/r
i
)
2
c
j
.
La matriz de productos escalares asociada a esta distancia es
G = QD
1
c
Q

,
y la relacin entre
(2)
= (
2
ii
) y G es

(2)
= g1

+1g

2G,
siendo g el vector columna con los I elementos diagonales de G. La solucin
MDS ponderada de las las de N (Seccin 9.8) se obtiene calculando la
diagonalizacin
D
1/2
r
(I 1r

)G(I r1

)D
1/2
r
= UD
2

y seguidamente obteniendo las coordenadas principales


A = D
1/2
r
UD

. (9.4)
Las distancias eucldeas entre las las de A coinciden con la distancia ji-
cuadrado.
Relacionemos ahora estas coordenadas con las cuanticaciones anteriores.
De (9.2) tenemos
D
1/2
r
(Prc

)D
1
c
(P

cr

)D
1/2
r
= UD
2

,
y de
D
1/2
r
(D
1
r
P1c

)D
1
c
(P

D
1
r
c1

)D
1/2
r
= D
1/2
r
(Q1r

Q)D
1
c
(Q

r1

)D
1/2
r
,
deducimos que
D
1/2
r
(I 1r

)QD
1
c
Q

(I r1

)D
1/2
r
= UD
2

.
Esta ltima expresin demuestra que las matrices A obtenidas en (9.3) y
(9.4) son la misma.
142 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
Anlogamente podemos denir la distancia ji-cuadrado entre columnas

2
jj
=
I

i=1
(p
ij
/c
j
p
ij
/c
j
)
2
r
i
,
y probar que las distancias eucldeas entre las las de la matriz B obtenidas
en (9.3), coinciden con esta distancia ji-cuadrado.
As pues, si consideramos las dos primeras coordenadas principales:
Filas Columnas
A
1
(a
11
, a
12
) B
1
(b
11
, b
12
)
A
2
(a
21
, a
22
) B
2
(b
21
, b
22
)
.
.
.
.
.
.
.
.
.
.
.
.
A
I
(a
I1
, a
I2
) B
J
(b
J1
, b
J2
)
obtenemos una representacin de las y columnas de la matriz de frecuencias
N.
9.4 Relacin entre las y columnas y repre-
sentacin conjunta
Las coordenadas Ay las coordenadas B, que representan las las y las colum-
nas, estn relacionadas. Premultiplicando (9.2) por D
1/2
r
y postmultipli-
cando por V obtenemos
D
1
r
(Prc

)D
1/2
c
V = D
1/2
r
U,
luego
D
1
r
(Prc

)BD
1

= A.
Anlogamente se prueba que
D
1
c
(P

cr

)AD
1

= B.
Si ahora tenemos en cuenta que r

D
1
r
= 1

, premultiplicando por r

(Prc

)BD
1

= r

A.
Como adems 1

P = c

, 1

r = 1, vemos fcilmente que


(c

)BD
1

= r

A = 0.
9.4. RELACINENTREFILAS YCOLUMNAS YREPRESENTACINCONJUNTA14
Anlogamente, c

B = 0, es decir, las medias ponderadas de las coordenadas


principales son cero. En consecuencia
A = D
1
r
PBD
1

, B = D
1
c
P

AD
1

. (9.5)
Conviene notar que D
1
r
P son los perles de las las, y D
1
c
P

son los perles


de las columnas. As pues tenemos que, salvo el factor dilatador D
1

, (pues
los elementos diagonales de D

son menores que 1), se verica:


1. Las coordenadas de las las son medias, ponderadas por los perles de
las las, de las coordenadas de las columnas.
2. Las coordenadas de las columnas son medias, ponderadas por los per-
les de las columnas, de las coordenadas de las las.
Por ejemplo, la primera coordenada principal de las las verica:
a
i1
=
1

1
(b
11
p
i1
r
i
+b
21
p
i2
r
i
+ +b
J1
p
iJ
r
i
), i = 1, . . . , I,
y la primera coordenada principal de las columnas verica
b
j1
=
1

1
(a
11
p
1j
c
j
+a
21
p
2j
c
j
+ +a
I1
p
Ij
c
j
), j = 1, . . . , J.
Ejemplo 1. La Tabla 9.1 contiene unos datos articiales, que clasi-
can 400 clientes segn la edad (joven, mediana, mayor) y los productos que
compran en un supermercado.
Tenemos:
P =
_
_
_
_
_
_
.175 0 0
.112 5 .1125 0
.075 .075 .075
0 .2 .05
.0875 .0125 .025
_
_
_
_
_
_
, r =
_
_
_
_
_
_
.175
.225
.225
.250
.125
_
_
_
_
_
_
, c =
_
_
.45
.40
.15
_
_
.
La matriz de perles de las las es:
_
_
_
_
_
_
1.00 0 0
0.50 0.50 0
0.33 0.33 0.33
0 0.80 0.20
0.70 0.10 0.20
_
_
_
_
_
_
144 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
Edad
Producto Joven Mediana Mayor Total
A 70 0 0 70
B 45 45 0 90
C 30 30 30 90
D 0 80 20 100
E 35 5 10 50
Total 180 160 60 400
Tabla 9.1: Clasicacin de 400 clientes segn edades y productos adquiridos
en un supermercado.
Las coordenadas principales son:
Filas Columnas
A =
_

_
1.0990 0.1199
0.0551 0.4213
0.1834 0.4815
0.9231 0.1208
0.5384 0.3012
_

_
B =
_
_
0.7525 0.0397
0.6770 0.2393
0.4522 0.7571
_
_
Los valores singulares son:
1
= 0.6847,
2
= 0.3311. La primera coorde-
nada principal de las las A
1
, . . . ,A
5
verica:
1.0990 = 0.6847
1
(.7525 1 + 0 + 0)
0.0551 = 0.6847
1
(.7525 .5 .677 .5 + 0)
0.1834 = 0.6847
1
(.7525 .33 .677 .33 .4522 .33)
0.9231 = 0.6847
1
(0 .677 .8 .4522 .2)
0.5384 = 0.6847
1
(.7525 .7 .677 .1 .4522 .2)
Las coordenadas de las marcas A,B,C,D,E son medias de las coordenadas de
las tres edades, ponderadas por la incidencia del producto en la edad.
9.5 Soluciones simtrica y asimtrica
La representacin de las y columnas utilizando las coordenadas principales
A, B es la solucin simtrica. La representacin conjunta es posible gracias
a las frmulas (9.5). La representacin utilizando las matrices
A = D
1/2
r
UD

, B
0
= D
1/2
c
V,
9.5. SOLUCIONES SIMTRICA Y ASIMTRICA 145
Figura 9.1: Representacin asimtrica (izquierda) y simtrica (derecha) de
las las (productos) y columnas (edades) de la Tabla 9.1.
Color cabellos
Color ojos Rubio Rojo Castao Oscuro Negro Total
CLARO 688 116 584 188 4 1,580
AZUL 326 38 241 110 3 718
CASTAO 343 84 909 412 26 1,774
OSCURO 98 48 403 681 81 1,311
Total 1,455 286 2,137 1,391 114 5,383
Tabla 9.2: Classicacin de 5383 individuos segn el color de los ojos y del
cabello.
es decir, coordenadas principales para las las y coordenadas estndard para
las columnas, es la llamada solucin asimtrica. Esta solucin verica
Prc

= D
r
AB

0
D
c
,
y por lo tanto reproduce mejor la dependencia entre las y columnas.
Ejemplo 2. La Tabla 9.2 relaciona los colores de los cabellos y de los
ojos de 5,383 individuos.
146 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
Figura 9.2: Representacin asimtrica (izquierda) y simtrica (derecha) de
los datos de los colores de ojos y cabellos.
Las coordenadas principales son:
Filas Columnas
A =
_

_
0.4400 0.0872
0.3996 0.1647
0.0361 0.2437
0.7002 0.1345
_

_
B =
_

_
0.5437 0.1722
0.2324 0.0477
0.0402 0.2079
0.5891 0.1070
1.0784 0.2743
_

_
Los valores singulares son:
1
= 0.449,
2
= 0.1727,
3
= 0.0292. De
acuerdo con (9.6), la variabilidad explicada por las dos primeras dimensiones
principales es P
2
= 86.8%. La Figura 9.2 proporciona las representaciones
simtrica y asimtrica.
9.6 Variabilitadad geomtrica (inercia)
Vamos a probar que

2
= n
m

k=1

2
k
,
9.6. VARIABILITADAD GEOMTRICA (INERCIA) 147
siendo

2
= n
I

i=1
J

j=1
(f
ij
f
i
f
j
/n)
2
f
i
f
j
el estadstico ji-cuadrado con (I 1)(J 1) g.l. que permite decidir si hay
independencia entre las y columnas de N. Es decir, la ji-cuadrado es n veces
la suma de los valores propios del AC.
El coeciente
2
de Pearson se dene como

2
=
I

i=1
J

j=1
(p
ij
r
i
c
j
)
2
r
i
c
j
=

2
n
,
Es fcil probar que tambin podemos expresar

2
=
I

i=1
J

j=1
p
2
ij
r
i
c
j
1.
La variabilidad geomtrica ponderada de la distancia ji-cuadrado entre
las es
V

=
1
2
I

i=1
I

=1
r
i

2
ii
r
i
.
Proposition 9.6.1 V

=
2
.
Prueba:

2
ii
=
J

j=1
(p
ij
/r
i
p
i

j
/r
i
)
2
c
j
=
J

j=1
(
p
ij
r
i
c
j

p
i

j
r
i
c
j
)
2
c
j
Por lo tanto
V

=
1
2
I

i=1
I

i=1
J

j=1
r
i
(
p
ij
r
i
c
j

p
i

j
r
i
c
j
)
2
c
j
r
i

Si desarrollamos por un lado

I
i=1

I
i

=1

J
j=1
r
i
p
2
ij
r
2
i
c
2
j
c
j
r
i
=

I
i=1

I
i

=1

J
j=1
p
2
ij
r
i
c
j
r
i

I
i=1

J
j=1
p
2
ij
r
i
c
j
,
148 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
y por otro lado, dado que

I
i

=1
p
ij
= c
j
,

I
i=1

I
i=1

J
j=1
r
i
p
ij
p
i

j
r
i
c
2
j
r
i

c
j
r
i
=

I
i=1

I
i

=1

J
j=1
p
ij
p
i

j
c
j
=

I
i=1

J
j=1
p
ij
c
j
c
j
= 1,
es decir, vemos que V

= ( + 2)/2, siendo =

i,j
p
2
ij
r
i
c
j
.
Proposition 9.6.2
2
=

I
k=1

2
k
.
Prueba: Sea
W = D
1/2
r
(Prc

)D
1/2
c
= UD

.
Entonces

2
= tr(WW

) = tr(UD
2

) = tr(D
2

).
Proposition 9.6.3 La variabilidad geomtrica utilizando slo las primeras
m coordenadas principales es
V

(m) =
m

k=1

2
k
.
Prueba: Supongamos m = J. Podemos escribir la matriz de distancias
entre las como

(2)
= a1

+1a

2AA

,
siendo a el vector columna que contiene los elementos de la diagonal de AA

.
Entonces
V

=
1
2
r

(2)
r = r

a1

r +r

1a

r 2r

AA

r = r

a.
Pero
r

a = tr(D
1/2
r
AA

D
1/2
r
) = tr(UD
2

) = tr(D
2

).
Lo hemos probado para m = J, pero fcilmente vemos que la frmula tambin
vale para m < J.
As pues, en la representacin por AC de las las y columnas de N en
dimensin m, el porcentaje de variabilidad geomtrica o inercia viene dado
por
P
m
= 100

m
k=1

2
k

K
k=1

2
k
. (9.6)
9.7. ANALISIS DE CORRESPONDENCIAS MLTIPLES 149
9.7 Analisis de Correspondencias Mltiples
El AC combina y representa dos variables categricas. Pero se puede adaptar
para estudiar ms de dos variables. Presentemos primero el procedimiento
para dos, que despus generalizaremos.
Escribimos la matriz n (I + J) de datos binarios como una matriz
n (J
1
+J
2
)
Z = [Z
1
, Z
2
].
Entonces tenemos que
B
u
= Z

Z =
_
Z

1
Z
1
Z

1
Z
2
Z

2
Z
1
Z

2
Z
2
_
=n
_
D
r
P
P

D
c
_
.
La matriz de frecuencias, donde F y C contienen las marginales de las y
columnas,
B
u
=
_
F N
N

C
_
es la llamada matriz de Burt. A continuacin podemos realizar tres anlisis
de correspondencias diferentes sobre las matrices:
a) N. b) [Z
1
, Z
2
]. c) B
u
.
El anlisis a) lo hemos vistos en las secciones anteriors. El resultado es
una representacin de las y columnas de N.
El anlisis b) es sobre [Z
1
, Z
2
], considerada una matriz binaria con n las
y J
1
+J
2
columnas. AC nos dara una representacin de las J
1
+J
2
columnas,
que es la interesante, y de los n individuos, pero esta segunda representacin
es innecessaria.
El anlisis c) es sobre B
u
que es la matriz simtrica de orden (J
1
+J
2
)
(J
1
+J
2
). Tendremos una representacin idntica por columnas y por las.
En los tres casos vemos que podemos representar las las y columnas de
N. Es posible demostrar que los tres anlisis son equivalentes en el sentido de
que proporcionan la misma representacin, variando slo los valores propios.
150 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
Todo esto se describe en el cuadro que sigue.
Tabla Dimensin Coordenadas Valor propio
N = Z

1
Z
2
J
1
J
2
A (las)
B (columnas)

Z = [Z
1
, Z
2
] n (J
1
+J
2
)
_
A
B
_
1+

2
B
u
= Z

Z (J
1
+J
2
) (J
1
+J
2
)
_
A
B
_
(
1+

2
)
2
Consideremos a continuacin Q variables categricas con J
1
, . . . , J
Q
esta-
dos, respectivamente, sobre n individuos. Sea J = J
1
+. . . +J
Q
. La tabla de
datos, de orden n J es la super-matriz de indicadores
Z = [Z
1
, . . . , Z
j
, . . . , Z
q
],
donde Z
j
es n J
j
y contiene los datos binarios de la variable j. La tabla de
contingencia que tabula la combinacin de las variables i, j es N
ij
= Z

i
Z
j
.
La matriz de Burt, de orden J J es
B
u
= Z

Z =
_

_
Z

1
Z
1
Z

1
Z
2
Z

1
Z
q
Z

2
Z
1
Z

2
Z
2
Z

2
Z
q
.
.
.
.
.
.
.
.
.
.
.
.
Z

q
Z
1
Z

q
Z
2
Z

q
Z
q
_

_
,
donde las matrices Z

j
Z
j
sn diagonales.
El Anlisis de Correspondncias Mltiples intenta representar los J =
J
1
+. . . + J
q
estados de las q variables categricas. Como en el caso Q = 2,
lo podemos hacer aplicando un AC simple sobre leas matrices:
a) Z. b) B
u
.
E en caso a) representampos las J columnas y ignoramos las n las (in-
dividuos). En el caso b) tenemos una tabla de frecuencias J J simtrica
y podemos representar las las (=columnas) aplicando AC simple. Los dos
procedimientos son equivalentes, salvo que se cumple la relacin

B
k
= (
Z
k
)
2
9.7. ANALISIS DE CORRESPONDENCIAS MLTIPLES 151
entre los valores propios
B
i
obtenidos a partir de la matriz de Burt y los
Z
i
que surgen del anlisis sobre Z. Las inercias correspondientes son:

2
(B
u
) =

B
k
=
1
Q
2
[

i=j

2
(N
ij
) + (J Q)],

2
(Z) =

Z
k
=
J
Q
1,
siemdo
2
(N
ij
) la inercia para la tabla N
ij
, vase Secci ??. As pues podemos
constatar que AC puede servir tambin para representar ms de dos variables
categriques.
Exemple 9.7.1 La Tabla 9.3 contiene las frecuencias con la clasifcacin
cruzada de 1257 individuos segun Edad (E), Sexo (S), intencin de Voto (V)
y Clase social (C). Tenemos Q = 4, J = 12, J
1
= 4, J
2
= 2, J
3
= 3, J
4
= 2.
Los datos (matriz Z, solo mostramos 5 individuos) son de la forma:
Edad Votacin Clase Sexo
>73 51-73 41-50 26-40 <26 Lib Con Alt Mit Obr H D
0 1 0 0 0 1 0 0 1 0 1 0
0 1 0 0 0 0 1 1 0 0 0 1
0 0 0 0 1 1 0 0 0 1 1 0
1 0 0 0 0 0 1 1 0 0 0 1
0 1 0 0 0 1 0 0 1 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
La Tabla 9.4 (abajo) es la tabla de Burt. Observemos que es simtrica.
El AC sobre esta tabla nos permite representar las 4 variables categricas
sobre el mismo grco, vase la Figura 9.3.
152 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
Edad Hombres Mujeres
Derecha Izquierda Derecha Izquierda
Clase alta
>73 4 0 10 0
51-73 27 8 26 9
41-50 27 4 25 9
26-40 17 12 28 9
<26 7 6 7 3
Clase media
>73 8 4 9 1
51-73 21 13 33 8
41-50 27 12 29 4
26-40 14 15 17 13
<26 9 9 13 7
Clase obrera
>73 8 15 17 4
51-73 35 62 52 53
41-50 29 75 32 70
26-40 32 66 36 67
<26 14 34 18 33
Tabla 9.3: Tabla de frecuencias combinando 1257 individuos segn edad,
sexo, clase social y tendencia de voto.
81 0 0 0 0 56 25 14 23 44 39 42
0 347 0 0 0 194 153 70 75 202 166 181
0 0 343 0 0 169 174 65 72 206 174 169
0 0 0 326 0 144 182 66 59 201 156 170
0 0 0 0 160 68 92 23 38 99 79 81
56 194 169 144 68 631 0 178 180 273 279 352
25 153 174 182 92 0 626 60 87 479 335 291
14 70 65 66 23 178 60 238 0 0 112 126
23 75 72 59 38 180 87 0 267 0 132 135
44 202 206 201 99 273 479 0 0 752 370 382
39 166 174 156 79 279 335 112 132 370 614 0
42 181 169 170 81 352 291 126 135 382 0 643
Tabla 9.4: Tabla de Burt con la clasicacin de 1257 individuos segn edad,
sexo, clase social y tendencia de voto.
9.8. MDS PONDERADO 153
Figura 9.3: Representacin por anlisis de correspondencias mltiples de los
datos de la Tabla 9.3.
9.8 MDS ponderado
En esta seccin introducimos una variante del Anlisis de Coordenadas Prin-
cipales.
Denition 9.8.1 Sea
g
= (
ij
) una matriz de distancias g g, w =
(w
1
, . . . , w
g
)

un vector de pesos tal que


w

1 =
g

i=1
w
i
= 1, w
i
0,
y consideremos la matriz diagonal D
w
=diag(w). La solucin MDS ponderada
de
g
es la matriz
X = D
1/2
w
U,
siendo
D
1/2
w
(I
g
1w

)(
1
2

(2)
g
)(I
g
w1

)D
1/2
w
= U
2
U

, (9.7)
una descomposicin espectral, donde = diag(
2
1
, . . . ,
2
p
) contiene los val-
ores propios y
(2)
g
= (
2
ij
).
154 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
Denition 9.8.2 La variabilidad geomtrica ponderada de
g
es
V

=
1
2
n

i,j=1
w
i

2
ij
w
j
=
1
2
w

(2)
g
w.
Las coordenadas principales son las las de X. Escribiendo
X = [X
1
, X
2
, . . . , X
p
],
podemos interpretar las columnas de X como variables. Observemos que se
verica
(I
g
1w

)(
1
2

(2)
g
)(I
g
w1

) = XX

. (9.8)
Propietades:
1. Las variables X
k
(columnas de X) tienen medias ponderadas iguales a
cero:
X
k
= w

X
k
= 0.
Prueba:
w

(I
g
1w

) = w

= 0 w

XX

w = 0 w

X = 0.
2. Las varianzas ponderadas de las variables X
k
son iguales a los valores
propios:
s
2
k
=
2
k
, k = 1, . . . , p.
Prueba: si la media de x
1
, . . . , x
g
es 0, la varianza ponderada es

w
i
x
2
i
,
es decir,
s
2
k
= D
1/2
w
X
k
X

k
D
1/2
w
= (U

k
)(
k
U
k
) =
2
k
,
donde
2
k
es el valor propio de vector propio U
k
.
3. Las variables (columnas de X) estn incorrelacionadas
cor(X
k
, X
k
) = 0, k ,= k

= 1, . . . , p.
Prueba: puesto que las medias son nulas la covarianza ponderada es
cov(X
k
, X
k
) = D
1/2
w
X

k
X
k
D
1/2
w
=
2
k
U

k
U
k
= 0,
ya que los vectores propios son ortogonales.
9.8. MDS PONDERADO 155
4. La variabilidad geomtrica ponderada de
g
es
V

=
p

k=1

2
k
.
Prueba: Expresemos la matriz de distancias al cuadrado como

(2)
g
= 1d

+d1

2XX

,
siendo d un vector g 1 con los elementos diagonales de XX

. Por una
parte
1
2
w

(2)
g
w = w

1d

ww

XX

w = d

w.
Por otra parte
d

w =tr(D
1/2
w
XX

D
1/2
w
) =tr(U
2
U

) =tr(
2
).
5. Si tomamos las q primeras coordenadas principales de X, la variabilidad
geomtrica ponderada es:
V

(q)=
q

k=1

2
k
.
Estudiemos ahora la relacin entre el Anlisis de Coordenadas Principales
ordinario (Cap. 8) y el ponderado. Supongamos que podemos expresar el
vector de pesos como
w =
1
n
(n
1
, n
2
, . . . , n
k
), n =
g

i=1
n
i
,
donde n
i
son enteros positivos y el peso w
i
es igual (o muy prximo
1
) a n
i
/n.
Indiquemos por M la matriz n g que contiene n
i
las (0, . . . , 1, . . . , 0). Por
ejemplo, si g = 3 y n
1
= 2, n
2
= 3, n
3
= 1, entonces
M=
_
_
_
_
_
_
_
_
1 0 0
1 0 0
0 1 0
0 1 0
0 1 0
0 0 1
_
_
_
_
_
_
_
_
.
1
Tomando n sucientmente grande, podemos aproximarlo tanto como queramos.
156 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
Si ahora suponemos que en vez de g objetos tenemos n objetos, pero
el primer objeto est repetido n
1
veces, el segundo objeto n
2
veces, etc.,
entonces la matriz de distancias es

n
= M
g
M

, (9.9)
y el anlisis no ponderado sobre la matriz
n
es
(I
n

1
n
11

)(
1
2

(2)
n
)(I
n

1
n
11

) =

UD
2

= YY

, (9.10)
siendo

U la matriz n p de los vectores propios. La solucin no ponderada
es
Y =

UD

.
Theorem 9.8.1 La solucin no ponderada Y sobre
n
coincide con la solu-
cin ponderada X sobre
g
, en el sentido de que obtenemos Y repitiendo
n
1
, . . . , n
g
veces las las de X.
Prueba: De (9.9) podemos expresar la solucin no ponderada (9.10) como
(I
n

1
n
11

)M(
1
2

(2)
g
)M

(I
n

1
n
11

) = YY

.
Se verica
(I
n

1
n
11

)M= M(I
g
1
g
w

).
Por lo tanto, de (9.8) tenemos
M(I
g
1w

)(
1
2

(2)
g
)(I
g
w1

)M

= MXX

,
que demuestra que Y = MX. En otras palabras, las coordenadas principales
no ponderadas Y son el resultado de repetir n
1
, . . . , n
g
veces las coordenadas
X. La relacin entre los valores singulares es

k
= g
k
, k = 1. . . . , p.
Por ejemplo, si g = 3 y n
1
= 2, n
2
= 3, n
3
= 1, obtenemos
X =
_
_
x
11
x
12
x
21
x
22
x
31
x
32
_
_
, Y =
_
_
_
_
_
_
_
_
x
11
x
12
x
11
x
12
x
21
x
22
x
21
x
22
x
21
x
22
x
31
x
32
_
_
_
_
_
_
_
_
.
9.9. COMPLEMENTOS 157
9.9 Complementos
El Anlisis de Correspondencias (AC) tiene una larga historia que se inicia
en 1935 (H.O. Hirschfeld, R.A. Fisher, L. Guttman). Ha sido extensamente
estudiado por Benzcri (1973) y Greenacre (1984).
Utilitzando coordenadas estndard A
0
= (a
0
ik
), B
0
= (b
0
jk
), podemos ex-
presar la matriz de correspondencias P = (p
ij
) como
P = rc

+D
r
A
0
D

0
D
c
.
Indicando r = (p
1
, . . . , p
I
)

, c = (p
1
, . . . , p
J
)

los vectores marginales de las


y columnas de P, la expresin escalar es
p
ij
= p
i
p
j
(1 +
K

k=1

k
a
0
ik
b
0
jk
).
Si el trmino entre parntesis =

K
k=1

k
a
0
ik
b
0
jk
, es sucientemente pequeo
para que log(1 +) , entonces
log p
ij
= log p
i
+ log p
j
+
K

k=1

k
a
0
ik
b
0
jk
,
que se adapta a un modelo log-lineal (Seccin 11.5), donde cuanticara
el trmino de interaccin. El AC sera pues una manera de visualizar los
trminos de interaccin (van der Heijden y de Leeuw, 1985).
CA verica el principio de equivalencia distribucional: si dos perles
de columnas son idnticos, es decir,
p
ij
/c
j
= p
ij
/c
j
, i = 1, . . . , I,
entonces las columnas j, j

de N pueden juntarse y ser reemplazadas por su


suma. En efecto, cuando se cumple este principio
p
ij
c
j
=
p
ij

c
j

=
p
ij
+p
ij

c
j
+c
j

.
Luego
[(
p
ij
r
i
c
j
)(
p
i

j
r
i
c
j
)]
2
c
j
+[(
p
ij

r
i
c
j

)(
p
i

r
i
c
j

)]
2
c
j
= [(
p
ij
+p
ij

r
i
(c
j
+c
j
)
)(
p
i

j
+p
i

r
i
(c
j
+c
j
)
)]
2
(c
j
+c
j
),
158 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
y la distancia ji-cuadrado queda inalterada si juntamos las columnas j y j

.
Una variante del AC propuesta por Rao (1995), se basa en la distancia
de Hellinger

2
ii
=
J

j=1
(
_
p
ij
/r
i

_
p
i

j
/r
i
)
2
,
entre dos las de N, que tiene la ventaja de no depender de los perles de las
columnas. Sin embargo los resultados pueden ser muy similares (Cuadras et
al, 2004), y el mtodo basado en esta distancia resulta ms apropiado cuando
las las se ajustan a poblaciones multinomiales distintas.
Una forma alternativa de presentar el AC es el reciprocal averaging
(RA). Supongamos que queremos encontrar las coordenadas de las las (a
1
, . . . , a
I
)
como medias ponderadas de las coordenadas de las columnas y recproca-
mente, las coordenadas de las columnas (b
1
, . . . , b
J
) como medias ponderadas
de las coordenadas de las las
a
i
=
J

j=1
b
j
p
ij
r
i
, b
j
=
I

i=1
a
i
p
ij
c
j
.
Pero estas relaciones no se pueden vericar simultneamente (por razones
geomtricas), as que hemos de introducir un factor multiplicativo > 1 y
escribir
a
i
=
J

j=1
b
j
p
ij
r
i
, b
j
=
I

i=1
a
i
p
ij
c
j
. (9.11)
El objectivo del RA es encontrar las coordenadas vericando (9.11) tal que
sea mnimo. Entonces es posible probar que = (1/)
2
es un valor propio.
Esto mismo lo podemos plantear para la segunda y siguientes coordenadas
y probar la equivalencia entre RA y AC. Los clculos del RA se efectan
iterativamente, y es til (especialmente en ecologa), cuando la matriz de
frecuencias N tiene dimensin grande y contiene muchos ceros (Hill, 1973).
Por otra parte se conoce a (9.11) como la mejor representacin baricntrica
sobre un eje (Lebart et al., 1977).
Una extensin interesante del AC es el Canonical Correspondence Analy-
sis (Ter Braak, 1986), que tiene en cuenta, para la representacin, que los
ejes sean combinacin lineal de variables externas. Tiene aplicaciones en
ecologa, dado que permite relacionar las comunidades biolgicas con las
variables ambientales.
9.9. COMPLEMENTOS 159
Una extensin continua del AC considera una densidad bivariante h(x, y)
con densidades marginales f(x), g(y), y la descomposicin singular
f(x)
1/2
h(x, y)g(y)
1/2
=

k=1

k
u
k
(x)v
k
(y), (9.12)
donde
k
, k 1 son correlaciones cannicas y u
k
, k 1, v
k
, k 1 son
sistemas de funciones ortonormales (Lancaster, 1969). Hay una interesante
semejanza entre (9.12) y el AC, pues muchas propiedades se conservan. Vase
una comparacin sistemtica en Cuadras et al. (2000) y Cuadras (2002b).
El AC ha sido tambin comparado con otros mtodos de representacin
de tablas de contingencia (Cuadras et al., 2006), propiciando una versin
paramtrica que los engloba a todos (Cuadras y Cuadras, 2006).
160 CAPTULO 9. ANALISIS DE CORRESPONDENCIAS
Captulo 10
CLASIFICACIN
10.1 Introduccin
Clasicar los elementos de un conjunto nito consiste en realizar una par-
ticin del conjunto en subconjuntos homogneos, siguiendo un determinado
criterio de clasicacin. Cada elemento pertenece a un nico subconjunto,
que a menudo tiene un nombre que lo caracteriza. As clasicamos:
Las personas en hombres y mujeres.
Los trabajadores en actividades profesionales: servicios, industria, agri-
cultura.
Los animales en especies, gneros, familias y rdenes.
Los libros de una biblioteca en arte, literatura, ciencia, informtica y
viajes.
Sea =
1
,
2
, . . . ,
n
un conjunto nito con n elementos diferentes,
que abreviadamente indicaremos
= 1, 2, ..., n.
Clasicar es tambin denir una relacin de equivalencia sobre . Esta
relacin dene una particin sobre en m clases de equivalencia:
= c
1
+c
2
+. . . +c
m
,
donde + signica reunin disjunta. A la particin la llamaremos clustering
y a las clases de equivalencia clusters.
161
162 CAPTULO 10. CLASIFICACIN
10.2 Jerarqua indexada
Las clasicaciones pueden ser jerrquicas o no jerrquicas . Una clasicacin
jerrquica es una sucesin de clusterings tal que cada clustering se obtiene
agrupando clusters. Por ejemplo, si n = 5,
= 1 +2 +3 +4 +5
= 1, 2 +3, 4 +5
= 1, 2 +3, 4, 5
=
Denition 10.2.1 Una jerarqua indexada (C, ) sobre est formada por
una coleccin de clusters C () y un ndice tal que:
Axioma de la interseccin: Si c, c

C entonces c c

c, c

, .
Axioma de la reunin: Si c C entonces c = c

[ c

C, c

c.
La reunin de todos los clusters es el conjunto total: = c [ c C.
El ndice es una aplicacin de C sobre el conjunto de nmeros reales posi-
tivos tal que:
(i) = 0, i , (c) (c

) si c c

.
Diremos que una jerarqua es total si:
i , i C.
C.
Comentarios:
1. El primer axioma signica que si tenemos dos clusters, uno est incluido
en el otro o ambos son disjuntos, es decir, c c

, c

c, c c

= .
Se trata de evitar que un elemento de pertenezca a dos clusters
excluyentes a la vez, ya que entonces estara mal clasicado.
2. El segundo axioma signica que cada cluster es reunin de los clusters
que contiene. Es decir, reuniendo clusters obtenemos clusters ms am-
plios. Por ejemplo, en el reino animal, un gnero es reunin de especies,
una familia es reunin de gneros, etc.
10.2. JERARQUA INDEXADA 163
3. El ndice mide el grado de heterogeneidad de cada cluster. Cuanto
ms grande es el cluster ms heterogneo es.
Theorem 10.2.1 Para todo x 0 la relacin binaria
x
sobre los elementos
de
i
x
j si i, j c, siendo (c) x, (10.1)
es de equivalencia.
Demost.: La relacin
x
es:
Reexiva: i
x
i ya que i i, siendo (i) = 0 x.
Simtrica: Evidente.
Transitiva: Sea c
ij
el mnimo cluster que contiene i, j, y anlogamente
c
jk
. Entonces :
i
x
j i, j c
ij,
(c
ij
) x, j
x
k j, k c
jk,
(c
jk
) x,
c
ij
c
jk
,=
_
a) c
ij
c
jk
i, k c
jk,
b) c
jk
c
ij
i, k c
ij,
i
x
k.
La relacin (10.1) dene, para cada x 0, una particin de en clases
de equivalencia. La particin se llama clustering al nivel x.
Ejemplo. Consideremos n = 5 partidos polticos: CU (Conveniencia y
Unin), PP (Partido Pragmtico), PSC (Partido Social Cataln), IC (Ini-
ciativa Catalana) y ER (Entente Republicana). Un ejemplo (hipottico) de
jerarqua indexada sobre ={CU,PP,PSC,IC,ER} es:
C ={CU
0
,PP
0
,PSC
0
,IC
0
,ERC
0
,{CU, PP}
1
,{PSC, IC}
1.5
,{PSC, IC, ERC}
2
,
3
},
donde el ndice est indicado como un subndice: (CU)=0, (CU,PP)=1,
etc. tenemos entonces tenemos las siguientes particiones o clusterings:
Nombre del clustering
= CU +PP +PSC +IC +ER 0 (partidos)
= CU, PP +PSC, IC +ER} 1.5 (derecha, izquierda, centro)
= CU, PP +PSC, IC, ER} 2 (coaliciones)
= 3 (parlamento)
La representacin de esta clasicacin se encuentra en la Figura 10.1, que
justicamos en la seccin siguiente.
164 CAPTULO 10. CLASIFICACIN
10.3 Geometra ultramtrica
Para presentar una clasicacin utilizamos llaves. Por ejemplo, la clasi-
cacin divisiva de Nacin, Comunidades Autnomas y Provincias (slo vamos
a considerar 8) es:
Nacin Autonomas Provincias
Espa na
_

_
Aragon
_
_
_
Huesca
Teruel
Zaragoza
Catalunya
_

_
Barcelona
Gerona
Lerida
Tarragona
Madrid Madrid
Una generalizacin de las llaves es el rbol ultramtrico. Como veremos
ms adelante, una jerarqua indexada puede ser visualizada mediante un
grco sencillo e intuitivo, llamado dendograma.
Denition 10.3.1 Un espacio ultramtrico (, u) es una estructura for-
mada por un conjunto nito y una funcin distancia u sobre veri-
cando, para todo i, j, k de :
No negatividad: u(i, j) u(i, i) = 0.
Simetra: u(i, j) = u(j, i).
Propiedad ultramtrica:
u(i, j) supu(i, k), u(j, k).
La matriz U = (u(i, j)) de orden n n
U =
_
_
_
_
_
u
11
u
12
u
1n
u
21
u
22
u
2n
.
.
.
.
.
.
.
.
.
.
.
.
u
n1
u
n2
u
nn
_
_
_
_
_
u
ij
= u
ji
= u(i, j), u
ii
= 0.
es la matriz de distancias ultramtricas .
10.3. GEOMETRA ULTRAMTRICA 165
Proposition 10.3.1 Una distancia ultramtrica verica la desigualdad tri-
angular y por lo tanto es mtrica.
Demost.:
u(i, j) supu(i, k), u(j, k) u(i, k) +u(j, k).
Denition 10.3.2 Un tringulo i, j, k formado por tres elementos de
es ultramtrico si es issceles y su base es el lado ms pequeo. Es decir, si
u(i, j) es la base, entonces
u(i, j) u(i, k) = u(j, k).
Theorem 10.3.2 En un espacio ultramtrico todo tringulo es ultramtrico.
Demost.: Sea i, j, k un tringulo. Sea u(i, j) es el lado ms pequeo,
entonces:
u(i, k) supu(i, j), u(j, k) = u(j, k)
u(j, k) supu(i, j), u(i, k) = u(i, k)
=u(i, k) = u(j, k).
Denition 10.3.3 Un rbol ultramtrico (tambin llamado dendograma) es
un grafo conexo, sin ciclos con un punto llamado raiz y n puntos extremos
equidistantes de la raiz.
Una propiedad importante es que todo espacio ultramtrico (, u) se
puede dibujar mediante un dendograma, como en la Figura 10.2.
Theorem 10.3.3 Sea (, u) un espacio ultramtrico. Entonces podemos
representarlo mediante un rbol ultramtrico con extremos los elementos de
.
Demost.: Supongamos el rbol en posicin vertical. Sea u(i, j) la distancia
entre los extremos i, j medida como la mitad de la mnima longitud de las
aristas verticales que unen i con j, es decir, la distancia vertical hasta el
nudo que liga i con j. Consideremos un tringulo i, j, k y supongamos
que i, j es el lado ms pequeo. Entonces k se relaciona con i, j en un
nudo

por encima de . As u(k, i) = u(k, j) = u(i, j) + , donde 0


es la distancia vertical entre y

. Esto demuestra que i, j, k es un arbol


ultramtrico.
Hay una versin del Teorema 10.2.1 para distancias ultramtricas.
166 CAPTULO 10. CLASIFICACIN
Figura 10.1: Representacin en rbol ultramtrico (dendograma) de cinco
partidos polticos.
Theorem 10.3.4 Sea (, u) un espacio mtrico. Si u es distancia ultra-
mtrica, entonces la relacin binaria
x
sobre los elementos de
i
x
j si u(i, j) x, (10.2)
es de equivalencia para todo x 0. Recprocamente, si la relacin (10.2) es
de equivalencia para todo x 0, entonces u es distancia ultramtrica.
Demost.: Supongamos que u es ultramtrica. Entonces la relacin
x
es:
Reexiva: u(i, i) = 0 x.
Simtrica: u(i, j) = u(j, i) x.
Transitiva: Sea i, j, k un tringulo ultramtrico con base i, j. entonces
tenemos
u(i, j) u(j, k) = u(i, k) x,
que nos demuestra la transitividad.
Supongamos ahora que
x
es de equivalencia y que el tringulo i, j, k
verica:
u(i, j) u(j, k) u(i, k).
10.3. GEOMETRA ULTRAMTRICA 167
Sea x = u(j, k). Entonces u(i, j) x, u(j, k) x u(i, k) x = u(j, k)
por la transitividad de
x
. Esto demuestra que u(j, k) = u(i, k) y por lo
tanto el tringulo i, j, k es ultramtrico.
Otra propiedad importante es que juntando elementos prximos de
seguimos manteniendo la propiedad ultramtrica, y esto vale para cualquier
clustering.
Theorem 10.3.5 Supongamos que sobre los m clusters del clustering
= c
1
+c
2
+. . . +c
m
hay denida una distancia ultramtrica u. Sean c
i
, c
j
los dos clusters ms
prximos: u(c
i
, c
j
) = mnimo. Entonces uniendo c
i
con c
j
, se puede denir
una distancia ultramtrica u

sobre los m1 clusters del clustering


= c
1
+. . . +c
i
c
j
+. . . +c
m
.
Demost.: Si k ,= i, j, por la propiedad ultramtrica tenemos que u(c
k
, c
i
) =
u(c
k
, c
j
). Denimos:
u

(c
k
, c
i
c
j
) = u(c
k
, c
i
) = u(c
k
, c
j
), k ,= i, j,
u

(c
a
, c
b
) = u(c
a
, c
b
), a, b ,= i, j.
(10.3)
Consideremos el tringulo c
a
, c
b
, c
i
c
j
. Entonces:
u

(c
a
, c
b
) = u(c
a
, c
b
)
supu(c
a
, c
i
), u(c
b
, c
i
) = supu

(c
a
, c
i
c
j
), u

(c
b
, c
i
c
j
),
u

(c
a
, c
i
c
j
) = u(c
a
, c
i
)
supu(c
a
, c
b
), u(c
b
, c
i
) = supu

(c
a
, c
b
), u

(c
b
, c
i
c
j
).
Finalmente, la propiedad ultramtrica es invariante por transformaciones
montonas.
Proposition 10.3.6 Si u es distancia ultramtrica y u

= (u) es una trans-


formacin de u donde es una funcin positiva montona (creciente o de-
creciente), entonces u

es tambin distancia ultramtrica.


Demost.: Si i, j, k es un tringulo ultramtrico con base i, j y es
montona, tendremos que
u(i, j) u(i, k) = u(j, k) u

(i, j) u

(i, k) = u

(j, k).
168 CAPTULO 10. CLASIFICACIN
10.4 Algoritmo fundamental de clasicacin
A partir de un espacio ultramtrico podemos construir una jerarquia index-
ada. Nos lo permite el siguiente
Algoritmo fundamental de clasicacin
Sea (, u) un espacio ultramtrico. El fundamento de este algoritmo
consiste en el hecho de que, en virtud del Teorema 10.3.5, juntando elementos
o clusters ms prximos, conservamos la propiedad ultramtrica.
1. Comencemos con la particin:
= 1 +... +n.
2. Sean i, j los dos elementos ms prximos: u(i, j) = mnimo. Los unimos
i j = i, j
y denimos la nueva distancia ultramtrica u

(k, i, j) = u(i, k) = u(j, k), k ,= i, j,


(ver Teorema 10.3.5).
3. Consideremos la nueva particin:
= 1 +... +i, j +. . . +n
y repitamos el paso 2 hasta llegar a . En este proceso, cada vez que
unimos c
i
con c
j
tal que u(c
i
, c
j
) = mnimo, denimos el ndice
(c
i
c
j
) = u(c
i
, c
j
). (10.4)
El resultado de este proceso es una jerarqua indexada (C, ).
10.5 Equivalencia entre jerarqua indexada y
ultramtrica
Una jerarqua indexada es una estructura conjuntista. Un espacio ultra-
mtrico es una estructura geomtrica. Ambas estructuras son equivalentes.
10.6. ALGORITMOS DE CLASIFICACIN JERRQUICA 169
Theorem 10.5.1 Sea (C, ) una jerarqua indexada total sobre un conjunto
. Entonces podemos denir una distancia ultramtrica u sobre . Recproca-
mente, todo espacio ultramtrico (, u) dene una jerarqua indexada (C, ).
Demost.: A partir de (C, ) denimos la siguiente distancia
u(i, j) = (c
ij
),
donde c
ij
es el mnimo cluster (respecto a la relacin de inclusin) que con-
tiene i, j. Sea i, j, k un tringulo y sean tambin c
ik
, c
jk
los mnimos clusters
que contienen i, k, j, k respectivamente. Tenemos que
c
ik
c
jk
,=
y por tanto (axioma de la interseccin) hay dos posibilidades:
a) c
ik
c
jk
i, j, k c
jk
c
ij
c
jk
u(i, j) = (c
ij
) u(j, k) = (c
jk
)
b) c
jk
c
ik
i, j, k c
ik
c
ij
c
ik
u(i, j) = (c
ij
) u(i, k) = (c
ik
)
As pues: u(i, j) supu(i, k), u(j, k).
La posibilidad de construir una jerarqua indexada a partir de una dis-
tancia ultramtrica es una consecuencia del algoritmo fundamental de clasi-
cacin. El ndice de la jerarqua viene dado por (10.4).
Comentarios:
1. Observa la analoga entre el Teorema 10.3.5 y el algoritmo fundamental
de clasicacin.
2. Observa adems que (10.3) permite denir de manera inequvoca una
distancia entre un cluster y la unin de los dos clusters ms prximos.
Esta propiedad es la que otorga importancia a la distancia ultramtrica.
10.6 Algoritmos de clasicacin jerrquica
Supongamos que, en relacin a unas variables observables, hemos obtenido
una matriz de distancias = ((i, j)) de orden n n entre los elementos de
un conjunto :
=
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2

nn
_
_
_
_
_

ij
=
ji
= (i, j),
ii
= 0.
170 CAPTULO 10. CLASIFICACIN
Si la distancia es ultramtrica, entonces no hay ningn problema para
llevar a cabo una clasicacin construyendo una jerarqua indexada. Basta
con aplicar el algoritmo fundamental de clasicacin (Seccin 10.4). Pero
en general no cumple la propiedad ultramtrica y por lo tanto hemos de
modicar adecuadamente este algoritmo.
Algoritmo de clasicacin
Sea (, ) un espacio mtrico. El algoritmo de clasicacin se basa en el
Teorema 10.3.5, en el sentido de que juntaremos los elementos o clusters ms
prximos, y procuraremos obtener tringulos ultramtricos.
1. Comencemos con la particin:
= 1 +... +n.
2. Sean i, j los dos elementos ms prximos: (i, j) = mnimo. Los unimos
i j = i, j
y denimos la distancia de un elemento k al cluster i, j

(k, i, j) = f((i, k), (j, k)), k ,= i, j, (10.5)


donde f es una funcin adecuada.
3. Consideremos la nueva particin:
= 1 +... +i, j +. . . +n,
y repitamos el paso 2 hasta llegar a . En este proceso, cada vez que
unimos c
i
con c
j
tal que (c
i
, c
j
) = mnimo, denimos el ndice
(c
i
c
j
) =

(c
i
, c
j
). (10.6)
La funcin f en (10.5) se dene adecuadamente a n de que se cumpla
la propiedad ultramtrica. El resultado de este proceso es una jerarqua
indexada (C, ).
10.6. ALGORITMOS DE CLASIFICACIN JERRQUICA 171
10.6.1 Mtodo del mnimo
Los diferentes mtodos de clasicacin jerrquica dependen de la eleccin de
f en (10.5). Una primera eleccin conveniente de f consiste simplemente
en tomar el valor ms pequeo de los dos lados i, k, j, k del tringulo
i, j, k con base i, j, es decir:

(k, i, j) = min(i, k), (j, k), k ,= i, j. (10.7)


En otras palabras, hacemos que el tringulo
(i, j (i, k) = a (j, k),
se transforme en ultramtrico

(i, j

(i, k) =

(j, k) = a.
Ejemplo. Sea una matriz de distancias sobre = 1, 2, 3, 4, 5. El
mtodo del mnimo proporciona una jerarqua indexada (C, ) asociada a
una matriz ultramtrica U:
=
1 2 3 4 5
1 0 1 3 4 7
2 0 4 4 8
3 0 2 8
4 0 7
5 0

(1, 2) 3 4 5
(1, 2) 0 3 4 7
3 0 2 8
4 0 7
5 0

(1, 2) (3, 4) 5
(1, 2) 0 3 7
(3, 4) 0 7
5 0

(1, 2, 3, 4) 5
(1, 2, 3, 4) 0 7
5 0
C = 1
0
, . . . , 5
0
, 1, 2
1
, 3, 4
2
, 1, 2, 3, 4
3
,
7

(C, ) U =
1 2 3 4 5
1 0 1 3 3 7
2 0 3 3 7
3 0 2 7
4 0 7
5 0
El mtodo del mnimo produce una distancia ultramtrica u que goza de
la siguiente propiedad.
172 CAPTULO 10. CLASIFICACIN
Theorem 10.6.1 Sea
U = u [ u es ultrametrica, u(i, j) (i, j)
el conjunto de distancias ultramtricas ms pequeas que . Entonces la dis-
tancia ultramtrica u resultante del mtodo del mnimo es el elemento mx-
imo de U
u(i, j) u(i, j), u U, i, j .
Demost.: Sean i, j los elementos ms prximos. Entonces u(i, j) = (i, j).
La columna k (,= i, j) tendr trminos repetidos iguales a una distancia

construida tomando un mnimo. Si u es otra distancia ultramtrica,


entonces: a) si es estrictamente ms pequea es evidente que u > u. b) si
u(k

, k

) es ms grande que u(k

, k

) pero es igual a alguna , entonces la


columna k tendr elementos repetidos, y al menos uno ser superior a

.
Contradiccin.
El razonamiento es parecido si consideramos un cluster c y un elemento
k / c. Comprese con U en el ejemplo anterior. Vase tambin el Teorema
10.7.3.
A la vista de este resultado, podemos decir que u es la mejor aproximacin
a por defecto.
10.6.2 Mtodo del mximo
Una segunda eleccin razonable de f consiste en tomar el valor ms grande
de los dos lados i, k, j, k del tringulo i, j, k con base i, j, es decir:

(k, i, j) = max(i, k), (j, k), k ,= i, j. (10.8)


En otras palabras, hacemos que el tringulo
(i, j (i, k) (j, k) = b,
se convierta en ultramtrico

(i, j

(i, k) =

(j, k) = b.
El mtodo del mximo produce una distancia ultramtrica u que goza de
la siguiente propiedad.
10.6. ALGORITMOS DE CLASIFICACIN JERRQUICA 173
Theorem 10.6.2 Sea
U = u [ u es ultrametrica, u(i, j) (i, j)
el conjunto de distancias ultramtricas ms grandes que . Entonces la distan-
cia ultramtrica u resultante del mtodo del mximo es un elemento minimal
de U
u(i, j) u(i, j), u U, i, j .
As u es la mejor aproximacin a por exceso.
Comentarios:
1. Las distancias u, u, y verican:
u(i, j) (i, j) u(i, j).
Hay igualdad u = = u si y slo si es ultramtrica.
2. u es elemento mximo y es nico. El mtodo del mnimo slo tiene una
solucin.
3. u es elemento minimal y no es nico. El mtodo del mximo puede
tener varias soluciones.
4. Si todos los elementos fuera de la diagonal de la matriz de distancias
son diferentes, entonces la solucin aplicando el mtodo del mximo
es nica y por tanto u es elemento mnimo .
Finalmente, una notable propiedad de los mtodos del mnimo (tambin
conocido como single linkage) y del mximo (complete linkage) es que con-
servan la ordenacin de la distancia , en el sentido de la Proposicin 10.3.6.
Theorem 10.6.3 Los mtodos del mnimo y del mximo son invariantes por
transformaciones montonas de la distancia :

= () u

= (u)
donde u, u

son las ultramtricas asociadas a ,

y es una funcin mon-


tona positiva.
Demost.: En el proceso de encontar la ultramtrica slo intervienen los rangos
de los valores de , que son los mismos que los rangos de los valores de

.
174 CAPTULO 10. CLASIFICACIN
10.7 Otras propiedades del mtodo del mn-
imo
Una propiedad de la distancia ultramtrica dice que todo elemento de una
bola es tambin centro de la propia bola.
Proposition 10.7.1 Sea B(i
0
, r) una bola cerrada de centro i
0
y radio r :
B(i
0
, r) = i [ u(i
0
, i) r.
Entonces
i B(i
0
, r) verifica B(i, r) = B(i
0
, r).
La demostracin es inmediata. Tambin se verica:
Proposition 10.7.2 Sea i
1
, . . . , i
m
. Se cumple la desigualdad
u(i
1
, i
m
) supu(i

, i
+1
)[ = 1, . . . , m1.
Demost.: Por recurrencia sobre m. Para m = 2 es la desigualdad ultra-
mtrica. Supongamos cierto para m1. Tenemos:
u(i
1
, i
m
) supu(i
1
, i
m1
), u(i
m1
, i
m
)
supsupu(i

, i
+1
)[ = 1, . . . , m2, u(i
m1
, i
m
)
supu(i

, i
+1
)[ = 1, . . . , m1.
Sea ahora = 1, 2, . . . , n y una distancia sobre .
Denition 10.7.1 Una cadena [i, j]
m
es el conjunto i = i
1
, i
2
, . . . , j = i
m
.
Denition 10.7.2 Indiquemos
sup[i, j]
m
= sup
1m
(i

, i
+1
)
el mximo salto de la cadena [i, j]
m
. Denimos la distancia sobre
u(i, j) = inf
m
sup[i, j]
m
Theorem 10.7.3 Se verica:
10.8. UN EJEMPLO 175
1. u es una ultramtrica tal que u .
2. Si u es otra ultramtrica tal que u entonces u u.
3. u es la ultramtrica que se obtiene por el mtodo del mnimo.
Demost.: [i, j]
2
= i, j es una cadena que une i, j y por lo tanto
u(i, j) sup[i, j]
2
Sea [i, j, k] una cadena que une i, j pero que contiene k. El conjunto de
las cadenas [i, j, k] est contenido en el conjunto de las cadenas [i, j]. Por lo
tanto:
inf
m
sup[i, j]
m
inf
m

sup[i, k, j]
m
(10.9)
Por otra parte, dadas las cadenas [i, j], [j, k] podemos construir
[i, k, j] = [i, j] [j, k]
de modo que
sup[i, k, j] = supsup[i, j], sup[j, k]
Teniendo en cuenta (10.9) deducimos que
u(i, j) supu(i, k), u(j, k)
Sea ahora u . Aplicando la Proposicin 10.7.2
u(i, j) sup
1m
u(i

, i
+1
) sup[i, j]
m
Por lo tanto
u(i, j) inf
m
sup[i, j]
m
= u(i, j).
Conviene comparar este resultado con el Teorema 10.6.1.
10.8 Un ejemplo
Un grupo de n = 11 profesores de probabilidades y estadstica de la Uni-
versidad de Barcelona han publicado, entre 1994 y 2000, unos 150 artculos
176 CAPTULO 10. CLASIFICACIN
internacionales, algunos en colaboracin. Con la nalidad de agrupar los pro-
fesores segn los artculos que publicaron juntos, consideramos el coeciente
de similaridad
s(i, j) = nmero de artculos que i, j han publicado juntos.
Denimos entonces la distancia
d(i, j) = 1 s(i, j)/ mins(i, i), s(j, j).
Obtenemos la matriz de distancias:
Are Cor Cua For Mar Nua Oli Oll Rov San Sar
Arenas 0
Corcuera 1 0
Cuadras 0.50 1 0
Fortiana 0.83 1 0.06 0
Marquez 1 1 1 1 0
Nualart 1 1 1 1 1 0
Oliva 1 1 0.33 0.33 1 1 0
Oller 1 0.75 1 1 1 1 1 0
Rovira 1 1 1 1 1 1 1 1 0
Sanz 1 1 1 1 0.33 0.93 1 1 0.11 0
Sarra 1 1 1 1 0.75 1 1 1 1 0.25 0
Aplicando un anlisis cluster, mtodo del mnimo, a esta matriz, obten-
emos el dendograma de la Figura 10.2. Este dendograma pone de maniesto
que hay tres grupos principales con 4, 2 y 5 profesores, que trabajan en anli-
sis multivariante (AM), estadstica matemtica (EM) y anlisis estocstico
(AE), respectivamente.
10.9 Clasicacin no jerrquica
Una clasicacin no jerrquica de n objetos en relacin a una matriz de
datos cuantitativos X, consiste en obtener g grupos homogneos y excluyentes
(clusters). Si tenemos g clusters, estamos en la misma situacin contemplada
en el Cap. 7, y podemos considerar la descomposicin de la variabilidad total
T = B+ W
10.9. CLASIFICACIN NO JERRQUICA 177
Figura 10.2: Representacin que agrupa 11 profesores segn los artculos
publicados conjuntamente.
Una particin en g clusters que hace mxima B o mnima W, en relacin
a algn criterio, dar una solucin al problema, puesto que tendremos una
mxima dispersin entre clusters. Algunos criterios, justicados por el anli-
sis multivariante de la varianza, son:
a) Minimizar tr(W)
b) Minimizar [W[.
c) Minimizar = [W[/[T[.
d) Maximizar tr(W
1
B).
Pero la cantidad de maneras diferentes de agrupar n objetos en g clusters
es del orden de g
n
/g!, nmero muy grande incluso para valores moderados
de n y g (necesitaramos formar ms de 10
23
clusters si n = 50, g = 3). Por
tanto, es necesario seguir algn algoritmo de agrupacin.
El mtodo de las medias mviles consiste en:
1. Comenzar con g puntos del espacio R
p
y asignar los objetos a g clus-
ters de acuerdo con la proximidad (distancia eucldea) a los g puntos
iniciales.
178 CAPTULO 10. CLASIFICACIN
2. Calcular los centroides de los g clusters obtenidos y reasignar los objetos
segn su proximidad al centroide de cada cluster.
3. Repetir el paso anterior, calculando cada vez la cantidad [W[ (o el
criterio de optimizacin escogido). Parar cuando [W[ ya no disminuye.
Es posible probar que la suma de cuadrados de las distancias eucldeas
de los puntos de cada cluster al centroide
g

k=1
n

i=1
d
2
(x
ki
, x
k
)
disminuye a cada paso.
10.10 Nmero de clusters
Diversos autores (Calinski, Harabasz, Hartigan, Krzanowski, Lai) han prop-
uesto mtodos para estimar el nmero de clusters de una clasicacin. Es
ste un tema abordado desde muchas perspectivas (vase Gordon, 1999).
Normalmente el usuario determina el nmero k de clusters. Un primer
criterio consiste en tomar el valor k tal que maximice la cantidad
cl
1
(k) =
tr(B(k))
g 1
/
tr(W(k))
n g
,
donde B(k), W(k) indican las matrices entre-grupos y dentro-grupos para k
grupos. Otro criterio considera
dif(k) = (k 1)
2/p
W(k 1) k
2/p
W(k)
y elige k tal que maximiza
cl
2
(k) = dif(k)/dif(k + 1).
Pero cl
1
i cl
2
no estan denidos para k = 1. Un tercer criterio propone el
estadstico
H(k) = (
W(k)
W(k + 1)
1)/(n k 1),
empieza con k = 1 y aumenta k si H(k) crece signicativamente de acuerdo
con una aproximacin a la distribucin F.
10.11. COMPLEMENTOS 179
Tibshirani et al. (2001) proponen un mtodo que contempla tambin el
caso k = 1. Partiendo del resultado de cualquier clasicacin, jerrquica o
no, comparan el cambio de W(k) respecto al cambio esperado para a una
distribucin apropiada de referencia
E(log [W(k)[) log [W(k)[.
10.11 Complementos
La historia de la clasicacin comienza con la sistemtica de Carl von Linn,
que permita clasicar animales y plantas segn gnero y especie. La clasi-
cacin moderna (denominada taxonoma numrica) se inicia en 1957 con
la necesidad de proponer criterios objetivos de clasicacin (Sokal, Sneath,
Michener). Posteriormente, diversos autores relacionaron las clasicaciones
jerrquicas con los espacios ultramtricos (Benzecri, Jardine, Sibson, John-
son), dado que la propiedad ultramtrica ya era conocida en otros campos
de la matemtica.
Una crtica que se ha hecho al anlisis cluster es el excesivo repertorio
de distancias y mtodos de clasicacin. Incluso se han realizado clasica-
ciones de las propias maneras de clasicar, y clasicaciones jerrquicas de las
distancias. Tambin se ha argumentado (Flury, 1997) que el planteamiento
correcto del anlisis cluster consiste en encontrar mixturas
f(x) =p
1
f
1
(x) +. . . +p
g
f
g
(x),
donde cada densidad f
i
representara un cluster y f la densidad de los datos
que hemos observado. Pero si una distancia mide razonablemente las difer-
encias entre los objetos, entonces se pueden obtener clasicaciones objetivas
aplicando anlisis cluster jerrquico. Por ejemplo, en el ao 1999 se realiz la
clasicacin jerrquica del reino vegetal a partir de distancias entre secuen-
cias de DNA, obteniendo una concordancia de un 60% con la clasicacin
tradicional basada en la similitud morfolgica de las plantas.
J. C. Gower conjetur y Holman (1972) prob, que toda distancia ul-
tramtrica era eucldea con dimensin n 1. Entonces interes estudiar la
relacin entre representaciones en rbol y en coordenadas (Bock, Crithcley,
Heiser, Kruskal). Critchley y Heiser (1988) probaron que, a pesar del resul-
tado de Holman, es posible representar un espacio ultramtrico con una sola
180 CAPTULO 10. CLASIFICACIN
dimensin utilizando una mtrica adecuada. Un estudio de los vectores pro-
pios y las dimensiones principales de una matriz de distancias ultramtricas
es debido a Cuadras y Oller (1987). Ver Cuadras et al. (1996).
N. Jardine y R. Simpson propusieron el mtodo de clasicacin denomi-
nado exible, que consiste en denir la distancia de un cluster a la unin de
dos clusters en funcin de unos parmetros, por ejemplo, inicialmente

(k, i, j) =
i
(i, k) +
j
(j, k) +(i, j) +[(i, k) (j, k)[,
y anlogamente en los siguientes pasos. Dando valores a los parmetros se
obtienen los mtodos siguientes (se incluye denominacin estndar):
Criterio de agrupacin
i

j

Mnimo (single linkage) 1/2 1/2 0 1/2
Mximo (complete linkage) 1/2 1/2 0 +1/2
Media (weighted average link) 1/2 1/2 0 0
UPGMA (group average link) n
i
/(n
i
+n
j
) n
j
/(n
i
+n
j
) 0 0
UPGMA (Unweighted pair group method using arithmetic averages) es un
mtodo recomendable porque proporciona una clasicacin que se ajusta bien
a la distancia inicial en el sentido de los mnimos cuadrados.
G.H. Ball, D.J. Hall, E. Diday y otros propusieron algoritmos ecientes
de agrupacin no jerrquica. Consltese Everitt (1993).
Captulo 11
ANALISIS DISCRIMINANTE
11.1 Introduccin
Sean
1
,
2
dos poblaciones, X
1
, ...,X
p
variables observables, x =(x
1
, ..., x
p
)
las observaciones de las variables sobre un individuo . El problema es
asignar a una de las dos poblaciones. Este problema aparece en muchas
situaciones: decidir si se puede conceder un crdito; determinar si un tumor
es benigno o maligno; identicar la especie a que pertenece una planta.
Una regla discriminante es un criterio que permite asignar , y que a
menudo es planteado mediante una funcin discriminante D(x
1
, ..., x
p
). En-
tonces la regla de clasicacin es
Si D(x
1
, ..., x
p
) 0 asignamos a
1
,
en caso contrario asignamos a
2
.
Esta regla divide R
p
en dos regiones
R
1
= x[D(x) > 0, R
2
= x[D(x) < 0.
En la decisin de clasicar, nos equivocaremos si asignamos a una poblacin
a la que no pertenece. La probabilidad de clasicacin errnea (pce) es
pce = P(R
2
/
1
)P(
1
) +P(R
1
/
2
)P(
2
). (11.1)
181
182 CAPTULO 11. ANALISIS DISCRIMINANTE
11.2 Clasicacin en dos poblaciones
11.2.1 Discriminador lineal
Sean
1
,
2
los vectoros de medias de las variables en
1
,
2
, respectivamente,
y supongamos que la matriz de covarianzas es comn. Las distancias de
Mahalanobis de las observaciones x =(x
1
, . . . , x
p
)

de un individuo a las
poblaciones son
M
2
(x,
i
) = (x
i
)

1
(x
i
), i = 1, 2.
Un primer criterio de clasicacin consiste en asignar a la poblacin ms
prxima:
Si M
2
(x,
1
) < M
2
(x,
2
) asignamos a
1
,
en caso contrario asignamos a
2
.
(11.2)
Expresando esta regla como una funcin discriminante, tenemos:
M
2
(x,
2
) M
2
(x,
1
) = x

1
x+
2

2
2x

2
x

1
x
1

1
+ 2x

1
= (
2

1
)

1
(
2
+
1
) + 2x

1
(
1

2
)
Denimos la funcin discriminante
L(x) =
_
x
1
2
(
1
+
2
)
_

1
(
1

2
) . (11.3)
Tenemos que
M
2
(x,
2
) M
2
(x,
1
) = 2L(x)L((
1
+
2
) /2)
y la regla (11.2) es
Si L(x) >0 asignamos a
1
,
en caso contrario asignamos a
2
.
La funcin lineal (11.3) es el discriminador lineal de Fisher.
11.2. CLASIFICACIN EN DOS POBLACIONES 183
11.2.2 Regla de la mxima verosimilitud
Supongamos que f
1
(x) , f
2
(x) son las densidades de x en
1
,
2
. Una regla
de clasicacin consiste en asignar a la poblacin donde la verosimilitud
de las observaciones x es ms grande:
Si f
1
(x) >f
2
(x) asignamos a
1
,
en caso contrario asignamos a
2
.
La funcin discriminante es
V (x) = log f
1
(x) log f
2
(x) .
11.2.3 Regla de Bayes
En ciertas situaciones, se conocen las probabilidades a priori de que pertenezca
a cada una de las poblaciones
q
1
= P (
1
) , q
2
= P (
2
) , q
1
+q
2
= 1.
Una vez que se dispone de las observaciones x =(x
1
, . . . , x
p
), las probabili-
dades a posteriori de que pertenezca a las poblaciones (teorema de Bayes)
son
P(
i
/x) =
q
i
f
i
(x)
q
1
f
1
(x) +q
2
f
2
(x)
, i = 1, 2.
La regla de clasicacin de Bayes es
Si P(
1
/x) >P(
2
/x) asignamos a
1
,
en caso contrario asignamos a
2
.
El discriminador de Bayes es
B(x) = log f
1
(x) log f
2
(x) + log (q
1
/q
2
) .
Cuando q
1
= q
2
= 1/2, entonces B(x) = V (x) . Este discriminador es p-
timo.
Theorem 11.2.1 La regla de Bayes minimiza la probabilidad de clasicacin
errnea.
184 CAPTULO 11. ANALISIS DISCRIMINANTE
Demost.: Supongamos que se dispone de otra regla que clasica a
1
si x R

1
, y a
2
si x R

2
, donde R

1
, R

2
son regiones complementarias del
espacio muestral. Indicando dx =dx
1
dx
p
. La probabilidad de clasicacin
errnea es
pce

= q
1
_
R

2
f
1
(x)dx+q
2
_
R

1
f
2
(x)dx
=
_
R

2
(q
1
f
1
(x)q
2
f
2
(x))dx+q
2
(
_
R
2
f
2
(x)dx+
_
R

1
f
2
(x)dx)
=
_
R

2
(q
1
f
1
(x)q
2
f
2
(x))dx+q
2
.
Esta ltima integral es mnima si R

2
incluye todas las x tal que q
1
f
1
(x)q
2
f
2
(x) <
y excluye toda las x tal que q
1
f
1
(x)q
2
f
2
(x) >0. Por tanto pce

es mnima
si R

2
= R
2
, donde R
2
= x[B(x) <0.
11.3 Clasicacin en poblaciones normales
Supongamos ahora que la distribucin de X
1
, ...,X
p
en
1
es N
p
(
1
,
1
) y en

2
es N
p
(
2
,
2
), es decir,
f
i
(x) = (2)
p/2

1
i

1/2
exp
1
2
(x
i
)

1
i
(x
i
).
11.3.1 Clasicador lineal
Si suponemos
1
,=
2
,
1
=
2
= , entonces
V (x) =
1
2
(x
1
)

1
(x
1
) +
1
2
(x
2
)

1
(x
2
)
= L(x)
y por tanto los discriminadores mximo verosmil y lineal, el segundo basado
en el criterio de la mnima distancia, coinciden.
Sea la distancia de Mahalanobis entre las dos poblaciones
= (
1

2
)

1
(
1

2
).
Si suponemos que x proviene de N
p
(
2
, ), de x
1
= x
2
+
2

1
, y de
E(x
2
)(x
2
)

= , (x
2
)

1
(x
2
)
2
p
, tenemos que la esperanza
de U = (x
1
)

1
(x
1
) es
E(U) =E[(x
2
)

1
(x
2
) + + 2(x
2
)

1
(
2

1
)] = p +,
11.3. CLASIFICACIN EN POBLACIONES NORMALES 185
y la varianza de V = (x
2
)

1
(x
2
) es la misma que la de L(x) y es
var(V ) = E((
2

1
)

1
(x
2
)(x
2
)

1
(
2

1
)) = .
Entonces encontramos fcilmente la distribucin de la funcin discriminante
L(x) :
L(x) es N(+
1
2
, ) si x proviene de N
p
(
1
, ),
L(x) es N(
1
2
, ) si x proviene de N
p
(
2
, ).
(11.4)
11.3.2 Regla de Bayes
Si suponemos
1
,=
2
,
1
=
2
= , y conocemos las probabilidades a priori
q
1
= P (
1
) , q
2
= P (
2
) , entonces es fcil ver que
B(x) =L(x)+log(q
1
/q
2
),
y la funcin discriminante de Bayes es el discriminador lineal ms la constante
log(q
1
/q
2
).
11.3.3 Probabilidad de clasicacin errnea
La probabilidad de asignar x a
2
cuando proviene de N
p
(
1
, ) es
P(L(x) <0[
1
) = P((L(x)
1
2
)/

) = (
1
2

),
donde (z) es la funcin de distribucin N(0, 1). La probabilidad de clasi-
cacin errnea es
pce = q
1
P(L(x) <0[
1
) +q
2
P(L(x) >0[
2
) = (
1
2

).
Por tanto pce es una funcin decreciente de la distancia de Mahalanobis
entre las dos poblaciones.
11.3.4 Discriminador cuadrtico
Supongamos
1
,=
2
,
1
,=
2
. Entonces el criterio de la mxima verosimili-
tud proporciona el discriminador
Q(x) =
1
2
x

1
2

1
1
_
x +x

1
1

1

1
2

2
_
+
1
2

1
2

2

1
2

1
1

1
+
1
2
log [
2
[
1
2
log [
1
[
186 CAPTULO 11. ANALISIS DISCRIMINANTE
Q(x) es el discriminador cuadrtico. Anlogamente podemos obtener el dis-
criminador cuadrtico de Bayes
B(x) =Q(x) + log(q
1
/q
2
).
11.3.5 Clasicacin cuando los parmetros son estima-
dos
En las aplicaciones prcticas,
1
,
2
,
1
,
2
son desconocidos y se debern
estimar a partir de muestras de tamaos n
1
, n
2
de las dos poblaciones susti-
tuyendo
1
,
2
por los vectores de medias x
1
, x
2
, y
1
,
2
por las matrices de
covarianzas S
1
, S
2
. Si utilizamos el estimador lineal, entonces la estimacin
de ser
S =(n
1
S
1
+n
2
S
2
)/(n
1
+n
2
)
y la versin muestral del discriminador lineal es

L(x) = [x
1
2
(x
1
+x
2
)]

S
1
(x
1
x
2
) .
La distribucin muestral de

L(x) es bastante complicada, pero la distribucin


asinttica es normal:

L(x) es N(+
1
2
, ) si x proviene de N
p
(
1
, ),

L(x) es N(
1
2
,
1
2
) si x proviene de N
p
(
2
, ),
donde = (x
1
x
2
)

S
1
(x
1
x
2
) .
11.3.6 Un ejemplo
Example 11.3.1
Mytilicola intestinalis es un coppodo parsito del mejilln, que en estado
larval presenta diferentes estadios de crecimiento. El primer estadio (Nauplis)
y el segundo estadio (Metanauplius) son difciles de distinguir.
Sobre una muestra de n
1
= 76 y n
2
= 91 coppodos que se pudieron iden-
ticar al microscopio como del primero y segundo estadio respectivamente,
se midieron las variables
l = longitud, a = anchura,
11.3. CLASIFICACIN EN POBLACIONES NORMALES 187
Figura 11.1: Discriminadores lineal y cuadrtico en la clasicacin de coppo-
dos. La lnea recta es el conjunto de puntos tales que L = 0. La parbola es
el conjunto de puntos tales que Q = 0.
y se obtuvieron las siguientes medias y matrices de covarianzas:
Estadio-1
x
1
= ( 219.5 138.1 )
S
1
=
_
409.9 1.316
1.316 306.2
_
Estadio-2
x
2
= ( 241.6 147.8 )
S
2
=
_
210.9 57.97
57.97 152.8
_
Discriminador lineal
La estimacin de la matriz de covarianzas comn es
S = (n
1
S
1
+n
2
S
2
)/(n
1
+n
2
) =
_
301.4 31.02
31.02 22.6
_
El discriminador lineal es:
L(l, a) = ((l, a) (461.1, 285.9) /2)
_
301.4 31.02
31.02 222.6
_
1
_
22.1
9.7
_
= 0.069l 0.038a + 20.94
188 CAPTULO 11. ANALISIS DISCRIMINANTE
La tabla de clasicaciones es:
Estadio asignado
1 2
Estadio 1 61 15
original 2 21 70
Discriminador de Bayes
Una larva, desde que eclosiona est 4 horas en el estadio 1 y 8 horas en
el estadio 2. Al cabo de 12 horas, la larva pasa a un estadio fcilmente
identicable. Por tanto, una larva tiene, a priori, una probabilidad 4/12 =
1/3 de pertenecer al estadio 1 y una probabilidad 8/12 = 2/3 de pertenecer
al estadio 2. As q
1
= 1/3, q
2
= 2/3, y el discriminador de Bayes es
B(l, a) = V (l, a) + log(1/2) = 0.069l 0.038a + 20.24
Probabilidad de clasicacin errnea
Una estimacin de la distancia de Mahalanobis es
_
22.1 9.7
_
_
301.4 31.02
31.02 22.6
_
1
_
22.1
9.7
_
= 4.461.
La probabilidad de asignar una larva al estadio 1 cuando corresponde al
estadio 2 o al estadio 2 cuando corresponde al estadio 1 es
pce = (
1
2

4.461) = 0.145.
Discriminador cuadrtico
El test de homogeneidad de covarianzas nos da:

2
= [1
13
18
(
1
75
+
1
90

1
165
)](1835.4 882.5 926. 32) = 26.22
con 3 g.l. Las diferencias entre las matrices de covarianzas son signicati-
vas. Por tanto, el discriminador cuadrtico puede resultar ms apropiado.
Efectuando clculos se obtiene:
Q(l, a) = 0.0014l
2
+ 0.002a
2
0.002al 0.445l 0.141a + 72.36
11.4. DISCRIMINACIN EN EL CASO DE K POBLACIONES 189
Con el clasicador cuadrtico se han clasicado bien 2 individuos ms (Fig.
11.1):
Estadio asignado
1 2
Estadio 1 59 17
original 2 17 74
11.4 Discriminacin en el caso de k pobla-
ciones
Supongamos ahora que el individuo puede provenir de k poblaciones
1
,
2
,
. . . ,
k
, donde k 3. Es necesario establecer una regla que permita asig-
nar a una de las k poblaciones sobre la base de las observaciones x =
(x
1
, x
2
, . . . , x
p
)

de p variables.
11.4.1 Discriminadores lineales
Supongamos que la media de las variables en
i
es
i
, y que la matriz de
covarianzas es comn. Si consideramos las distancias de Mahalanobis de
a las poblaciones
M
2
(x,
i
) = (x
i
)

1
(x
i
), i = 1, , k,
un criterio de clasicacin consiste en asignar a la poblacin ms prxima:
Si M
2
(x,
i
) = minM
2
(x,
1
), , M
2
(x,
k
), asignamos a
i
. (11.5)
Introduciendo las funciones discriminantes lineales
L
ij
(x) =
_

j
_

1
x
1
2
_

j
_

1
_

i
+
j
_
es fcil probar que (11.5) equivale a
Si L
ij
(x) > 0 para todo j ,= i, asignamos a
i
.
Adems las funciones L
ij
(x) verican:
1. L
ij
(x) =
1
2
[M
2
(x,
j
) M
2
(x,
i
)].
2. L
ij
(x) = L
ji
(x) .
3. L
rs
(x) = L
is
(x) L
ir
(x) .
Es decir, slo necesitamos conocer k 1 funciones discriminantes.
190 CAPTULO 11. ANALISIS DISCRIMINANTE
11.4.2 Regla de la mxima verosimilitud
Sea f
i
(x) la funcin de densidad de x en la poblacin
i
. Podemos obtener
una regla de clasicacin asignando a la poblacin donde la verosimilitud
es ms grande:
Si f
i
(x) = maxf
1
(x), , f
k
(x), asignamos a
i
.
Este criterio es ms general que el geomtrico y est asociado a las funciones
discriminantes
V
ij
(x) = log f
i
(x) log f
j
(x).
En el caso de normalidad multivariante y matriz de covarianzas comn, se
verica V
ij
(x) = L
ij
(x), y los discriminadores mximo verosmiles coinciden
con los lineales. Pero si las matrices de covarianzas son diferentes
1
, . . . ,
k
,
entonces este criterio dar lugar a los discriminadores cuadrticos
Q
ij
(x) =
1
2
x

1
j

1
i
_
x +x

1
i

1

1
j

2
_
+
1
2

1
j

j

1
2

1
i

i
+
1
2
log [
j
[
1
2
log [
i
[ .
11.4.3 Regla de Bayes
Si adems de las funciones de densidad f
i
(x), se conocen las probabilidades
a priori
q
1
= P (
1
) , . . . , q
k
= P (
k
) ,
la regla de Bayes que asigna a la poblacin tal que la probabilidad a
posteriori es mxima
Si q
i
f
i
(x) = maxq
1
f
1
(x), , q
k
f
k
(x), asignamos a
i
,
est asociada a las funciones discriminantes
B
ij
(x) = log f
i
(x) log f
j
(x) + log(q
i
/q
j
).
Finalmente, si P(j/i) es la probabilidad de asignar a
j
cuando en realidad
es de
i
, la probabilidad de clasicacin errnea es
pce =
k

i=1
q
i
(
k

j=i
P(j/i)),
y se demuestra que la regla de Bayes minimiza esta pce.
11.4. DISCRIMINACIN EN EL CASO DE K POBLACIONES 191
11.4.4 Un ejemplo clsico
Continuando con el ejemplo 3.6.2, queremos clasicar a una de las 3 especies
una or de medidas
x
1
=6.8 x
2
=2.8 x
3
=4.8 x
4
=1.4
La matriz de covarianzas comn es
S =
_
_
_
_
.2650 .0927 .1675 .0384
.1154 .05524 .0327
.18519 .0426
.0418
_
_
_
_
Las distancies de Mahalanobis (al cuadrado) entre las 3 poblaciones son:
Setosa Versicolor Virginica
Setosa 0 89.864 179.38
Versicolor 0 17.201
Virginica 0
Los discriminadores lineales son:
L
12
(x) =
1
2
[M
2
(x, x
2
) M
2
(x, x
1
)] ,
L
13
(x) =
1
2
[M
2
(x, x
3
) M
2
(x, x
1
)] ,
L
23
(x) = L
13
(x) L
12
(x), L
21
(x) = L
12
(x),
L
31
(x) = L
13
(x), L
32
(x) = L
23
(x).
La regla de decisin consiste en asignar el individuo x a la poblacin i si
L
ij
(x) > 0 j ,= i.
Se obtiene:
Individuo L
12
L
13
L
21
L
23
L
31
L
32
Poblacin
x -51.107 -44.759 51.107 6.3484 44.759 -6.3484 2
Por lo tanto clasicamos la or a la especie I. Versicolor.
Para estimar la probabilidad de clasicacin errnea pce podemos omitir
una vez cada individuo, clasicarlo a partir de los dems y observar si sale
bien clasicado (mtodo leaving-one-out). El resultado de este proceso da:
192 CAPTULO 11. ANALISIS DISCRIMINANTE
Poblacin asignada
1 2 3
Poblacin 1 50 0 0
original 2 0 48 2
3 0 1 49
Slo hay 3 individuos mal clasicados y la pce estimada es 3/150 = 0.02.
11.5 Anlisis discriminante basado en distan-
cias
Los mtodos que hemos descripto funcionan bien con variables cuantitativas
o cuando se conoce la densidad. Pero a menudo las variables son binarias,
categricas o mixtas. Aplicando el principio de que siempre es posible denir
una distancia entre observaciones, es posible dar una versin del anlisis
discriminante utilizando solamente distancias.
11.5.1 La funcin de proximidad
Sea una poblacin, Xun vector aleatorio con valores en E R
p
y densidad
f (x
1
, ..., x
p
) . Sea una funcin de distancia entre las observaciones de X.
Denimos la variabilidad geomtrica como la cantidad
V

(X) =
1
2
_
E

2
(x, y) f(x)f(y)dxdy
V

(X) es el valor esperado de las distancias (al cuadrado) entre observaciones


independientes de X.
Sea un individuo de , y x =(x
1
, ..., x
p
)

las observaciones de X sobre


. Denimos la funcin de proximidad de a en relacin con X como la
funcin

(x) = E
_

2
(x, X)

(X) =
_
E

2
(x, t)f(t)dtV

(X) . (11.6)

(x) es la media de las distancias de x, que es ja, a t, que vara aleatori-


amente, menos la variabilidad geomtrica.
11.5. ANLISIS DISCRIMINANTE BASADO EN DISTANCIAS 193
Theorem 11.5.1 Supongamos que existe una representacin de (E, ) en
un espacio L (Eucldeo o de Hilbert)
(E, ) L
con un producto escalar < ., . > y una norma |z|
2
=< z, z >, tal que

2
(x, y) = | (x) (y)|
2
,
donde (x) , (y) L son las imgenes de x, y. Se verica:
V

(X) = E(| (X)|


2
) |E( (X))|
2
.

2

(x) = | (x) E( (X))|


2
.
En consecuencia, podemos armar que la variabilidad geomtrica es una
varianza generalizada, y que la funcin de proximidad mide la distancia de
un individuo a la poblacin.
11.5.2 La regla discriminante DB
Sean
1
,
2
dos poblaciones, una funcin distancia. es formalmente la
misma en cada poblacin, pero puede tener diferentes versiones
1
,
2
, cuando
estemos en
1
,
2
, respectivamente. Por ejemplo, si las poblaciones son nor-
males N
p
(
i
,
i
) , i = 1, 2, y consideramos las distancias de Mahalanobis

2
i
(x, y) = (x y)

1
i
(x y) , i = 1, 2,
lo nico que cambia es la matriz . Debe quedar claro que depende del
vector aleatorio X, que en general tendr diferente distribucin en
1
y
2
.
Seguidamente, mediante (11.6), encontraremos las funciones de proxim-
idad
2
1
,
2
2
, correspondientes a
1
,
2
. Sea un individuo que queremos
clasicar, con valores x = X().
La regla de clasicacin DB (distance-based) es:
Si
2
1
(x)
2
2
(x) asignamos a
1
,
en caso contrario asignamos a
2
.
Teniendo en cuenta el Teorema 11.5.1, se cumple

2
i
(x) = | (x) E

i
( (X))|
2
, i = 1, 2,
y por tanto la regla DB asigna a la poblacin ms prxima. La regla DB
solamente depende de las distancias entre individuos.
194 CAPTULO 11. ANALISIS DISCRIMINANTE
11.5.3 La regla DB comparada con otras
Los discriminadores lineal y cuadrtico son casos particulares de la regla DB.
1. Si las poblaciones son N
p
(
1
,
1
) , N
p
(
2
,
2
) y
2
es la distancia de
Mahalanobis entre observaciones
2
(x, y) = (x y)

1
(x y) , en-
tonces las funciones de proximidad son

2
i
(x) = (x
i
)

1
(x
i
)
y el discriminador lineal es
L(x) =
1
2
_

2
2
(x)
2
1
(x)

.
2. Si las poblaciones son N
p
(
1
,
1
) , N
p
(
2
,
2
) y
2
i
es la distancia de
Mahalanobis ms una constante

2
i
(x, y) = (x y)

1
i
(x y) + log [
i
[ /2 x ,= y,
= 0 x = y,
entonces el discriminador cuadrtico es
Q(x) =
1
2
_

2
2
(x)
2
1
(x)

.
3. Si es la distancia eucldea ordinaria entre observaciones, la regla DB
equivale a utilizar el discriminador
E (x) = [x
1
2
(
1
+
2
)]

(
1

2
) ,
conocido como discriminador Eucldeo. E (x) es til en determinadas
circunstancias, por ejemplo, cuando la cantidad de variables es grande
en relacin al nmero de individuos, pues tiene la ventaja sobre L(x)
de que no necesita calcular la inversa de .
11.5.4 La regla DB en el caso de muestras
En las aplicaciones prcticas, no se dispone de las densidades f
1
(x), f
2
(x),
sino de dos muestras de tamaos n
1
, n
2
de las variables X =(X
1
, ..., X
p
) en
las poblaciones
1
,
2
. Sea
1
= (
ij
(1)) la matriz n
1
n
1
de distancias
11.5. ANLISIS DISCRIMINANTE BASADO EN DISTANCIAS 195
entre las muestras de la primera poblacin, y
2
= (
ij
(2)) la matriz n
2
n
2
de distancias entre las muestras de la segunda poblacin. Indicamos (las
representaciones Eucldeas de las muestras) por
x
1
, x
2
, ..., x
n
1
muestra de
1
,
y
1
, y
2
, ..., y
n
2
muestra de
2
,
(11.7)
es decir,
ij
(1) =
E
(x
i
, x
j
),
ij
(2) =
E
(y
i
, y
j
).
Las estimaciones de las variabilidades geomtricas son:

V
1
=
1
2n
2
1
n
1

i,j=1

2
ij
(1) ,

V
2
=
1
2n
2
2
n
2

i,j=1

2
ij
(2).
Sea un individuo,
i
(1), i = 1, . . . , n
1
, las distancias a los n
1
individuos
de
1
y
i
(2), i = 1, . . . , n
2
, las distancias a los n
2
individuos de
2
. Si x son
las coordenadas (convencionales) de cuando suponemos que es de
1
, y
anlogamente y, las estimaciones de las funciones de proximidad son

2
1
(x) =
1
n
1
n
1

i=1

2
i
(1)

V
1
,

2
2
(y) =
1
n
2
n
2

i=1

2
i
(2)

V
2
.
La regla DB en el caso de muestras es
Si

2
1
(x)

2
2
(y) asignamos a
1
,
en caso contrario asignamos a
2
.
Esta regla solamente depende de distancias entre observaciones y es preciso
insistir en que el conocimiento de x, y, no es necesario. La regla DB clasica
a la poblacin ms prxima:
Theorem 11.5.2 Supongamos que podemos representar y las dos mues-
tras en dos espacios eucldeos (posiblemente diferentes)
x, x
1
, x
2
, ..., x
n
1
R
p
, y, y
1
, y
2
, ..., y
n
2
R
q
,
respectivamente. Entonces se cumple

2
1
(x) = d
2
E
(x,x) ,

2
2
(y) = d
2
E
(y,y) ,
donde x, y son los centroides de las representaciones Eucldeas de las mues-
tras.
196 CAPTULO 11. ANALISIS DISCRIMINANTE
Demost.: Consideremos x, x
1
, x
2
, ..., x
n
, x= (

n
i=1
x
i
)/n. Por un lado
1
n
n

i=1
d
2
(x
i
, x) =
1
n
n

i=1
(x
i
x)

(x
i
x)
=
1
n
n

i=1
x

i
x
i
+x

x2x

x.
Por otro
1
2n
2
n

i,j=1
d
2
(x
i
, x
j
) =
1
2n
2
n

i,j=1
(x
i
x
j
)

(x
i
x
j
)
=
1
n
n

i=1
x

i
x
i
x

x.
Restando

2
(x) = x

x+x

x2x

x =d
2
E
(x,x) .
11.6 Complementos
El Anlisis Discriminante se inicia en 1936 con el trabajo de R.A. Fisher sobre
clasicacin de ores del gnero Iris. A. Wald y T.W. Anderson estudiaron las
propiedades del discriminador lineal. L. Cavalli y C.A.B. Smith introdujeron
el discriminador cuadrtico.
J.A. Anderson estudi la discriminacin logstica. Si denimos
y(, x) = P(
1
/x) = q
1
f
1
(x)/(q
1
f
1
(x) +q
2
f
2
(x)),
la regla de classicacin es
es de
1
si y(, x) > 1/2, de
2
en caso contrario.
Entonces el modelo logstico supone
y(, x) =
1
1 +e

x
.
Existen otros mtodos de anlisis discriminante, algunos no-paramtricos,
otros para variables mixtas, como el mtodo del ncleo, del vecino mas prx-
imo, el basado en el location model de W. Krzanowski, etc. Consultar
McLachlan (1992).
Los mtodos de anlisis discriminante basados en distancias pueden abor-
dar todo tipo de datos y han sido estudiados por Cuadras (1989, 1992b),
Cuadras et al. (1997).
Captulo 12
EL MODELO LINEAL
12.1 El modelo lineal
Supongamos que una variable observable Y depende de varias variables ex-
plicativas (caso de la regresin mltiple), o que ha sido observada en difer-
entes situaciones experimentales (caso del anlisis de la varianza). Entonces
tendremos n observaciones de Y , que en muchas situaciones aplicadas, se
ajustan a un modelo lineal
y
i
= x
i1

1
+x
i2

2
+. . . +x
im

m
+e
i
, i = 1, . . . , n, (12.1)
que en notacin matricial es
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
=
_
_
_
_
_
x
11
x
12
x
1m
x
21
x
22
x
2m
.
.
.
.
.
.
.
.
.
.
.
.
x
n1
x
n2
x
nm
_
_
_
_
_
_
_
_
_
_

2
.
.
.

m
_
_
_
_
_
+
_
_
_
_
_
e
1
e
2
.
.
.
e
n
_
_
_
_
_
.
Los elementos que intervienen en el modelo lineal son:
1. El vector de observaciones de Y
y = (y
1
, y
2
, . . . , y
n
)

.
2. El vector de parmetros
= (
1
,
2
, . . . ,
m
)

.
197
198 CAPTULO 12. EL MODELO LINEAL
3. La matriz de diseo
X =
_
_
_
_
_
x
11
x
12
x
1m
x
21
x
22
x
2m
.
.
.
x
n1
x
n2
x
nm
_
_
_
_
_
.
4. El vector de desviaciones aleatorias
e = (e
1
, e
2
, . . . , e
n
)

La notacin matricial compacta del modelo es:


y = X +e.
Solamente y y X son conocidas. En los modelos de regresin, X contiene
las observaciones de m variables explicativas. En los modelos de anlisis
de la varianza, X contiene los valores 0, 1 1, segn el tipo de diseo
experimental.
12.2 Suposiciones bsicas del modelo
Supongamos que las desviaciones aleatorias o errores e
i
del modelo lineal
se asimilan a n variables aleatorias con media 0, incorrelacionadas y con
varianza comn
2
, es decir, satisfacen:
1. E(e
i
) = 0, i = 1, . . . , n.
2. E(e
i
e
j
) = 0, i ,= j = 1, . . . , n.
3. var(e
i
) =
2
, i = 1, . . . , n.
Estas condiciones equivalen a decir que el vector de medias y la matriz
de covarianzas del vector e = (e
1
, e
2
, . . . , e
n
)

son:
E(e) = 0,
e
=
2
I
p
.
Si podemos suponer que los errores son normales y estocsticamente in-
dependientes, entonces estamos ante un modelo lineal normal
y N
n
(X,
2
I
p
).
La cantidad r = rang(X) es el rango del diseo. Tenemos r m y cuando
r = m se dice que es un modelo de rango mximo.
12.3. ESTIMACIN DE PARMETROS 199
12.3 Estimacin de parmetros
12.3.1 Parmetros de regresin
La estimacin de los parmetros = (
1
, . . . ,
m
)

en funcin de las ob-


servaciones y = (y
1
, . . . , y
n
)

, se plantea mediante el criterio de los mnimos


cuadrados (LS, least squares). Se desea encontrar

= (

1
, . . . ,

m
)

tal
que
e

e = (y X)

(y X) =
n

i=1
(y
i
x
i1

1
. . . x
im

m
)
2
(12.2)
sea mnimo.
Theorem 12.3.1 Toda estimacin LS de es solucin de las ecuaciones
X

X = X

y (12.3)
denominades ecuaciones normales del modelo.
Demost.:
e

e =(y X)

(y X) = y

y2

y+2X

X.
Derivando vectorialmente respecto de e igualando a cero

e = 2X

y+2X

X = 0
obtenemos (12.3).
Distinguiremos dos casos segn el rango del diseo.
a) r = m. Entonces la estimacin de es nica:

= (X

X)
1
X

y. (12.4)
b) r < m. Cuando el diseo no es de rango mximo una solucin es

= (X

X)

y,
donde (X

X)

es una inversa generalizada de X

X.
La suma de cuadrados residual de la estimacin de es
R
2
0
= (y X

(y X

) =
n

i=1
(y
i
y
i
)
2
,
siendo
y
i
= x
i1

1
+. . . +x
im

m
.
200 CAPTULO 12. EL MODELO LINEAL
12.3.2 Varianza
La varianza comn de los trminos de error,
2
=var(e
i
), es el otro parmetro
que hemos de estimar en funcin de las observaciones y = (y
1
, . . . , y
n
)

y de
X. En esta estimacin interviene de manera destacada la suma de cuadrados
residual.
Lemma 12.3.2 Sea C
r
(X) el subespacio de R
n
de dimensin r generado por
las columnas de X. Entonces E(y) = X C
r
(X) y e= y X

es ortogonal
a C
r
(X).
Demost.: Por las ecuaciones normales
X

e= X

(y X

) = X

y X

= 0.
Theorem 12.3.3 Sea y = X +e el modelo lineal donde e satisface las su-
posiciones bsicas del modelo (Seccin 12.2). Entonces el estadstico

2
= R
2
0
/(n r),
siendo R
2
0
la suma de cuadrados residual y r = rang(X) el rango del modelo,
es un estimador insesgado de
2
.
Demost.: Sea T = [t
1
, . . . , t
r
, t
r+1
, . . . , t
n
] una matriz ortogonal tal que sus
columnas formen una base ortonormal de R
n
, de manera que las r primeras
generen el subespacio C
r
(X) y por tanto las otras n r sean ortogonales a
C
r
(X). Denimos z = T

y. Entonces z =(z
1
, . . . , z
n
)

verica
E(z
i
) = t

i
X =
i
si i r,
= 0 si i > r,
pues t
i
es ortogonal a C
r
(X) si i > r. Consideremos e= y X

. Entonces
T

e= z T

, donde las r primeras componentes de T

e son cero (por el


lema anterior) y las nr componentes de T

son tambin cero. Por tanto


T

e es
T

e = (0, . . . , 0, z
r+1
, . . . , z
n
)

y en consecuencia
R
2
0
= e

e = e

TT

e =
n

i=r+1
z
2
i
.
12.4. ALGUNOS MODELOS LINEALES 201
La matriz de covarianzas de y es
2
I
n
, y por ser T ortogonal, la de z es
tambin
2
I
n
. As
E(z
i
) = 0, E(z
2
i
) = var(z
i
) =
2
, i > r,
y por tanto
E(R
2
o
) =
n

i=r+1
E(z
2
i
) = (n r)
2
.
Bajo el modelo lineal normal, la estimacin de es estocsticamente
independiente de la estimacin de
2
, que sigue la distribucin ji-cuadrado.
Theorem 12.3.4 Sea y N
n
(X,
2
I
p
) el modelo lineal normal de rango
mximo m = rang(X). Se verica:
1. La estimacin LS de es tambin la estimacin mximo verosmil de
. Esta estimacin es adems insesgada y de varianza mnima.
2.

N
m
(,
2
(X

X)
1
).
3. U = (

X(

)/
2

2
m
.
4.

es estocsticamente independiente de R
2
0
.
5. R
2
0
/
2

2
nr
.
12.4 Algunos modelos lineales
12.4.1 Regresin mltiple
El modelo de regresin mltiple de una variable respuesta Y sobre mvariables
explicativas X
1
, . . . , X
m
es
y
i
=
0
+x
i1

1
+. . . +x
im

m
+e
i
, i = 1, . . . , n, (12.5)
donde y
i
es la i-sima observacin de Y, y x
i1
, . . . , x
im
son las i-simas obser-
vaciones de las variables explicativas. La matriz de diseo es
X =
_
_
_
_
_
1 x
11
x
1m
1 x
21
x
2m
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n1
x
nm
_
_
_
_
_
.
202 CAPTULO 12. EL MODELO LINEAL
12.4.2 Diseo de un factor
Supongamos que una variable observable Y ha sido observada en k condi-
ciones experimentales diferentes, y que disponemos de n
i
rplicas (observa-
ciones independentes de Y ) y
i1
, . . . , y
in
i
bajo la condicin experimental i. El
modelo es
y
ih
= +
i
+e
ih
, i = 1, . . . ,k; h = 1, . . . ,n
i
, (12.6)
donde es la media general y
i
es el efecto aditivo de la condicin i. Las
desviaciones aleatorias e
ih
se suponen normales independientes. En el modelo
(12.6), se supone la restriccin lineal

1
+. . . +
k
= 0,
y por tanto cabe considerar solamente los parmetros ,
1
, . . . ,
k1
. Por
ejemplo, si k = 3, n
1
= n
2
= 2, n
3
= 3, la matriz de diseo es

1

2
X =
_
_
_
_
_
_
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
1 1 1
1 1 1
1 1 1
_
_
_
_
_
_
_
_
_
_
12.4.3 Diseo de dos factores
Supongamos que las n = a b observaciones de una variable observable
Y se obtienen combinando dos factores con a y b niveles, respectivamente,
denominados factor la y columna (por ejemplo, produccin de trigo obtenida
en 9 = 3 3 parcelas, 3 ncas y 3 fertilitzantes en cada nca). El modelo es
y
ij
= +
i
+
j
+e
ij
, (12.7)
donde es la media general,
i
es el efecto aditivo del nivel i del factor
la,
j
es el efecto aditivo del nivel j del factor columna. Las desviaciones
aleatorias e
ij
se suponen normales independientes. En el modelo (12.6) se
suponen las restricciones lineales
a

i=1

i
=
b

j=1

j
= 0. (12.8)
12.5. HIPTESIS LINEALES 203
Por ejemplo, si a = b = 3 la matriz de diseo es

1

2

1

2
X =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 1 0 1 0
1 0 1 1 0
1 1 1 1 0
1 1 0 0 1
1 0 1 0 1
1 1 1 0 1
1 1 0 1 1
1 0 1 1 1
1 1 1 1 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
12.5 Hiptesis lineales
Consideremos el modelo lineal normal y = X +e. Una hiptesis lineal es
una restriccin lineal sobre los parmetros del modelo.
Denition 12.5.1 Una hiptesis lineal de rango t sobre los parmetros es
una restriccin lineal
h
i1

1
+. . . +h
im

m
= 0, i = 1, . . . , t.
Indicando la matriz t m, con t < m las linealmente independientes,
H =
_
_
h
11
h
1m

h
t1
h
tm
_
_
la notacin matricial de una hiptesis lineal es
H
0
: H = 0. (12.9)
Denition 12.5.2 Una hiptesis lineal es demostrable si las las de H son
combinacin lineal de las las de X. Dicho de otra manera, si existe una
matriz A de orden t n tal que
H = AX.
204 CAPTULO 12. EL MODELO LINEAL
Observaciones:
a) Suponemos que la matriz H es de rango t.
b) Solamente podremos construir un test (el test F) para decidir si podemos
aceptar o no una hiptesis lineal si esta hiptesis es demostrable.
c) Es evidente que si el modelo es de rango mximo, r = rang(X) = m,
cualquier hiptesis lineal es demostrable.
Cuando una hiptesis (12.9) es cierta, los parmetros se convierten en
y la matriz de diseo X en

X. As el modelo lineal, bajo H
0
, es
y =

X +e. (12.10)
Para obtener (12.10), consideramos los subespacios F(H),F(X) generados
por las las de H y X. Entonces F(H) F(X) R
m
. Sea C una matriz m
(r t) tal que F(C

) F(X) y HC = 0. En otras palabras, las columnas de


C pertenecen a F(X) y son ortogonales a F(H). Si denimos los parmetros
= (
1
, . . . ,
rt
)

tales que
= C,
entonces H = HC = 0 y el modelo y = X +e, bajo la restriccin H = 0,
se transforma en (12.10), siendo

X = XC.
La estimacin LS de es

= (

X)
1

Xy
y la suma de cuadrados residual es
R
2
1
= (y

(y

).
Tambin se puede probar que la estimacin LS de los parmetros , bajo
la restriccin (12.9), es

H
=

(X

X)

(H(X

X)

)
1
H

y la suma de cuadrados del modelo lineal es


R
2
1
= (y X

H
)

(y X

H
)
El siguiente teorema es conocido como Teorema Fundamental del Anlisis
de la Varianza.
12.5. HIPTESIS LINEALES 205
Theorem 12.5.1 Sea y N
n
(X,
2
I
p
) el modelo lineal normal y H
0
: H = 0
una hiptesis lineal demostrable de rango t. Consideremos los estadsticos
R
2
0
= (y X

(y X

), R
2
1
= (y X

H
)

(y X

H
).
Se verica:
1. R
2
0
/
2

2
nr
.
2. Si H
0
es cierta
R
2
1

2

2
nr
,
R
2
1
R
2
0

2

2
t
,
siendo r

= r t.
3. Si H
0
es cierta, los estadsticos (R
2
1
R
2
0
) y R
2
0
son estocsticamente
independientes.
Demost.: Observemos primero que bajo el modelo lineal normal, y
1
, . . . , y
n
son normales independientes, y z
1
, . . . , z
n
(vase Teorema 12.3.3) son tambin
normales independientes.
1. Cada z
i
es N(0,
2
) para i > r. Luego R
2
0
/
2
es suma de (nr) cuadra-
dos de N(0, 1) independientes.
2. Si la hiptesis lineal es cierta, la matriz de diseo X se transforma en

X= XC, es decir, las columnas de XC son combinacin lineal de las


columnas de X. Podemos encontrar una matriz ortogonal
T = [t
1
, . . . , t
r
, t
r

+1
, . . . , t
r
, t
r+1
, . . . , t
n
]
tal que
C
r
(XC) = [t
1
, . . . , t
r
] C
r
(X) = [t
1
, . . . , t
r
].
Siguiendo los mismos argumentos del Teorema 12.3.3, tenemos que
R
2
1
=
n

i=r

+1
z
2
i
y R
2
1
/
2
sigue la distribucin
2
nr
. Por otro lado
R
2
1
R
2
0
=
r

i=r

+1
z
2
i
y (R
2
1
R
2
0
)/
2
sigue la distribucin
2
t
, donde t = r r

.
206 CAPTULO 12. EL MODELO LINEAL
3. Las sumas de cuadrados que intervienen en R
2
0
y en R
2
1
R
2
0
no tienen
trminos en comn, por tanto son independientes.
Consecuencia inmediata y muy importante de este resultado es que, si H
0
es cierta, entonces el estadstico
F =
(R
2
1
R
2
0
)/t
2
R
2
0
/(n r)
2
=
(R
2
1
R
2
0
)
R
2
0
n r
t
F
t
nr
. (12.11)
Es decir, F sigue la distribucin F con t y n r grados de libertad y no
depende de la varianza (desconocida) del modelo.
12.6 Inferencia en regresin mltiple
Consideremos el modelo de regresin mltiple (12.5). El rango del modelo es
rang(X) = m+ 1. La hiptesis ms interesante en las aplicaciones es
H
0
:
1
= . . . =
m
= 0,
que equivale a decir que la variable respuesta Y no depende de las variables
explicativas X
1
, . . . , X
m
. La matriz de la hiptesis lineal es
H =
_
_
_
_
0 1 0 0
0 0 1 0

0 0 0 1
_
_
_
_
, rang(H) = m.
Si H
0
es cierta, solamente interviene el parmetro
0
, evidentemente

0H
= y
(media muestral) y las sumas de cuadrados residuales son
R
2
0
=
n

i=1
(y
i
y
i
)
2
, R
2
1
=
n

i=1
(y
i
y)
2
,
donde

0
,

1
, . . . ,

m
son los estimadores LS bajo el modelo no restringido y
y
i
=

0
+x
i1

1
+. . . +x
im

m
. Aplicando (12.11), bajo H
0
tenemos que
F =
(R
2
1
R
2
0
)
R
2
0
n m1
m
F
m
nm1
.
12.7. COMPLEMENTOS 207
El test F se suele expresar en trminos de la correlacin mltiple. Se demues-
tra que
R
2
0
=
n

i=1
(y
i
y
i
)
2
= (1 R
2
)
n

i=1
(y
i
y)
2
,
donde R es el coeciente de correlacin mltiple muestral entre Y y X
1
, . . . , X
m
(Teorema 4.2.2). Por tanto, si H
0
es cierta, es decir, si la correlacin mltiple
poblacional es cero, entonces
F =
R
2
1 R
2
n m1
m
F
m
nm1
.
Rechazaremos H
0
si F es signicativa.
12.7 Complementos
Hemos visto los aspectos fundamentales del modelo lineal. Un estudio ms
completo incluira:
a) anlisis grco de los residuos, b) efectos de la colinealidad, c) mn-
imos cuadrados ponderados, d) errores correlacionados, e) seleccin de las
variables, etc. Ver Pea (1989), Chatterjee y Price (1991).
Para tratar variables explicativas mixtas, podemos denir un modelo lin-
eal considerando las dimensiones principales obtenidas aplicando anlisis de
coordenadas principales sobre una matriz de distancias entre las observa-
ciones. Consultar Cuadras y Arenas (1990), Cuadras et al. (1996).
208 CAPTULO 12. EL MODELO LINEAL
Captulo 13
ANLISIS DE LA VARIANZA
(ANOVA)
El anlisis de la varianza comprende un conjunto de tcnicas estadsticas que
permiten analizar como operan diversos factores, estudiados simultneamente
en un diseo factorial, sobre una variable respuesta.
13.1 Diseo de un factor
Supongamos que las observaciones de una variable Y solamente dependen de
un factor con k niveles:
Nivel 1 y
11
y
12
y
1n
1
Nivel 2 y
21
y
22
y
2n
2

Nivel k y
k1
y
k2
y
kn
k
Si escribimos
i
= +
i
, en el modelo (12.6) tenemos
y
ih
=
i
+e
ih
, i = 1, . . . ,k; h = 1, . . . ,n
i
,
donde
i
es la media de la variable en el nivel i. Indiquemos:
Media nivel i : y
i
= (1/n
i
)

h
y
ih
Media general: y = (1/n)

h
y
ih
No. total de observaciones: n = n
1
+. . . +n
k
209
210 CAPTULO 13. ANLISIS DE LA VARIANZA (ANOVA)
Tambin indiquemos:
Suma de cuadrados entre grupos: Q
E
=

i
n
i
(y
i
y)
2
Suma de cuadrados dentro de grupos: Q
D
=

h
(y
ih
y
i
)
2
Suma de cuadrados total: Q
T
=

h
(y
ih
y)
2
Se verica la relacin fundamental:
Q
T
= Q
E
+Q
D
.
Las estimaciones LS de las medias
i
son

i
= y
i
, i = 1, . . . , k,
y la suma de cuadrados residual es R
2
0
= Q
D
.
La hiptesis nula de principal inters es la que establece que no existen
diferencias entre los niveles de los factores:
H
0
:
1
= . . . =
k
,
y tiene rango 1. Bajo H
0
solamente existe una media y su estimacin es
= y. Entonces la suma de cuadrados residual es R
2
1
= Q
T
y adems se
verica
R
2
1
R
2
0
= Q
E
Por tanto, como una consecuencia del Teorema 12.5.1, tenemos que:
1. Q
D
/(n k) es un estimador centrado de
2
y Q
D
/
2

2
nk
.
2. Si H
0
es cierta, Q
E
/(k 1) es tambin estimador centrado de
2
y
Q
T

2

2
n1
,
Q
E

2

2
k1
.
3. Si H
0
es cierta, los estadsticos Q
E
y Q
D
son estocsticamente inde-
pendientes.
Consecuencia inmediata es que, si H
0
es cierta, entonces el estadstico
F =
Q
E
/(k 1)
Q
D
/(n k)
F
k1
nk
.
13.2. DISEO DE DOS FACTORES 211
13.2 Diseo de dos factores
Supongamos que las observaciones de una variable Y dependen de dos fac-
tores A, B, denominados factores la y columna, con a y b niveles A
1
, . . . ,A
a
y B
1
, . . . ,B
b
, y que disponemos de una observacin para cada combinacin
de los niveles de los factores:
B
1
B
2
B
b
A
1
y
11
y
12
y
1b
y
1
A
2
y
21
y
22
y
2b
y
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
a
y
a1
y
a2
y
ab
y
a
y
1
y
2
y
b
y

siendo
y
i
=
1
b
b

j=1
y
ij
, y
j
=
1
a
a

i=1
y
ij
, y

= y =
1
ab
a

i=1
b

j=1
y
ij
,
las medias por las, por columnas y general. Supongamos que los datos se
ajustan al modelo (12.7) con las restricciones (12.8), donde es la media
general,
i
es el efecto del nivel A
i
del factor la,
j
es el efecto del nivel B
j
del factor columna. El rango del diseo y los g.l. del residuo son
r = 1+(a1) +(b 1) = a+b 1, nr = ab (a+b 1) = (a1)(b 1).
Las estimaciones de los parmetros son
= y,
i
= y
i
y,

j
= y
j
y,
y la expresin de la desviacin aleatoria es
e
ij
= y
ij

i

j
= (y
ij
y
i
y
j
+y).
La suma de cuadrados residual del modelo es
R
2
0
=
a

i=1
b

j=1
(y
ij
y
i
y
j
+y)
2
.
212 CAPTULO 13. ANLISIS DE LA VARIANZA (ANOVA)
Tambin consideramos las cantidades:
Suma de cuadrados entre las: Q
A
= b

i
(y
i
y)
2
Suma de cuadrados entre columnas: Q
B
= a

j
(y
j
y)
2
Suma de cuadrados residual: Q
R
=

i,j
(y
ij
y
i
y
j
+y)
2
Suma de cuadrados total: Q
T
=

i,j
(y
ij
y)
2
Se verica la siguiente identidad:
Q
T
= Q
A
+Q
B
+Q
R
.
En el modelo de dos factores, las hiptesis de inters son:
H
A
0
:
1
= =
a
= 0 (no hay efecto la)
H
B
0
:
1
= =
b
= 0 (no hay efecto columna)
Supongamos H
B
0
cierta. Entonces el modelo se transforma en y
ij
= +
i
+
e
ij
, es decir, acta solamente un factor, y por tanto
R
2
1
=
a

i=1
b

j=1
(y
ij
y
i
)
2
.
Ahora bien, desarrollando (y
ij
y
i
)
2
= ((y
j
y)+(y
ij
y
i
y
j
+y))
2
resulta
que
R
2
1
= Q
B
+Q
R
.
Anlogamente, si H
F
0
es cierta, obtendramos R
2
1
= Q
A
+Q
R
. Por el Teorema
12.5.1 se verica:
1. Q
R
/(a1)(b1) es un estimador centrado de
2
y Q
R
/
2

2
(a1)(b1)
.
2. Si H
A
0
es cierta, Q
A
/(a 1) es tambin estimador centrado de
2
,
Q
A
/
2

2
(a1)
y los estadsticos Q
A
y Q
R
son estocsticamente inde-
pendientes.
3. Si H
B
0
es cierta, Q
B
/(b 1) es tambin estimador centrado de
2
,
Q
B
/
2

2
(b1)
y los estadsticos Q
B
y Q
R
son estocsticamente inde-
pendientes.
13.3. DISEO DE DOS FACTORES CON INTERACCIN 213
Por lo tanto tenemos que para decidir H
A
0
utilizaremos el estadstico
F
A
=
Q
A
Q
R
(a 1)(b 1)
(a 1)
F
a1
(a1)(b1)
,
y para decidir H
B
0
utilizaremos
F
B
=
Q
B
Q
R
(a 1)(b 1)
(b 1)
F
b1
(a1)(b1)
.
13.3 Diseo de dos factores con interaccin
Supongamos que las observaciones de una variable Y dependen de dos fac-
tores A, B, denominados factores la y columna, con a y b niveles A
1
, . . . .A
a
y B
1
, . . . ,B
b
, y que disponemos de c observaciones (rplicas) para cada com-
binacin de los niveles de los factores:
B
1
B
2
B
b
A
1
y
111
, . . . , y
11c
y
121
, . . . , y
12c
y
1b1
, . . . , y
1bc
y
1
A
2
y
211
, . . . , y
21c
y
221
, . . . , y
22c
y
2b1
, . . . , y
2bc
y
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
a
y
a11
, . . . , y
a1c
y
a22
, . . . , y
a2c
y
ab1
, . . . , y
abc
y
a
y
1
y
2
y
b
y

siendo
y
i
=
1
bc
b,c

j,h=1
y
ijh
, y
j
=
1
ac
a,c

i,h=1
y
ijh
,
y
ij
=
1
c
c

h=1
y
ijh
, y = y

=
1
abc
a,b,c

i,j,h=1
y
ij
.
El modelo lineal del diseo de dos factores con interaccin es
y
ijh
= +
i
+
j
+
ij
+e
ijh
,
i = 1, . . . , a; j = 1, . . . , b; h = 1, . . . , c,
siendo la media general,
i
el efecto del nivel A
i
del factor la,
j
el
efecto del nivel B
j
del factor columna,
ij
la interaccin entre los niveles
A
i
,B
j
. El parmetro
ij
mide la desviacin del modelo aditivo E(y
ijh
) =
214 CAPTULO 13. ANLISIS DE LA VARIANZA (ANOVA)
+
i
+
j
y solamente es posible estimar si hay c > 1 rplicas. Se suponen
las restricciones
a

i=1

i
=
b

j=1

j
=
a

i=1

ij
=
b

j=1

ij
= 0.
As el nmero de parmetros independientes del modelo es
1 + (a 1) + (b 1) + (a 1)(b 1) = ab
y los g.l. del residuo son abc ab = ab(c 1).
Las estimaciones de los parmetros son
= y,
i
= y
i
y,

j
= y
j
y,
ij
= y
ij
y
i
y
j
+y,
y la expresin de la desviacin aleatoria es
e
ijh
= y
ijh

i

ij
= (y
ij
y).
La suma de cuadrados residual del modelo es
R
2
0
=
a,b,c

i,j,h=1
(y
ijh
y
i
)
2
.
Tambin debemos considerar las cantidades:
Suma de cuadrados entre las: Q
A
= bc

i
(y
i
y)
2
Suma de cuadrados entre columnas: Q
B
= ac

j
(y
j
y)
2
Suma de cuadrados de la interaccin: Q
AB
= c

i,j
(y
ij
y
i
y
j
+y)
2
Suma de cuadrados residual: Q
R
=

i,jh
(y
ijh
y
i
)
2
Suma de cuadrados total: Q
T
=

i,j
(y
ijh
y)
2
Se verica la siguiente identidad
Q
T
= Q
A
+Q
B
+Q
AB
+Q
R
.
Las hiptesis de inters son:
H
A
0
:
1
= =
a
= 0 (no hay efecto la)
H
B
0
:
1
= =
b
= 0 (no hay efecto columna)
H
AB
0
:
11
= =
ab
= 0 (no hay interaccin)
13.4. DISEOS MULTIFACTORIALES 215
Como en los casos anteriores, podemos ver que la aceptacin o rechazo de
las hiptesis se decide mediante el test F:
F
A
=
Q
A
Q
R
ab(c 1)
a 1
F
a1
ab(c1)
F
B
=
Q
B
Q
R
ab(c 1)
b 1
F
b1
ab(c1)
F
AB
=
Q
AB
Q
R
ab(c 1)
(a 1)(b 1)
F
(a1)(b1)
ab(c1)
13.4 Diseos multifactoriales
Los diseos de dos factores se generalizan a un nmero mayor de factores.
Cada factor representa una causa de variabilidad que acta sobre la variable
observable. Si por ejemplo, hay 3 factores A, B, C, las observaciones son
y
ijkh
, donde i indica el nivel i-simo de A, j indica el nivel j-simo de B, k
indica el nivel k-simo de C, y h indica la rplica h para la combinacin ijk
de los tres factores, que pueden interactuar. Un modelo tpico es
y
ijkh
= +
A
i
+
B
j
+
C
k
+
AB
ij
+
AC
ik
+
BC
jk
+
ABC
ijk
+e
ijkh
,
siendo:
= media general,

A
i
,
B
j
,
C
k
= efectos principales de A,B,C,

AB
ij
,
AC
ik
,
BC
jk
= interacciones entre A y B, A y C, B y C,

ABC
ijk
= interaccin entre A,B y C,
e
ijkh
= desviacin aleatoria N(0,
2
).
Son hiptesis de inters: H
A
0
:
A
i
= 0 (el efecto principal de A no es sig-
nicativo), H
AB
0
:
AB
i
= 0 (la interaccin entre A y B no es signicativa),
etc. Los tests para aceptar o no estas hiptesis se obtienen descomponiendo
la variabilidad total en sumas de cuadrados

i,j,k,h
(y
ikjh
y)
2
= A+B +C +AB +AC +BC +ABC +R,
donde R es el residuo. Si los factores tienen a, b, c niveles, respectivamente, y
hay d rplicas para cada combinacin de los niveles, entonces A tiene (a 1)
216 CAPTULO 13. ANLISIS DE LA VARIANZA (ANOVA)
g.l., AB tiene (a 1)(b 1) g.l. Si interpretamos las rplicas como un factor
D, el residuo es
R = D +AD +BD +CD +ABD +ACD +BCD +ABCD
con
q = (d 1) + (a 1)(d 1) . . . + (a 1)(b 1)(c 1)(d 1) = abc(d 1)
g.l. Entonces calcularemos los cocientes F
F =
A/(a 1)
R/q
, F =
AB/(a 1)(b 1)
R/q
,
que sirven para aceptar o rechazar H
A
0
y H
AB
0
, respectivamente.
En determinadas situaciones experimentales puede suceder que algunos
factoros no interacten. Entonces las sumas de cuadrados correspondientes
se suman al residuo. Por ejemplo, si C no interacta con A,B, el modelo es
y
ijkh
= +
A
i
+
B
j
+
C
k
+
AB
ij
+e
ijkh
y la descomposicin de la suma de cuadrados es

i,j,k,h
(y
ikjh
y)
2
= A +B +C +AB +R

,
donde R

= AC +BC +ABC +R es el nuevo residuo con g.l.


q

= (a 1)(c 1) + (b 1)(c 1) + (a 1)(b 1)(c 1) +q.


Los cocientes F para las hiptesis anteriores son ahora
F =
A/(a 1)
R

/q

, F =
AB/(a 1)(b 1)
R

/q

.
13.5 Modelos log-lineales
Supongamos que tenemos dos variables categricas A,B con a, b categoras
respectivamente, y hemos observado las ab categorias n =

ij
f
ij
veces,
13.5. MODELOS LOG-LINEALES 217
donde f
ij
es el nmero de veces en que apareci la interseccin A
i
B
j
, es
decir, tenemos la tabla de contingencia a b :
B
1
B
2
B
b
A
1
f
11
f
12
f
1b
f
1
A
2
f
21
f
22
f
2b
f
2
.
.
.
.
.
.
A
a
f
a1
f
a2
f
ab
f
a
f
1
f
2
f
b
n
donde f
i
=

j
f
ij
, f
j
=

i
f
ij
son las frecuencias de A
i
,B
j
respectivamente.
Indiquemos las probabilidades
p
ij
= P(A
i
B
j
), p
i
= P(A
i
), p
j
= P(B
j
).
Existe independencia estocstica entre A y B si p
ij
= p
i
p
j
, es decir, si
ln p
ij
= ln p
i
+ ln p
j
.
Si introducimos las frecuencias tericas
F
ij
= np
ij
, F
i
= np
i
, F
j
= np
j
,
la condicin de independencia es
ln F
ij
= ln F
i
+ ln F
j
ln n,
que podemos escribir como
ln F
ij
= +
A
i
+
B
j
, (13.1)
siendo
= (

a
i=1

b
j=1
ln F
ij
)/ab,

A
i
= (

b
j=1
ln F
ij
)/b ,

B
j
= (

a
i=1
ln F
ij
)/a .
El modelo (13.1) es un ejemplo de modelo log-lineal.
Generalmente no podemos aceptar la independencia estocstica. Por
tanto, hemos de aadir un trmino a (13.1) y escribir
lnF
ij
= +
A
i
+
B
j
+
AB
ij
,
218 CAPTULO 13. ANLISIS DE LA VARIANZA (ANOVA)
donde
AB
ij
= ln F
ij

A
i

B
j
es la desviacin del modelo lineal. La
similitud con el modelo anova de dos factores es clara.
En las aplicaciones no conocemos las frecuencias esperadas F
ij
, sino las
frecuencias observadas f
ij
. Entonces la estimacin de los parmetros es muy
semejante al modelo anova, pero los tests de hiptesis se resuelven mediante
ji-cuadrados.
La hiptesis de inters es la independencia entre A,B
H
0
:
AB
ij
= 0,
que equivale a decir que los datos se ajustan al modelo (13.1). Sean

F
ij
= nf
i
f
j
las estimaciones mximo-verosmiles de las frecuencias esperadas. El test
ji-cuadrado clsico consiste en calcular

i,j
(f
ij


F
ij
)
2
/

F
ij
y el test de la razn de verosimilitud se basa en
2

i,j
f
ij
log(f
ij
/

F
ij
),
que tambin sigue la distribucin ji-cuadrado con (a 1)(b 1) g.l.
El tratamiento de 3 variables categricas A, B, C es semejante. Partiendo
de una tabla de contingencia a b c, puede interesar saber si A, B, C son
mtuamente independientes
ln F
ijk
= +
A
i
+
B
j
+
C
k
,
si hay dependencia entre A y B, entre A y C, entre B y C
ln F
ijk
= +
A
i
+
B
j
+
C
k
+
AB
ij
+
AC
ik
+
BC
jk
,
si adems hay dependencia entre A, B, C
ln F
ijk
= +
A
i
+
B
j
+
C
k
+
AB
ij
+
AC
ik
+
BC
jk
+
ABC
ijk
,
y si A es independiente de B, C, que son dependientes, el modelo es
ln F
ijk
= +
A
i
+
B
j
+
C
k
+
BC
jk
.
13.6. COMPLEMENTOS 219
En cada caso, el test ji-cuadrado o el de razn de verosimilitud nos permiten
decidir si los datos se ajustan al modelo. Conviene observar que obtendramos

2
= 0 en el tercer modelo, ya que los datos se ajustan exactamente al modelo.
Ejemplo. Las frecuencias de supervivientes, clasicadas por gnero (A),
supervivencia (B) y clase (C), del hundimiento del vapor Titanic son:
Gnero Sobrevivi 1 2 3
Hombre SI 118 154 422
Mujer 4 13 106
Hombre NO 62 25 88
Mujer 141 93 90
Los resultados del anlisis log-lineal son:
Modelo para ln F
ijk
Interpretacin Smbolo
2
g.l.
= +
G
i
+
S
j
+
C
k
GSC [G][S][C] 540.7 7
+
GS
ij
+
GC
ik
+
SC
jk
GSGCSC [GS][GC][SC] 61.5 2
+
GS
ij
+
GC
ik
+
SC
jk
+
GSC
ijk
dependencia [GSC] 0 -
+
GC
jk
SGC [S][GC] 511.1 5
Salvo el modelo de dependencia completa, ningn modelo se ajusta a los
datos. Hemos de aceptar que la supervivencia dependa del gnero y la clase.
13.6 Complementos
El Anlisis de la Varianza fue introducido por R. A. Fisher en 1938, para
resolver problemas de diseo experimental en agricultura. Hemos visto que
es una aplicacin del modelo lineal. Existen muchos diseos diferentes, cuyo
estudio dejamos para otro momento.
Los primeros estudios y aplicaciones consideraban factores de efectos -
jos. En 1947, C. Eisenhart consider que algunos efectos podan ser aleato-
rios. Ciertamente, los efectos que actan sobre los modelos pueden ser jos,
aleatorios o mixtos, y cuando hay interacciones el clculo de los cocientes F
es diferente. Ver Cuadras (2000), Pea (1989).
220 CAPTULO 13. ANLISIS DE LA VARIANZA (ANOVA)
Captulo 14
ANLISIS DE LA VARIANZA
(MANOVA)
14.1 Modelo
El anlisis multivariante de la varianza (MANOVA) es una generalizacin en
p > 1 variables del anlisis de la varianza (ANOVA).
Supongamos que tenemos n observaciones independientes de p variables
observables Y
1
, . . . , Y
p
, obtenidas en diversas condiciones experimentales, como
en el caso univariante. La matriz de datos es
Y =
_
_
_
_
_
y
11
y
12
y
1p
y
21
y
22
y
2p
.
.
.
.
.
.
.
.
.
.
.
.
y
n1
y
n2
y
np
_
_
_
_
_
= [ y
1
, y
2
, . . . , y
p
],
donde y
j
= (y
1j
, y
2j
, . . . , y
nj
)

son las n observaciones de la variable Y


j
, que
suponemos siguen un modelo lineal y
j
= X
j
+e
j
.
El modelo lineal multivariante es
Y = XB+E (14.1)
siendo
X =
_
_
_
_
_
x
11
x
12
x
1m
x
21
x
22
x
2m
.
.
.
.
.
.
.
.
.
.
.
.
x
n1
x
n2
x
nm
_
_
_
_
_
221
222 CAPTULO 14. ANLISIS DE LA VARIANZA (MANOVA)
la matriz de diseo,
B =
_
_
_
_
_

11

12

1p

21

22

2p
.
.
.
.
.
.
.
.
.
.
.
.

m1

m2

mp
_
_
_
_
_
la matriz de parmetros de regresin,
E =
_
_
_
_
_
e
11
e
12
e
1p
e
21
e
22
e
2p
.
.
.
.
.
.
.
.
.
.
.
.
e
n1
e
n2
e
np
_
_
_
_
_
la matriz de desviaciones aleatorias. Las matrices Y y X son conocidas.
Suponemos que las las de E son independientes N
p
(0,).
14.2 Estimacin
En el modelo MANOVA hemos de estimar los mp parmetros de regresin y
la matriz de covarianzas .
En el modelo univariante y = X +e, la estimacin LS

= (X

X)

y
minimiza e

e= (y X

(y X

). En el caso multivariante, el estimador


LS de B es

B tal que minimiza la traza
tr(

E) = tr((YX

B)

(YX

B)).
Se demuestra que:
1. Las estimaciones LS de los parmetros de regresin B son

B = (X

X)
1
X

Y
cuando el diseo es de rango mximo r = rang(X) =m, y

B = (X

X)

Y
cuando r < m.
14.3. TESTS DE HIPTESIS LINEALES 223
2. La matriz de residuos es la matriz R
0
= (R
0
(i, j)) de orden p p
R
0
= (YX

B)

(YX

B),
donde R
0
(j, j) es la suma de cuadrados residual del modelo univariante
y
j
= X
j
+e
j
.
3. Una estimacin centrada de la matriz de covarianzas es

= R
0
/(n r).
Theorem 14.2.1 Sea Y = XB+E el model lineal multivariante donde las
las de E son N
p
(0,) independientes. Sea R
0
la matriz de residuos. Se
verica:
1. R
0
= Y

[I X(X

X)

]Y.
2. La distribucin de R
0
es Wishart W
p
(, n r).
Demost.: Sea T = [t
1
, . . . , t
r
, t
r+1
, . . . , t
n
] una matriz ortogonal tal que sus
columnas formen una base ortonormal de R
n
, de manera que las r primeras
generen el subespacio C
r
(X) y por tanto las otras n r sean ortogonales a
C
r
(X). Consideremos

E= YX

B y denamos Z = T

Y. Como en el mod-
elo lineal (ver Teorema 12.3.3), se verica
T

E =
_
0
Z
nr
_
,
donde Z
nr
es una matriz (n r) p con las N
p
(0,) independientes. En
consecuencia
R
2
0
=

E

E =

E

TT

E = Z

nr
Z
nr
W
p
(, n r).
14.3 Tests de hiptesis lineales
Una hiptesis lineal demostrable de rango t y matriz H es
H
0
: HB = 0
donde las las de H son combinacin lineal de las las de X.
224 CAPTULO 14. ANLISIS DE LA VARIANZA (MANOVA)
Como en el caso univariante (Seccin 12.5), si H
0
es cierta, el modelo se
transforma en
Y =

X+E,
la estimacin de los parmetros B restringidos a H
0
viene dada por

B
H
=

B(X

X)

(H(X

X)

)
1
H

B
y la matriz residual es
R
1
= (YX

B
H
)

(YX

B
H
).
Theorem 14.3.1 Sea Y = XB+E el modelo lineal multivariante, donde
las las de E son N
p
(0,) independientes, R
0
la matriz de residuos, H
0
:
HB = 0 una hiptesis lineal demostrable y R
1
la matriz de residuos bajo H
0
.
Se verica:
1. R
0
W
p
(, n r).
2. Si H
0
es cierta,
R
1
W
p
(, n r

), R
1
R
0
W
p
(, t),
siendo t = ran(H), r

= r t.
3. Si H
0
es cierta, las matrices R
0
y R
1
R
0
son estocsticamente inde-
pendientes.
Demost.: Si la hiptesis H
0
es cierta, la matriz de diseo X se transforma
en XC, donde las columnas de XC son combinacin lineal de las columnas
de X. Podemos encontrar una matriz ortogonal
T = [t
1
, . . . , t
r
, t
r

+1
, . . . , t
r
, t
r+1
, . . . , t
n
]
tal que
C
r
(XC) = [t
1
, . . . , t
r
] C
r
(X) = [t
1
, . . . , t
r
].
Siguiendo los mismos argumentos del teorema anterior, tenemos que
T

E =
_
0
Z
nr

_
14.4. MANOVA DE UN FACTOR 225
donde las n r

las de Z
nr
son N
p
(0,) independientes. Por tanto R
2
1
=
Z

nr
Z
nr
es Wishart W
p
(, n r

). Por otro lado podemos escribir


Z
nr
=
_
Z
t
Z
nr
_
donde las t = r r

las de Z
t
son independientes de las n r las de Z
nr
.
Entonces es fcil ver que
R
1
R
0
= Z

t
Z
t
,
es decir, R
1
R
0
es Wishart W
p
(, n r

) e independiente de R
0
.
La consecuencia ms importante de este teorema es que, si H
0
es cierta,
entonces
=
[R
0
[
[(R
1
R
0
) +R
0
[
=
[R
0
[
[R
1
[
(p, n r, t),
es decir, 0 1 sigue la distribucin de Wilks. Aceptaremos H
0
si no
es signicativo y rechazaremos H
0
si es pequeo y signicativo.
Tabla general MANOVA
g. l. matriz Wishart lambda de Wilks
Desviacin hiptesis t R
1
R
0
= [R
0
[/[R
1
[
Residuo n r R
0
Criterio decisin: Si <

es rechazada H
0
, donde P((p, n r, t) <

) = .
14.4 Manova de un factor
El modelo del diseo de un nico factor o causa de variabilidad es
y
ih
= +
i
+e
ih
, i = 1, . . . ,k; h = 1, . . . ,n
i
,
donde es un vector de medias general,
i
es el efecto del nivel y del fac-
tor, y
ih
es la observacin multivariante h en la situacin (o poblacin) i,
correspondiendo a la misma situacin experimental del anlisis cannico de
poblaciones (Captulo 7), con n = n
1
+. . . +n
k
. Por tanto
W = R
0
, B = R
1
R
0
, T = R
1
= B+W,
son las matrices de dispersin dentro grupos, entre grupos y total,
respectivamente (Seccin 3.3.3).
226 CAPTULO 14. ANLISIS DE LA VARIANZA (MANOVA)
MANOVA de un factor
g. l. matriz Wishart lambda de Wilks
Entre grupos k 1 B = [W[/[W+B[
Dentro grupos n k W (p, n k, k 1)
Total n 1 T
14.5 Manova de dos factores
Si suponemos que las n = a b observaciones multivariantes dependen de
dos factores la y columna, con a y b niveles respectivamente, el modelo es
y
ij
= +
i
+
j
+e
ij
, i = 1, . . . , a; j = 1, . . . , b,
donde es la media general,
i
es el efecto aditivo del nivel i del factor la,

j
es el efecto aditivo del nivel j del factor columna. Como generalizacin del
caso univariante, intervienen las matrices A = (a
uv
), B =(b
uv
), T = (t
uv
), R
0
=
(r
uv
) con elementos
a
uv
= a

j
(y
ju
y
u
)(y
jv
y
v
)
b
uv
= b

i
(y
iu
y
u
)(y
iv
y
v
)
r
uv
=

ij
(y
iju
y
iu
y
ju
+y
u
)(y
ijv
y
iv
y
jv
+y
v
)
t
uv
=

ij
(y
iju
y
u
)(y
ijv
y
v
), u, v = 1, . . . , p,
siendo, para cada variable Y
u
, y
u
la media, y
ju
la media jando el nivel j del
factor columna, etc. Se verica
T = A+B+R
0
.
Indicando q = (a 1)(b 1), obtenemos la tabla
MANOVA de dos factores
matriz lambda
g. l. Wishart de Wilks
Filas a 1 A [A[/[T[ (p, q, a 1)
Columnas b 1 B [B[/[T[ (p, q, b 1)
Residuo q R
0
Total ab 1 T
14.6. MANOVA DE DOS FACTORES CON INTERACCIN 227
14.6 Manova de dos factores con interaccin
En el diseo de dos factores con interaccin suponemos que las n = a b c
observaciones multivariantes dependen de dos factores la y columna, con a
y b niveles respectivamente, y que hay c observaciones (rplicas) para cada
una de las a b combinaciones de los niveles. El modelo lineal es
y
ijh
= +
i
+
j
+
ij
+e
ijh
, i = 1, . . . , a; j = 1, . . . , b; h = 1, . . . , c,
donde es la media general,
i
es el efecto aditivo del nivel y del factor la,

j
es el efecto aditivo del nivel j del factor columna,
ij
es la interaccin,
parmetro que mide la desviacin de la aditividad del efecto de los factores,
e y
ijh
= (y
ijh1
, . . . , y
ijhp
)

es la rplica multivariante h de las variables ob-


servables. Tambin, como en el caso univariante, intervienen las matrices
A = (a
uv
), B = (b
uv
), AB = (c
uv
), R
0
= (r
uv
), T = (t
uv
), donde
a
uv
= bc

i
(y
iu
y
u
)(y
iv
y
v
)
b
uv
= ac

j
(y
ju
y
u
)(y
jv
y
v
)
c
uv
= c

i,j
(y
iju
y
iu
y
jv
+y
u
)(y
ijv
y
iv
y
jv
+y
v
)
r
uv
=

i,jh
(y
ijhu
y
iu
)(y
ijhv
y
iv
)
t
uv
=

i,j
(y
iju
y
u
)(y
iju
y
u
), u, v = 1, . . . , p,
que verican
T = A+B+AB+R
0
.
Obtenemos la tabla:
MANOVA de dos factores con interaccin
matriz lambda
g. l. Wishart de Wilks
Filas a 1 A [A[/[T[ (p, r, a 1)
Columnas b 1 B [B[/[T[ (p, r, b 1)
Interaccin (a 1)(b 1) = q AB [AB[/[T[ (p, r, q)
Residuo ab(c 1) = r R
0
Total abc 1 T
14.7 Ejemplos
Example 14.7.1 Ratas experimentales.
228 CAPTULO 14. ANLISIS DE LA VARIANZA (MANOVA)
En un experimento para inhibir un tumor, se quiere investigar el efecto
del sexo (S) y de la temperatura ambiental (T). Se consideran las variables:
Y
1
=peso inicial, Y
2
=peso nal, Y
3
=peso del tumor.
Machos Hembras
Temp Y
1
Y
2
Y
3
Y
1
Y
2
Y
3
4 18.15 16.51 0.24 19.15 19.49 0.16
18.68 19.50 0.32 18.35 19.81 0.17
19.54 19.84 0.20 20.58 19.44 0.22
20 21.27 23.30 0.33 18.87 22.00 0.25
19.57 22.30 0.45 20.66 21.08 0.20
20.15 18.95 0.35 21.56 20.34 0.20
34 20.74 16.69 0.31 20.22 19.00 0.18
20.02 19.26 0.41 18.38 17.92 0.30
17.20 15.90 0.28 20.85 19.90 0.17
Los resultados MANOVA son:
g. l. matriz dispersin lambda F g.l.
T 2
_
_
4.81 9.66 .284
32.5 .376
.019
_
_
.261 3.18 6,20
S 1
_
_
.642 1.27 .19
2.51 .38
.006
_
_
.337 6.55 3,10
TS 2
_
_
.275 .816 .038
32.5 .088
.006
_
_
.772 0.46 6,20
Residuo 12
_
_
19.3 7.01 .19
26.7 .208
.039
_
_
Total 17
_
_
25.0 18.7 .06
32.5 .284
.125
_
_
Son signicativos los efectos S y T, pero la interaccin no es signicativa.
Una representacin cannica de los 3 2 = 6 grupos (Figura 14.1) ayuda
a visualizar las diferencias. Podemos ver que la pequea diferencia entre la
representacin de las tres temperatures de los machos y de las hembras es
indicio de una cierta interaccin, aunque no signicativa.
14.7. EJEMPLOS 229
Figura 14.1: Representacin cannica de los datos de las ratas hembras
(izquierda) y machos (derecha).
Example 14.7.2 Colepteros.
Continuando con el ejemplo 7.5.1, vamos a estudiar 8 especies (factor E)
de colepteros del gnero Timarcha, pero teniendo en cuenta el sexo, machos
y hembras (factor S), en relacin a 5 variables biomtricas.
Las matrices de dispersin entre especies, entre sexos, debidas a la inter-
accin, residual y los estadsticos y F son:
E=
_
_
_
_
_
_
14303 24628 17137 48484 36308
43734 31396 85980 64521
23610 61519 46405
169920 126980
95395
_
_
_
_
_
_
= .0068
F
35,2353
= 152.8
S=
_
_
_
_
_
_
675.94 1613.0 1644.5 4520.0 3270.6
3849.3 3924.4 10786. 7804.9
4001.0 10997. 7957.2
30225. 21871.
15825.
_
_
_
_
_
_
= .1944
F
5,559
= 463.2
ES=
_
_
_
_
_
_
96.470 81.532 63.559 92.035 20.554
97.205 85.554 157.28 102.31
86.405 127.66 108.25
428.97 236.53
282.30
_
_
_
_
_
_
= .7692
F
35,2353
= 4.329
230 CAPTULO 14. ANLISIS DE LA VARIANZA (MANOVA)
R
0
=
_
_
_
_
_
_
1546.7 1487.8 1346.4 2452.6 1924.0
3498.5 3078.4 4206.6 3415.6
3082.9 3888.2 3159.4
9178.6 6038.0
5950.3
_
_
_
_
_
_
14.8 Otros criterios
Sea
1
. . .
p
los valores propios de R
0
respecto de R
1
. Podemos expresar
el criterio de Wilks como
=
[R
0
[
[R
1
[
=
1
. . .
p
.
Este criterio es especialmente interesante, teniendo en cuenta que si es la
razn de verosimilitud en el test de hiptesis, entonces =
n/2
.
Se demuestra que cualquier estadstico que sea invariante por cambios de
origen y de escala de los datos, debe ser funcin de estos valores propios. As
otros tests propuestos son:
1. Traza de Hotelling:
tr((R
1
R
0
)R
1
o
) =
p

i=1
1
i

i
.
2. Traza de Pillai:
tr((R
1
R
0
)R
1
1
) =
p

i=1
1
i
.
3. Raz mayor de Roy: (1
p
)/
p
.
En el ejemplo 14.7.2, para contrastar las diferencias entre localidades,
obtenemos los siguientes valores de los estadsticos de Wilks, Hotelling, Pillai
y Roy, y sus transformaciones a una F:
F g.l. g.l.
Wilks 0.007 152.8 35 2354
Hotelling 28.02 446.2 35 2787
Pillai 2.090 57.78 35 2815
Roy 24.90 2002 7 563
14.9. COMPLEMENTOS 231
14.9 Complementos
El Anlisis Multivariante de la Variancia es muy similar al Anlisis de la Vari-
ancia, slo que interviene ms de una variable cuantitativa observable. Esta
extensin multivariante se inicia en 1930 con los trabajos de H. Hotelling, J.
Wishart y S.S. Wilks. Posteriormente S.N. Roy propuso un planteo basado
en el principio de unin-interseccin.
Los cuatro criterios que hemos visto son equivalentes para p = 1, y difer-
entes para p > 1. No est claro cual es el mejor criterio, depende de la
hiptesis alternativa. Por ejemplo, en el diseo de un factor, si los vectores
de medias estn prcticamente alineados, entonces el criterio de Roy es el
ms potente. Ver Rencher (1998).
232 CAPTULO 14. ANLISIS DE LA VARIANZA (MANOVA)
Captulo 15
FUNCIONES ESTIMABLES
MULTIVARIANTES
15.1 Funciones estimables
En el modelo lineal univariante y = X +e, adems de la estimacin de
los parmetros de regresin , tiene tambin inters la estimacin de ciertas
combinaciones lineales de los parmetros .
Denition 15.1.1 Una funcin paramtrica es una combinacin lineal de
los parmetros = (
1
, . . . ,
m
)

= p
1

1
+ +p
m

m
= p

,
donde p = (p
1
, . . . , p
m
)

. Una funcin paramtrica es estimable si existe


una combinacin lineal

de y = (y
1
, . . . , y
n
)

= a
1
y
1
+ + a
n
y
n
= a

y,
donde a = (a
1
, . . . , a
n
)

, tal que
E(

) = .
La caracterizacin de que una funcin paramtrica es estimable es la
siguiente
Proposition 15.1.1 Una funcin paramtrica = p

es estimable si y
slo si el vector la p

es combinacin lineal de las las de la matriz de


diseo X.
233
234 CAPTULO 15. FUNCIONES ESTIMABLES MULTIVARIANTES
Demost.: E(

) = E(a

y) = a

E(y) = a

X = p

, que vale para todo .


Por lo tanto a

X = p

, es decir, p

es combinacin lineal de las las de X.


15.2 Teorema de Gauss-Markov
La estimacin ptima de una funcin paramtrica estimable = p

se
obtiene sustituyendo por la estimacin LS

. Esto es el famoso teorema
de Gauss-Markov.
Theorem 15.2.1 Sea = p

una funcin paramtrica estimable. Se


verica:
1. Si

es estimador LS de , entonces

= p

es nico.
2.

= p

es estimador lineal insesgado de y, dentro de los estimadores


lineales insesgados de , tiene varianza mnima.
Demost.: Existe un estimador insesgado

= a

y de = p

. Sea C
r
(X) el
subespacio generado por las columnas de X. Entonces a =a+b, donde a
C
r
(X) y b es ortogonal a C
r
(X). Consideremos al estimador a

y. Tenemos
E(

) = E(a

y) =E(a

y +b

y) =E(a

y) +b

X =E(a

y) =,
puesto que b

X = 0. Luego a

y es estimador centrado. Si a

1
y es otro esti-
mador centrado con a
1
C
r
(X), entonces E(a

y)E(a

y) = (a

)X = 0
a = a
1
, es decir, a

y es nico.
Por otro lado, e= y X

es ortogonal a C
r
(X) y a

e = a

y a

= 0
a

y = a

= p

. As

= a

y = p

es nico y centrado.
Finalmente, indicando
|a|
2
= a
2
1
+. . . +a
2
n
,
tenemos que
var(a

y) =|a|
2

2
= (|a|
2
+|b|
2
)
2
|a|
2

2
= var(a

y),
que prueba que

= p

tiene varianza mnima.


Un criterio para saber si p

es funcin paramtrica estimable es


p

(X

X)

X = p

.
15.3. FUNCIONES ESTIMABLES MULTIVARIANTES 235
15.3 Funciones estimables multivariantes
En el modelo lineal multivariante (14.1), tambin tiene inters la estimacin
de ciertas combinaciones lineales de los parmetros B. Indiquemos por y
1
, . . . , y
n
los vectores la de Y, y
1
, . . . ,
m
los vectores la de B,es decir:
Y =
_

_
y
1
.
.
.
y
n
_

_
, B =
_

_

1
.
.
.

m
_

_
.
Denition 15.3.1 Una funcin paramtrica multivariante es una combi-
nacin lineal de las las de B,

= p
1

1
+ +p
m

m
= p

B,
donde p = (p
1
, . . . , p
m
)

. Una funcin paramtrica multivariante es es-


timable (fpem) si existe una combinacin lineal

de las las de Y

= a
1
y
1
+ +a
n
y
n
= a

Y,
donde a = (a
1
, . . . , a
n
)

, tal que
E(

) = .
La caracterizacin de que una funcin paramtrica es fpem es la sigu-
iente:
Proposition 15.3.1 Una funcin paramtrica

= p

B es estimable si y
slo si el vector la p

es combinacin lineal de las las de la matriz de diseo


X.
La demostracin es similar al caso univariante. La estimacin ptima de
una fpem

= p

B viene dada por

= p

B.
Slo hay que sustituir B por sus estimaciones LS

B.
Theorem 15.3.2 Sea

= (
1
, . . . ,
p
) = p

B una funcin paramtrica


estimable. Se verica:
236 CAPTULO 15. FUNCIONES ESTIMABLES MULTIVARIANTES
1. Si

B es estimador LS de B, entonces

= (

1
, . . . ,

p
) = p

B es nico.
2. Cada

j
es estimador lineal insesgado de
j
y de varianza mnima
entre los estimadores lineales insesgados de
j
.
Observemos que este teorema vale sin necesidad de una hiptesis de nor-
malidad. El estimador LS de es

= p

B = p

(X

X)

Y =g
1
y
1
+ +g
n
y
n
donde y
1
, . . . , y
n
son las las de la matriz de datos Y. El vector g = (g
1
, . . . , g
n
)

es nico, y podemos denir la dispersin de



, que es mnima, como la can-
tidad

= g
2
1
+ +g
2
n
. (15.1)
La versin del Teorema 14.3.1 para fpem es:
Theorem 15.3.3 En el modelo MANOVA normal, si

= p

B es la esti-
macin LS de , entonces:
1. La distribucin de

es la de una combinacin lineal de variables nor-
males independientes.
2. La distribucin de R
0
es W
p
(, n r).
3.

y R
0
son estocsticamente independientes.
15.4 Anlisis cannico de fpem
Supongamos que

1
= p

1
B, . . . ,

s
= p

s
Bes un sistema de s fpem. Podemos
plantear la representacin cannica del sistema como una generalizacin del
anlisis cannico de poblaciones.
15.4.1 Distancia de Mahalanobis
Sean

1
, . . . ,

s
las estimaciones LS de los fpem,

= R
0
/(nr) la estimacin
de la matriz de covarianzas. Podemos denir la distancia de Mahalanobis
(estimada) entre las funciones
i
,
j
como
M(i, j)
2
= (

j
)

1
(

j
).
15.4. ANLISIS CANNICO DE FPEM 237
Observemos que si

i
= g

i
Y es independiente de

j
= g

j
Y y se verica
la hiptesis H
0
:
i
=
j
, entonces
1
ij
(

j
) es N
p
(0, ), donde
ij
=
|g
i
g
j
| , y (n r)

es W
p
(, n r), por lo tanto
1
ij
M(i, j) es Hotelling
T
2
(p, n r) y
n r p + 1
(n r)p

1
ij
M(i, j)
2
F
p
nrp+1
.
Anlogamente vemos que la distribucin de
n r p + 1
(n r)p
1

i
)

1
(

i
)
es tambin F
p
nrp+1
, donde
2

es la dispersin mnima (15.1).


15.4.2 Coordenadas cannicas
Si

i
= (

i1
, . . . ,

ip
)

, i = 1, . . . , s, consideremos las medias

j
=
1
s
s

i=1

ij
, j = 1, . . . , s,
y la matriz
U =
_
_
_

11

1p

p
.
.
.
.
.
.
.
.
.

s1

sp

p
_
_
_
.
Sea V = [v
1
, . . . , v
p
] la matriz de vectores propios de U

Urespecto de

, con
la normalizacin v

v
j
= 1, es decir,
U

UV =

VD

, V

V = I,
donde D

=diag(
1
, . . . ,
p
) es la matriz diagonal con los valores propios. Las
coordenadas cannicas de

1
, . . . ,

s
son las las w

1
, . . . , w

s
de la matriz
W = UV.
La distancia eucldea entre las las coincide con la distancia de Mahalanobis
entre las fpem
(w
i
w
j
)

(w
i
w
j
) = (

j
)

1
(

j
).
238 CAPTULO 15. FUNCIONES ESTIMABLES MULTIVARIANTES
De manera anloga podemos denir la variabilidad geomtrica de las fpem,
probando que es
V

=
1
2s
2
s

i,j=1
M(i, j)
2
=
1
s
p

i=1

i
,
y que es mxima en dimensin reducida q. El porcentaje de variabilidad
explicada por las q primeras coordenadas cannicas es
P
q
= 100
V (Y)
q
V

= 100

1
+ +
q

1
+ +
p
.
15.4.3 Regiones condenciales
Sean w

i
=

i
V, i = 1, . . . , s, las proyecciones cannicas de las estimaciones
de las fpem. Podemos entender w

i
como una estimacin de

i
=

i
V, la
proyeccin cannica de
i
. Podemos tambin encontrar regiones conden-
ciales para las

i
, i = 1, . . . , g.
Sea 1 el coeciente de conanza, F

tal que P(F > F

) = , donde
F sigue la distribucin F con p y (n g p + 1) g.l., y consideremos:
R
2

= F

(n r)p
(n r p + 1)
.
Luego las proyecciones cannicas

i
de las fpem pertenecen a regiones con-
denciales que son hiperesferas (esferas en dimensin 3, crculos en dimensin
2) de centros y radios
(w
i
,
i
R

)
donde
i
es la dispersin mnima (15.1) de la estimacin LS de
i
.
15.5 Ejemplos
Ejemplo 1. Se quiere hacer una comparacin de dos frmacos ansiolticos
(Diazepan y Clobazan) con un placebo, que indicaremos D, C, P. Las vari-
ables observables son efectos secundarios en la conduccin de autombiles:
Y
1
=tiempos de reaccin (segundos) a la puesta en rojo de un semforo,
Y
2
=distancia mnima (cm.) entre dos puntos que el conductor necesitaba
15.5. EJEMPLOS 239
para poder pasar por el medio. Los datos sobre 8 individuos (media de varias
pruebas) eran:
Placebo Clobazan Diazepan
Ind.
1
2
3
4
5
6
7
8
Y
1
Y
2
.548 177.8
.619 184.4
.641 247.2
.628 163.4
.846 173.6
.517 167.2
.876 174.0
.602 158.6
Y
1
Y
2
.519 203.0
.776 164.8
.678 215.8
.595 153.6
.858 171.6
.493 166.0
.741 170.2
.719 157.2
Y
1
Y
2
.637 194.8
.818 175.2
.701 205.8
.687 152.2
.855 189.2
.618 181.0
.849 189.0
.731 184.6
Los datos se ajustan a un diseo de dos factores sin interaccin:
y
ij
= +
i
+
j
+e
ij
.
Interesa estudiar si hay diferencias signicativas entre los frmacos, y si las
hay, representarlos y compararlos. Es decir, queremos hacer un test sobre la
hiptesis H
0
:
1
=
2
=
3
y representar las funciones estimables

1
= +
1
,
2
= +
2
,
3
= +
3
.
La tabla MANOVA es:
g. l. matriz dispersin lambda F g.l.
Frmacos 2
_
.0275 1.97
309
_
.482 2.86 4,26
Individuos 7
_
.258 1.23
8474
_
.025 9.84 14,26
Residuo 14
_
.037 1.96
2221
_
Las diferencias entre frmacos y entre individuos son signicativas
Las estimaciones LS son:

1
= (.659, 180.8)

2
= (.672, 175.3)

3
= (.737, 184.0)

,
con dispersin (15.1):
1
=
2
=
3
=
_
1/8 = 0.354. Los dos valores propios
de U

U respecto de

son 1. 684, 0.108 y explican el 100% de la variabilidad
240 CAPTULO 15. FUNCIONES ESTIMABLES MULTIVARIANTES
Figura 15.1: Representacin canonica de tres frmacos en un diseo de dos
factores.
geomtrica en dimensin 2. Las coordenadas y los radios de la representacin
cannica (izquierda) y las correlaciones entre variables observables Y
1
, Y
2
, Y
3
y cannicas W
1
, W
2
(derecha) son:
Frmaco Y
1
Y
2
radio W
1
W
2
Placebo 19.73 8.91 0.86 Y
1
.869 -.494
Clobazan 19.75 8.44 0.86 Y
2
.296 .955
Diazepan 21.32 8.68 0.86
La representacin cannica indica que no hay diferencias entre P y C. En
cambio D se diferencia signicativamente de P. Puesto que las variables miden
efectos secundarios, resulta que C no los tiene, pero D s (Fig. 15.1).
Ejemplo 2. Continuando con el ejemplo 14.7.1, queremos hacer la repre-
sentacin cannica de los tres niveles de la temperatura. Los valores propios
de U

U respecto de

son 2.529, 1.375, que explican el 100% de la variabili-
dad geomtrica (Fig. 15.2). Las coordenadas y los radios de la representacin
cannica (izquierda) y las correlaciones entre variables observables Y
1
, Y
2
, Y
3
y cannicas W
1
, W
2
(derecha) son:
temp W
1
W
2
radio W
1
W
2
4 -.539 -.871 1.29 Y
1
.395 .278
20 1.29 .091 1.29 Y
2
.961 -.276
34 -.753 .779 1.29 Y
3
.405 .653
Ejemplo 3. Continuando con el ejemplo 14.7.2, podemos hacer la rep-
resentacin cannica de las ocho especies, eliminando el efecto del sexo y
15.6. COMPLEMENTOS 241
Figura 15.2: Representacin cannica de los efectos principales de las tem-
peraturas.
de la interaccin. Los dos primeros valores propios de U

U respecto de

son 201.67, 28.054, que explican el 98.2% de la variabilidad geomtrica (Fig.


13.3). Las coordenadas y los radios de la representacin cannica (izquierda)
y las correlaciones entre variables observables y cannicas (derecha) son:
Especie W
1
W
2
radio W
1
W
2
1 -4.567 -1.164 .342 Y
1
.600 .115
2 -3.760 -.5129 .342 Y
2
.661 .450
3 -1.944 -1.031 .418 Y
3
.453 .698
4 -2.613 1.536 .342 Y
4
.804 .522
5 -2.299 1.731 .342 Y
5
.748 .522
6 -1.705 .6381 .342
7 6.828 -3.671 .503
8 10.06 2.475 .342
Esta representacin permite visualizar las diferencias entre las especies, sin
la inuencia del dimorsmo sexual y de la interaccin especiesexo.
15.6 Complementos
El teorema de Gauss-Markov se puede generalizar de diversas maneras al
caso multivariante. Ver Mardia et al. (1979), Rencher (1998).
La representacin de funciones paramtricas estimables multivariantes fue
propuesta por Cuadras (1974). Ver Cuadras et al. (1996) y otras generaliza-
ciones en Lejeune y Calinski (2000), Arenas y Cuadras (2003).
242 CAPTULO 15. FUNCIONES ESTIMABLES MULTIVARIANTES
Figura 15.3: Representacin canonica de 8 especies de colepteros, elimi-
nando el efecto del dimorsmo sexual y de la interaccin.
Bibliograa
[1] Anderson, T.W. (1958) An introduction to multivariate analysis. J. Wi-
ley, N. York.
[2] Anderson, T.W. and H. Rubin (1956) Statistical inference in factor
analysis. Proc. of the Third Berkeley Symposium on Math. Stat. and
Prob., vol. 5, 111-150.
[3] Arenas, C. and Cuadras, C. M. (2004) Comparing two methods for
joint representation of multivariate data. Comm. Stat. Comp. Simul.,
33, 415-430.
[4] Batista, J.M. and G. Coenders (2000) Modelos de Ecuaciones Estruc-
turales. La Muralla, Madrid.
[5] Benzecri, J.P. (1976) LAnalyse des Donnes. I. La Taxinomie. II.
LAnalyse des Correspondances. Dunod, Paris.
[6] Cailliez, F. (1983) The analytical solution of the additive constant prob-
lem. Psychometrika, 48, 305-308.
[7] Cooley, W.W. and P.R. Lohnes (1971) Multivariate data analysis. J.
Wiley, N. York.
[8] Cox, T.F. and M.A.A. Cox (1964) Multidimensional Scaling. Chapman
and Hall, London.
[9] Critchley, F. and W. Heiser (1988) Hierarchical trees can be scaled per-
fectly in one dimension. J. of Classication, 5, 5-20.
[10] Cuadras, C.M. (1974) Anlisis discriminante de funciones paramtricas
estimables. Trab. Esta. Inv. Oper., 25, 3-31.
243
244 BIBLIOGRAFIA
[11] Cuadras, C.M. (1981) Mtodos de Anlisis Multivariante. Eunibar,
Barcelona. 3a Ed. EUB, Barcelona, 1996.
[12] Cuadras, C.M. (1988) Distancias estadsticas (con discusin) . Estads-
tica Espaola, 30, 295-378.
[13] Cuadras, C.M. (1989) Distance analysis in discrimination and classi-
cation using both continuous and categorical variables. In: Y. Dodge
(Ed.), Statistical Data Analysis and Inference, pp. 459473. Elsevier
Science Publishers B. V. (NorthHolland), Amsterdam.
[14] Cuadras, C.M. (1991) Ejemplos y aplicaciones inslitas en regresin y
correlacin. Qesti, 15, 367-382.
[15] Cuadras, C.M. (1992a) Probability distributions with given multivariate
marginals and given dependence structure. J. Multivariate Analysis, 42,
51-66.
[16] Cuadras, C.M (1992b) Some examples of distance based discrimination.
Biometrical Letters, 29, 3-20.
[17] Cuadras, C.M. (1993) Interpreting an inequality in multiple regression.
The American Statistician, 47, 256-258.
[18] Cuadras, C.M. (1998) Multidimensional dependencies in ordination and
classication. In: K. Fernndez and E. Morinneau (Eds.), Analyses Mul-
tidimensionnelles des Donnes, pp.15-26, CISIA-Ceresta, Saint Mand
(France).
[19] Cuadras, C.M. (2000) Problemas de probabilidades y estadstica. Vol.
2. EUB, Barcelona.
[20] Cuadras, C.M. (2002a) On the covariance between functions. J. of Mul-
tivariate Analysis, 81, 19-27.
[21] Cuadras, C.M. (2002b) Correspondence analysis and diagonal expan-
sions in terms of distribution functions. J. of Statistical Planning and
Inference, 103, 137-150.
[22] Cuadras, C. M. (2005) Continuous canonical correlation analysis. Re-
search Letters in Information and Mathematical Sciences, 8, 97-103.
BIBLIOGRAFIA 245
[23] Cuadras, C. M. (2006) The importance of being the upper bound in the
bivariate family. SORT, 30, 55-84.
[24] Cuadras, C.M. and C. Arenas (1990) A distance based regression model
for prediction with mixed data. Comm. Stat.-Theor. Meth., 19, 2261-
2279.
[25] Cuadras, C.M., Atkinson, R.A. and J. Fortiana (1997) Probability den-
sities from distances and discriminant analysis. Statistics and Probability
Letters, 33, 405-411.
[26] Cuadras, C.M. and J. Aug (1981) A continuous general multivariate
distribution and its properties. Commun. Stat.-Theor. Meth, A10, 339-
353.
[27] Cuadras. C. M., Cuadras, D. (2006) A parametric approach to corre-
spondence analysis. Linear Algebra and its Applications, 417, 64-74.
[28] Cuadras, C.M., Arenas, C. and J. Fortiana (1996) Some computational
aspects of a distance-based model for prediction. Comm. Stat.-Simul.
Comp., 25, 593-609.
[29] Cuadras, C.M. and J. Fortiana (1993a) Continuous metric scaling and
prediction. In: C.M. Cuadras and C.R. Rao (Eds.), Multivariate Analy-
sis, Future Directions 2, pp. 4766. Elsevier Science Publishers B. V.
(NorthHolland), Amsterdam.
[30] Cuadras, C. M. and J. Fortiana (1993b) Aplicacin de las distancias en
estadstica. Questi, 17, 39-74.
[31] Cuadras, C. M. and J. Fortiana (1994) Ascertaining the underlying dis-
tribution of a data set. In: R. Gutierrez and M.J. Valderrama (Eds.),
Selected Topics on Stochastic Modelling, pp. 223-230. World-Scientic,
Singapore.
[32] Cuadras, C. M. and J. Fortiana (1995) A continuous metric scaling
solution for a random variable. J. of Multivariate Analysis, 52, 114.
[33] Cuadras, C. M. and J. Fortiana (1996) Weighted continuous metric scal-
ing. In: Gupta, A. K. and V. L. Girko (Eds.), Multidimensional Statis-
tical Analysis and Theory of Random Matrices, pp. 2740. VSP, Zeist,
The Netherlands.
246 BIBLIOGRAFIA
[34] Cuadras, C.M. and J. Fortiana (1998) Visualizing categorical data with
related metric scaling. In: J. Blasius and M. Greenacre, (Eds.), Visual-
ization of Categorical Data, pp. 365-376. Academic Press, N. York.
[35] Cuadras, C.M. and J. Fortiana (2000) The Importance of Geometry
in Multivariate Analysis and some Applications. In: C.R. Rao and
G. Szekely, (Eds.), Statistics for the 21st Century, pp. 93-108. Marcel
Dekker, N. York.
[36] Cuadras, C. M., Fortiana, J. and M.J. Greenacre (2000) Continuous
extensions of matrix formulations in correspondence analysis, with ap-
plications to the FGM family of distributions. In: R.D.H. Heijmans,
D.S.G. Pollock and A. Satorra, (Eds.), Innovations in Multivariate Sta-
tistical Analysis, pp. 101-116. Kluwer Ac. Publ., Dordrecht.
[37] Cuadras, C. M., Cuadras, D., Greenacre, M. A. (2006) Comparison of
dierent methods for representing categorical data. Communications in
Statistics-Simul. and Comp., 35 (2), 447-459.
[38] Cuadras, C. M., Fortiana, J. and F. Oliva (1996) Representation of sta-
tistical structures, classication and prediction using multidimensional
scaling. In: W. Gaul, D. Pfeifer (Eds.), From Data to Knowledge, pp.
20-31. Springer, Berlin.
[39] Cuadras, C. M., Fortiana, J. and F. Oliva (1997) The proximity of an
individual to a population with applications in discriminant analysis. J.
of Classication, 14, 117-136.
[40] Cuadras, C.M. and Y. Lahlou (2000) Some orthogonal expansions for
the logistic distribution. Comm. Stat.-Theor. Meth., 29, 2643-2663.
[41] Cuadras, C.M. and J. M. Oller (1987) Eigenanalysis and metric multi-
dimensional scaling on hierarchical structures. Questio, 11, 37-57.
[42] Cuadras, C.M. and M. Snchez-Turet (1975) Aplicaciones del anlisis
multivariante cannico en la investigacin psicolgica. Rev. Psicol. Gen.
Aplic., 30, 371-382.
[43] Chatterjee, S. and B. Price (1991) Regression analysis by example. Wiley,
N. York.
BIBLIOGRAFIA 247
[44] Everitt, B.S. (1993). Cluster analysis. Edward Arnold, London.
[45] Flury, B. (1997) A rst course in multivariate statistics. Springer, N.
York.
[46] Fortiana, J. and C. M. Cuadras (1997) A family of matrices, the dis-
cretized Brownian Bridge and distance-based regression. Linear Algebra
and its Applications, 264, 173-188.
[47] Gittings, R. (1985) Canonical Analysis. A Review with Applications in
Ecology. Springer-Verlag, Berlin.
[48] Gordon, A.D. (1999) Classication. Chapman and Hall, London.
[49] Gower, J.C. (1966) Some distance properties of latent roots and vector
methods in multivariate analysis. Biometrika, 53, 315-328.
[50] Greenacre, M.J. (1984) Theory and Applications of Correspondence
Analysis. Academic Press, London.
[51] Hastie, T. and R.J. Tibshirani (1990) Generalized Additive Models.
Chapman and Hall, London.
[52] Harman, H. H. (1976) Modern Factor Analysis. The Univ. Chicago
Press, Chicago, 3a edic.
[53] Hill, M.O. (1973) Reciprocal averaging: an eigenvector method of ordi-
nation. J. of Ecology, 61, 237-249.
[54] Holman, E.W. (1972) The relation between Hierarchical and Euclidean
models for psychological distances. Psychometrika, 37, 417-423.
[55] Hutchinson, T.P. and C.D. Lai (1991) The Engineering Statisticians
Guide to Continuous Bivariate Distributions. Rumsby Scientic Pub.,
Adelaide.
[56] Joe, H. (1997) Multivariate Models and Dependence Concepts. Chapman
and Hall, London.
[57] Joreskog, K. (1967) Some contributions to maximum likelihood factor
analysis. Psychometrika, 32, 443-482.
248 BIBLIOGRAFIA
[58] Joreskog, K. (1969) A general approach to conrmatory maximum like-
lihood factor analysis. Psychometrika, 34, 183-202.
[59] Joreskog, K. (1970) A general method for analysis of covarianvce struc-
tures. Biometrika, 57, 239-251.
[60] Joreskog, K, Sorbom, D. (1999) LISREL 8: A Guide to the Program
and Applications. Scientic Sotware International, Inc., Chicago.
[61] Krzanowski, W.J. and D. Radley (1989) Nonparametric condence and
tolerance regions in canonical variate analysis. Biometrics, 45, 1163-
1173.
[62] Lancaster, H.O. (1969) The Chi-Squared Distribution. J. Wiley, N. York.
[63] Lebart, L., Morineau, A. and Tabard, N. (1977) Techniques de la de-
scription statistique. Dunod, Paris.
[64] Lawley, D.N. and A.E. Maxwell. (1971) Factor analysis as a statistical
method. Butterworth, London.
[65] Leujene, M. and Calinski, T. (2000) Canonical analysis applied to mul-
tivariate analysis of variance. J. of Multivariate Analysis, 72, 100-119.
[66] Mardia, K.V., Kent, J.T. and J.M. Bibby (1979) Multivariate Analysis.
Academic Press, London.
[67] Muirhead, R.J. (1982) Aspects of multivariate statistical theory. Wiley,
N. York.
[68] McLachlan, G.J. (1992) Discriminant analysis and pattern recognition.
Wiley, N. York.
[69] Oller, J.M. (1987) Information metric for extreme values and logistic
distributions. Sankhya, 49 A, 17-23.
[70] Oller, J.M. and C.M. Cuadras (1985) Raos distance for negative
multinomial distributions. Sankhya, 47 A, 75-83.
[71] Pea, D. (1989) Estadstica Modelos y Mtodos 2. Modelos lineales y
series temporales. Alianza Universidad Textos, 2a Ed., Madrid.
BIBLIOGRAFIA 249
[72] Pea, D. (2002) Anlisis de Datos Multivariantes. McGraw Hill Inter-
americana, Madrid.
[73] Rao, C.R. (1952) Advanced statistical methods in biometric research.
Wiley, N. York.
[74] Rao, C.R. (1973) Linear statistical inference and their applications. Wi-
ley, N. York.
[75] Rao, C. R. (1995) A review of canonical coordinates and an alternative
to correspondence analysis using Hellinger distance. Qestii, 19, 23-63.
[76] Rencher, A.C. (1998) Multivariate statistical inference and applications.
Wiley, N. York,.
[77] Rummel, R. J. (1963) The dimensions of conict behavior within and
between nations. General Systems Yearbook, 8, 1-50.
[78] Snchez.-Turet, M. and Cuadras, C. M. (1972) Adaptacin espaola del
cuestionario E.P.I. de Eysenck. Anuario de Psicologa, 6, 31-59.
[79] Satorra, A. (1989) Alternative test criteria in covariance structure analy-
sis: A unied approach. Psychometrika, 54, 131-151.
[80] Seal, H.L. (1964) Multivariate Statistical Analysis for Biologists.
Methuen and Co. Ltd., London.
[81] Seber, G.A.F. (1977) Linear Regression Analysis. J. Wiley, N. York.
[82] Spearman, Ch. (1904) General intelligence objetively determined and
measured. American Journal of Psychology, 15, 201-293.
[83] Tibshirani, R., Walther, G. and Hastie, T. (2001) Estimating the number
of clusters in a data set via the gap statistic. J. R. Stat. Soc. B, 63, 411-
423.
[84] Torrens-Ibern, J. (1972) Modles et mthodes de lanalyse factorielle.
Dunod, Paris.
[85] van der Heijden, PG.M. and J. de Leuw (1985) Correspondence analysis
used complementary to loglinear analysis. Psychometrika, 50, 429-447.

También podría gustarte