El análisis factorial (AF) es una técnica de análisis multivariante que se utiliza para el estudio e interpretación de las correlaciones entre un grupo de variables. Parte de la idea de que dichas correlaciones no son aleatorias sino que se deben a la existencia de factores comunes entre ellas. El objetivo del AF es la identificación y cuantificación de dichos factores comunes.
Por ejemplo, hay fenómenos como estilo de vida, imagen de un producto, actitudes de compra, nivel socioeconómico, que es necesario conocer pero que no se pueden medir con una sola pregunta, porque se trata de fenómenos complejos que se manifiestan en infinidad de situaciones, sentimientos, comportamientos y opiniones concretas. Estos fenómenos son el resultado de la medición de un conjunto de características. El AF nos permitirá combinar preguntas de manera que podamos obtener nuevas variables o factores que no son directamente medibles pero que tienen un significado.
Se trata de una técnica adecuada para el caso de variables continuas altamente correlacionadas.
El modelo matemático del AF supone que cada una de las p variables observadas es función de un número m factores comunes (m < p) más un factor específico o único. Tanto los factores comunes como los específicos no son observables y su determinación e interpretación es el resultado del AF.
Analíticamente, supondremos un total de p variables observables tipificadas y la existencia de m factores comunes. El modelo se define de la siguiente forma:
X1 = l11 F1 +
l12 F2 + l1m Fm +
e1
X2 = l21 F1 +
l22 F2 + l2m Fm +
e2
...
Xp = lp1 F1
+ lp2 F2 + lpm Fm +
ep
que podemos expresar de forma matricial como: X = Lf + e
donde:
Como tanto los factores comunes como los específicos son variables hipotéticas, supondremos, para simplificar el problema, que:
Basándonos en el modelo y en las hipótesis formuladas, podemos demostrar que la varianza (información contenida en una variable) de cada variable se puede descomponer en:
Var(xj ) = 1 = l 2j1 Var(F1 ) + l 2j2 Var(F2 ) + ... + l 2jm Var(Fm ) + Var(ej ) = l 2j1 + l 2j2 + l 2jm + Var(ej )
donde:
El objetivo del AF será, por tanto, obtener los factores comunes de modo que expliquen una buena parte de la variabilidad total de las variables.
Un AF resultará adecuado cuando existan altas correlaciones entre las variables, que es cuando podemos suponer que se explican por factores comunes. El análisis de la matriz de correlaciones será pues el primer paso a dar. Analíticamente, podemos comprobar el grado de correlación con las siguientes pruebas o test:
Es necesario suponer la normalidad de las variables. Contrasta la H0 de que la matriz de correlaciones es una matriz identidad (incorrelación lineal entre las variables). Si, como resultado del contraste, no pudiésemos rechazar esta H0, y el tamaño de la muestra fuese razonablemente grande, deberíamos reconsiderar la realización de un AF, ya que las variables no están correlacionadas.
El estadístico de contraste del test de Bartlett es:
B = - ( n - 1 - (2p + 5)/6 ) ln |
R* |
bajo la hipótesis nula
resulta X 2(p2 -
p)/2
donde:
KMO se calcula como:
donde:
Estos coeficientes miden la correlación existente entre las variables j e i, una vez eliminada la influencia que las restantes variables ejercen sobre ellas. Estos efectos pueden interpretarse como los efectos correspondientes a los factores comunes, y por tanto, al eliminarlos, aji - representará la correlación entre los factores únicos de las dos variables, que teóricamente tendría que ser nula. Si hubiese correlación entre las variables (en cuyo caso resultaría apropiado un AF), estos coeficientes deberían estar próximos a 0, lo que arrojaría un KMO próximo a 1. Por el contrario, valores del KMO próximos a 0 desaconsejarían el AF.
Está comúnmente aceptado que:
Este índice es similar al KMO, pero para cada variable. La j-ésima variable de MSA viene dada por la siguiente expresión:
Si el valor del MSA fuera pequeño, no se aconsejaría el AF. Por el contrario, valores próximos a 1 indicarían que la variable Xj es adecuada para incluirla con el resto en un AF. En muchas ocasiones, se eliminan las variables con MSA muy bajo. (diagonal principal de la matriz de correlación anti-imagen).
El coeficiente de correlación antiimagen es el negativo del coeficiente de correlación parcial entre dos variables. Si existiesen factores comunes, esperaríamos pequeños coeficientes de correlación parcial. Por ello, el AF es aplicable cuando en la matriz de correlaciones antiimagen hay muchos coeficientes pequeños.
Existen distintos métodos de estimación de los coeficientes de la matriz factorial L: los más comunes (para un AF exploratorio) son el método de las Componentes Principales y el método de Ejes Factoriales.
Para proceder a la estimación de los coeficientes factoriales vamos a partir de la identidad fundamental del AF proporcionada por Thurstone en 1.947:
R = LL' + w
donde:
Consideramos una transformación de R: R - w = LL' = R* (matriz de correlación reducida) cuyos elementos diagonales son las comunalidades y el resto, los coeficientes de correlación lineal entre las variables originales. La idea consiste en determinar L partiendo de alguna estimación para R*, y a partir de ella calcular los coeficientes de la matriz L. Podemos optar por dos métodos:
El método de componentes principales se basa en suponer que los factores comunes explican el comportamiento de las variables originales en su totalidad de manera que el modelo es:
X = Lf
Las comunalidades iniciales de cada variable son igual a 1, porque el 100% de la variabilidad de las p variables se explicará por los p factores. Evidentemente, carecería de interés sustituir las p variables originales por p factores que, en ocasiones, son de difícil interpretación. No obstante, si las correlaciones entre las p variables fuesen muy altas, sería de esperar que unos pocos factores explicasen gran parte de la variabilidad total. Supongamos que decidimos seleccionar r factores. La comunalidad final de cada variable indicará la proporción de variabilidad total que explican los r factores finalmente seleccionados.
La estimación de los coeficientes l j se obtiene diagonalizando la matriz de correlaciones.
En este método partimos de la base de que sólo una parte de la variabilidad total de cada variable depende de factores comunes y, por tanto, la comunalidad inicial no será 1. Estima dichas comunalidades mediante los coeficientes de determinación múltiple de cada variable con el resto. Se sustituyen estos valores en la diagonal principal de la matriz R* y se procede a efectuar un ACP. Una vez obtenido el resultado, se estiman de nuevo las comunalidades, se vuelven a sustituir en la diagonal principal de la matriz R* y el proceso se retroalimenta hasta alcanzar un criterio de parada (por ejemplo cuando la diferencia entre lasa comunalidades de dos iteraciones sucesivas sea menor que una cantidad prefijada).
La elección de uno u otro método (ACP o PAF) depende de los objetivos del AF. Así el ACP es adecuado cuando el objetivo es resumir la mayoría de la información original (varianza total) con una cantidad mínima de factores con propósitos de predicción. El AFC resulta adecuado para identificar los factores subyacentes o las dimensiones que reflejan qué tienen en común las variables. El inconveniente del método PAF es que el cálculo de las comunalidades requiere mucho tiempo y muchos recursos informáticos y, además, no siempre se pueden estimar o, incluso, pueden ser no válidas (comunalidades menores que 0 o mayores que 1).
Empíricamente, se llega a resultados muy parecidos cuando el número de variables excede de 30 o las varianzas compartidas exceden de 0.6 para la mayoría de las variables.
La interpretación de los resultados del AF se basará en el análisis de las correlaciones entre las variables y los factores que como sabemos viene dado por las cargas factoriales.
Para que dicha interpretación sea factible, es recomendable que:
Así, si con la solución inicial no se consiguiese una fácil interpretación de los factores, éstos pueden ser rotados de manera que cada una de las variables tenga una correlación lo más próxima a 1 con un factor y a 0 con el resto de factores. Como hay menos factores que variables, conseguiremos que cada factor tenga altas correlaciones con un grupo de variables y baja con el resto. Si examinásemos las características de las variables de un grupo asociado a un factor, se podrían encontrar rasgos comunes que permitan identificar el factor y darle una denominación que responda a esos rasgos comunes. Así, conseguiremos desvelar la naturaleza de las interrelaciones existentes entre las variables originales. Los tipos de rotaciones más habituales son la ortogonal y la oblicua.
La rotación ortogonal permite rotar los factores estimados inicialmente, de manera que se mantenga la incorrelación entre los mismos. El método más utilizado de rotación es la varimax (Varianza máxima), ideado por Kaiser. La rotación oblícua no mantiene la ortogonalidad de los factores, lo que nos lleva a aceptar que dos o más factores expliquen a la vez una misma realidad. Las comunalidades finales de cada variable permanecen inalteradas con la rotación.
Una vez estimados los factores comunes, es importante calcular las puntuaciones de los sujetos (individuos u objetos) investigados para saber cuánto puntúan en cada factor. Así, podremos: