DESARROLLO DEL ANÁLISIS FACTORIAL MULTIVARIABLE APLICADO AL ANÁLISIS FINANCIERO ACTUAL
Alberto Ibarra Mares
Esta página muestra parte del texto pero sin formato.
Puede bajarse el libro completo en PDF comprimido ZIP (211 páginas, 1.08 Mb) pulsando aquí
La justificación de la aplicación de métodos multivariables dentro del análisis financiero para determinar la probabilidad del fracaso o éxito empresarial, parte de la base de que se trata de un tema complejo al interactuar varios factores simultáneamente y combinados entre sí, como por ejemplo: la falta de liquidez con la falta de beneficios; o bien, una estructura financiera “sobreapalancada” y una estructura económica “sobrefinanciada” que puede llevar a la empresa a su liquidación. Sin embargo, aunque estos elementos son negativos y supuestos lógicos para que fracase cualquier empresa, el principal problema radica en determinar el peso específico o la contribución marginal que tienen cada uno de ellos dentro del modelo predictivo.
Con base en lo anterior, una metodología adecuada exige la observación conjunta del desarrollo de éstos y otros factores. También es importante que se intente determinar un perfil sobre las características conjuntas de esas variables explicativas, las cuales se muestran de forma distinta en cada empresa en función de que el individuo observado presente o no tal condición (Lizarraga: 1996, p. 93).
Entre las principales clasificaciones utilizadas en los modelos multivariables están las que los divide en: a) métodos descriptivos o exploratorios (no se establece ninguna hipótesis previa); y b) métodos explicativos o confirmatorios (se basan en un marco teórico para fundamentar y validar empíricamente una hipótesis). Otra importante clasificación, y que es la que hemos tomado en cuenta, es la que divide a los métodos en: a) métodos reductivos (análisis factorial, componentes principales, correlación canónica, análisis de clusters, análisis de correspondencias); y b) métodos de dependencia (análisis de la varianza, análisis de la covarianza, regresión múltiple, análisis discriminante, análisis de probabilidad condicional Logit y análisis de probabilidad condicional Probit).
La selección adecuada de la técnica multivariable para un modelo predictivo está en función principalmente de la forma que presente la variable dependiente y la base de datos con la que se estiman las variables independientes. Por ejemplo, cuando la variable dependiente tiene una forma continua se utiliza la regresión. En cambio, cuando dicha variable presenta una forma categórica se puede utilizar el análisis discriminante, el análisis logit o el análisis probit.
En cuanto a la regresión múltiple, cuya forma es continua, se considera como uno de los métodos multivariables más simples aunque de tipo muy general. Este método muestra en qué medida la variabilidad conjunta de las variables independientes explica la variación de la variable dependiente. Aquí el problema radica en que no siempre en los modelos predictivos la variable dependiente permite la asignación de valores de significación numérica de rango continúo, sobre todo en el instante de definir a la unidad temporal de las empresas fracasadas, pues el momento del fracaso no es exacto o puntual. Ante esta situación, que es muy común que se presente, numerosos trabajos de investigación se han encaminado a expresar a la variable dependiente como dicotómica, con el fin de limitar la complejidad del modelo y poder aplicar la técnica de regresión. Una vez llevado a cabo esto, es posible también utilizar otras técnicas importantes como el análisis discriminante, el análisis logit y el análisis probit. Estos dos últimos de hecho son variantes de la regresión que se pueden aplicar a variables categóricas. También algunos investigadores han considerado que el análisis discriminante es una adaptación de la regresión en los casos en que la variable dependiente es cualitativa.
Sin embargo, cuando el problema no radica exactamente en la variable dependiente, sino en la selección de las variables independientes, se debe seleccionar un método reductivo. Es importante mencionar que en el caso de este estudio nos enfocamos a seleccionar el método reductivo del factorial, dado que lo que interesa es reducir el número de ratios y de factores a partir de una base de datos contable reexpresada, con el fin de obtener para posteriores etapas indicadores estándar de un sector productivo específico que cotice en la Bolsa Mexicana de Valores. Posteriormente, estos indicadores representarán un punto de partida para contrastarlos con otras empresas, que aunque no coticen en bolsa, pertenezcan al tamaño y sector de la muestra original seleccionada. Al final, el propósito es definir una función lineal muy específica para analizar el sector hotelero complejo mexicano, para lo cual dicha función incluiría las variables independientes más representativas para evaluar a este tipo de empresas.
A partir de Spearman (1904) se estableció el inicio del análisis factorial cuando en su estudio sobre la inteligencia distinguió un factor general con respecto a un cierto número de factores específicos. Este autor había considerado como antecedentes teóricos las técnicas de regresión lineal propuestas por Galton (1888). Por otra parte, Pearson (1901) propuso el método de componentes principales como un primer paso previo para llevar a cabo las estimaciones del análisis factorial. Posteriormente, Hotelling (1933) aplicó el método de extracción de factores mediante la técnica de componentes principales, la cual hasta nuestros días se ha confirmado como una de las más aceptadas entre los diversos trabajos predictivos. La relación entre las correlaciones y las saturaciones de las variables en los factores fue expuesta por Thurstone (1947). Este autor introdujo la idea de la estructura simple, así como la teoría y el método de las rotaciones factoriales ortogonales y oblicuas con el objetivo de obtener una estructura factorial más sencilla para facilitar la interpretación de los factores. Por último, otra aportación importante relacionada con este tipo de análisis fue la de Keiser (1958), quien desarrolló una serie de procedimientos matemáticos mediante el método varimax para llevar a cabo las rotaciones ortogonales, pues antes de sus trabajos dichas rotaciones únicamente eran gráficas.
Dentro del campo de estudio sobre el fracaso empresarial, el trabajo de Libby (1975) representó una de las primeras investigaciones en donde se aplicó el análisis factorial mediante el método de componentes principales antes de aplicar el análisis factorial común.
Como sabemos, un problema que se presenta en los modelos predictivos es que al utilizarse numerosas variables independientes se origina la multicolinealidad y esto afecta negativamente a los coeficientes estimados e impide valorar la importancia relativa de cada ratio. El análisis factorial de componentes principales, que es una técnica estadística reductiva muy aceptada en los estudios predictivos, se utiliza en este trabajo como la técnica multivariable principal para tratar de limitar los anteriores problemas, reduciendo el conjunto de variables independientes a un pequeño conjunto de factores subalternos que agrupen las variables originales dentro de los conjuntos llamados simplemente: “componentes” o “factores”.
En términos generales, la técnica factorial resume la información contenida en una matriz de datos con “V” variables, identificando un pequeño número de factores “F”, para lo cual “F < V”. El modelo matemático de esta técnica es el siguiente:
Los factores comunes son variables independientes que representan las mejores variables originales en cuanto a la menor capacidad de pérdida de información y a la facilidad para su obtención. Con respecto a los factores únicos, estos son aquellos que no están correlacionados entre sí ni con ninguno de los factores comunes. En el supuesto, que sería ilógico, de que todos los factores posibles se incluyeran en la solución, toda la variabilidad de cada variable quedaría explicada, y por lo tanto, no habría ningún factor único. Por otra parte, dentro del análisis de componentes principales, la proporción de la varianza explicada por los factores comunes (comunalidad de la variable) en los estadísticos iniciales es igual a 1 para todas las variables.
Antes de desarrollar el análisis de componentes principales, es importante considerar que para que se alcance una correcta aplicación del análisis factorial, en primer lugar es necesario cumplir dos condiciones básicas que son:
a) La parsimonia. Su fundamento radica en que los fenómenos tiene que poder explicarse con el menor número de elementos posibles, es decir, el número de factores debe ser el mínimo sin por ello perder información importante.
b) La interpretabilidad. Esto se refiere a que todos los factores tienen que tener capacidad de interpretación sustantiva.
Con base en lo anterior, se afirma que un análisis factorial eficiente es aquel que proporciona una solución factorial sencilla e interpretable. Este tipo de análisis no es un fin en sí mismo (excepto cuando se aplica el análisis de componentes principales), sino que se utiliza como un paso previo al análisis definitivo y por eso su alcance radica en determinar qué variables forman diferentes grupos o factores mutuamente independientes para su posterior incorporación en el análisis final, manteniendo el mayor porcentaje de información contenida o varianza explicada por las variables independientes originales.
Si partimos del principio fundamental del análisis factorial, el cual establece que la correlación observada entre las variables responde a que éstas comparten factores comunes, entonces es factible utilizar las correlaciones entre los factores y las variables, para estimar las correlaciones entre las variables.
En cuanto al tipo de análisis factorial, éstos se pueden dividir en dos tipos que son: el exploratorio y el confirmatorio. En el primero no se conocen los factores a priori y éstos se determinan a través del método “eigenvalue”. En cambio en el segundo, los factores que se establecen a priori contienen a las variables independientes originales, siendo el número de estas últimas mayor que el número de factores seleccionados (“V > F”). En general, el análisis factorial exploratorio se aplica cuando se tiene un desconocimiento teórico del objeto de estudio, y por lo tanto, el analista no tiene que formular ninguna hipótesis con respecto a la distribución de los pesos factoriales, pues éstos se deducirán a partir de los datos cumpliendo con los principios de simplicidad y parsimonia. Aquí los factores tienden a ser generalmente sencillas reformulaciones tautológicas de las variables originales, sin embargo, la interpretación se vuelve más difícil para el analista al desconocer los efectos que produce la covariación.
En cambio, en el análisis factorial confirmatorio sí se cuenta con información sobre las variables y sus intercorrelaciones, con lo cual se formulan hipótesis a priori que pueden ser contrastadas. Es decir, el análisis confirmatorio exige una hipótesis previa sobre el número de factores comunes, así como de las relaciones de dependencia entre cada variable con cada uno de los factores. Por ejemplo, en este estudio se seleccionaron algunas de las variables más representativas para medir la rentabilidad, la eficiencia, la productividad, la liquidez, el cash flow, la solvencia y el endeudamiento. A partir de esto, y estableciendo un marco teórico bien fundamentado, se explicaron las similitudes y diferencias teóricas que existen entre cada uno de los factores seleccionados. Posteriormente, aunque sí partimos de una base teórica que nos permitiera aplicar un análisis factorial confirmatorio, también incluimos un análisis factorial exploratorio para contrastarlos a ambos. Para ello, dentro del programa factorial del SPSS, en la extracción de factores se seleccionó primero la opción del “eigenvalue”, dándonos como resultado seis posibles factores.
A continuación, para el análisis confirmatorio aplicamos cinco alternativas en cuanto al número de factores que consistieron en: tres, cuatro, siete, ocho y diez factores. Como sabemos todas estas variantes sobre el número de factores dan resultados exactamente iguales en cuanto a la matriz de datos y sus respectivas pruebas (KMO, MSA, test de esfericidad de Bartlett, el determinante, la gráfica “scree plot”, entre otros). Por otra parte, a partir de las comunalidades, el análisis de la varianza explicada, las matrices factoriales rotadas y sin rotar, entre otros, sí influye significativamente el número de factores previamente establecidos en los resultados obtenidos como lo veremos con más detalle en posteriores líneas.
Según Batista y Martínez (1989), el análisis de componentes principales (ACP) puede enfocarse de dos formas distintas dependiendo de los objetivos del investigador. Primero se considera como una técnica multivariable con objetivos descriptivos para tratar matrices de grandes dimensiones, o bien, es una técnica para reducir la dimensión original de un conjunto de variables con el fin de alcanzar una mayor interpretabilidad de éstas, ya que existen variables latentes que son los componentes que se determinan mediante combinación lineal de las variables originales.
El segundo enfoque es el que considera que los componentes principales son una técnica exploratoria de datos con el fin de entenderlos mejor y en donde no se pone ninguna restricción a éstos. También desde un enfoque geométrico, los componentes principales son una técnica para situar de forma óptima ejes de coordenadas.
Cuando algunos investigadores consideran al ACP como una técnica igual a la del análisis factorial, se debe principalmente al hecho de que en el último tipo de análisis se pueden extraer los factores por el método de componentes, y aquí los resultados no son significativamente distintos. También el punto de inicio de ambos métodos es a partir de la matriz de correlaciones y esto lleva a considerarlos como modelos iguales por parte de algunos investigadores. Sin embargo, la diferencia radica en que Hotelling (1933) al intentar desarrollar el ACP, pretendió inicialmente resolver el problema de la extracción de factores como un paso previo al análisis factorial. Pero posteriormente cambió sus objetivos y dicha extracción se convirtió en el punto central. A partir de esto, el producto final en el ACP es: la matriz transformada, la matriz de componentes y la matriz de componentes rotada, cuyas columnas son los vectores propios de la matriz de correlaciones que definen a los componentes principales como combinación lineal de las variables observadas.
El propósito de seleccionar el análisis factorial, utilizando la técnica del ACP, es porque representa un análisis exploratorio para determinar si un número pequeño de factores pueden explicar casi igual que si se utilizara el conjunto original de variables sin perder información importante. Este método es recomendado por Dillon y Goldstein (1984). También el ACP es uno de los métodos pioneros del análisis multivariable, y como ya se apuntó, consiste en transformar un conjunto de variables intercorrelacionadas en otro conjunto de variables no correlacionadas que se denominan factores, los cuales son una combinación lineal de las variables originales. Hotelling (1933) llegó a la conclusión de que el primer componente principal que se obtiene es el que resume mejor la información proveniente de la matriz de datos original, pues contribuye a explicar mejor la varianza total. A continuación, el segundo componente principal, que es independiente del primero, es aquel que resume mejor la información restante, y por lo tanto, aporta un máximo de la varianza residual resultante; y así sucesivamente se comportaran cada uno de los posteriores factores hasta llegar a explicar la varianza total.
Cuando se considera el análisis factorial como un sinónimo del ACP, es posible seleccionar un número de factores significativos, presentando factores o componentes como variables iniciales para posteriormente reducirlos únicamente a aquellos que sean superiores a la unidad. Aquí el objetivo principal consiste en obtener el menor número de factores con la menor pérdida de información. Reducidas las variables independientes en pocos factores se procede a incorporarlas en un modelo de acuerdo a su peso correspondiente o loanding. Esto último tiene como objetivo indicar el grado de acercamiento de cada una de las variables independientes con respecto a su factor, reflejando la correlación entre dicha variable original y el factor obtenido o establecido previamente (si se aplicó el factorial confirmatorio). En el caso del análisis de componentes principales (“component loandings”), en ocasiones no se selecciona al ratio con mayor peso (loanding), pues la selección considera la dependencia muestral, y aunque ciertos ratios presenten pesos más bajos con respecto a otros, pueden en cambio tener más poder predictivo, la información que contienen es más fácil y fiable de obtenerse a través de los estados financieros, o bien, presentado las variables independientes pesos similares en varios de los factores, al eliminarse pueden facilitar la taxonomía y asignación respectiva del nombre dentro de dichos factores.