Alberto Ibarra Mares
Con base a la experiencia acumulada en previas investigaciones y a recomendaciones hechas por diversos autores especializados en el tema, este trabajo consideró en términos generales los siguientes alcances y limitaciones que a continuación se detallan.
En el caso específico de empresas grandes y que cotizan en bolsa, Sánchez (1991) apunta que dada la compleja gama de circunstancias que afectan a sus títulos, los problemas o limitaciones del análisis financiero se pueden clasificar en los siguientes grupos o categorías: los derivados del entorno macroeconómico en general; los que se refieren a la empresa en su relación con el sector; las convenciones propias de cada mercado así como las presiones que ejercen los especialistas que operan en el mismo; y el componente psicológico, consecuencia de la combinación de todos los factores antes descritos.
Las anteriores convenciones y efectos psicológicos constantemente distorsionan y dificultan el análisis objetivo, y según Sánchez (1991), obstaculizan la formulación de un modelo exacto de comportamiento al introducir el factor subjetivo en el análisis de las previsiones. Esto se debe a que la estructura del análisis recoge tanto factores de riesgo como factores de aleatoriedad, siendo el primer factor una valoración subjetiva. En general para este estudio hemos tomado en cuenta algunos factores macroeconómicos tales como la reexpresión de los estados financieros; la relación entre la empresa y el sector, al elegir sólo aquellas entidades que cotizan en Bolsa y son hoteleras; y en cuanto al componente psicológico, al analizar los antecedentes históricos hemos intentado no repetir ciertos errores o paradigmas negativos. A continuación explicamos con más detalle estos aspectos.
Los elementos que limitan y dificultan el análisis financiero son los de tipo contable, tales como la comparación de los estados financieros, la reconstrucción de los conceptos contables, la reclasificación de las partidas en función de criterios temporales a corto y largo plazo, la falta de información en términos de valores medios (pues normalmente esta información presenta estaticidad), la imprecisión y reformulación de conceptos, el efecto window dressing, entre otros.
Por otra parte, tomamos en cuenta que la valoración del analista financiero al buscar obtener información para la fijación de criterios de inversión y financiación en un mercado o sector que presente problemas inflacionarios, origina que el análisis se desarrolle con cifras distorsionadas, que aunque se reexpresen por cualquier método, entre estos mismos existen diferencias sustanciales en cuanto a la valoración y desacuerdos importantes sobre si se reexpresan a través del mantenimiento del capital financiero o del capital físico.
En un interesante trabajo de Fernández (1986: p.113), éste indica que el análisis financiero aunque es irremplazable para aprender del pasado, resulta sin embargo insuficiente en sí mismo para una real toma de decisiones, pues la experiencia ha demostrado que las situaciones del pasado no se perpetúan. Además, este investigador agrega que el análisis de los cambios producidos en el valor relativo de los distintos elementos de los estados financieros resulta ineficaz si existen problemas en el ámbito conceptual y técnico. De ahí que abordemos este tipo de problema para obtener un mayor alcance en nuestras conclusiones.
Para los problemas de carácter técnico, Fernández (1986) pone de relieve la utilización práctica de los instrumentos de análisis, pues no existe una teoría subyacente que permita establecer normas definidas al considerar varios factores. Para esto es importante reconsiderar que si el análisis financiero se vale fundamentalmente de la técnica de ratios, estos presentan problemas de correlación entre los componentes de las razones financieras ya que son comunes algunos numeradores y denominadores, y por tanto, no existe independencia.
Otro limitación común es la dispersión de los datos, pues normalmente sólo se llega a utilizar una medida de tendencia central como la media del sector y esto resulta insuficiente. Por eso el análisis financiero actualmente incluye en su nueva estructura dos tipos de técnicas muy importantes que son las medidas de descomposición y los modelos estadísticos de clasificación.
La primera técnica estadística permite al analista determinar como están distribuidos los elementos de una estructura para analizar los cambios que a lo largo del tiempo se producen en ésta. Estas medidas de descomposición se basan en el análisis de la cantidad de información contable. La aplicación de las medidas de descomposición dentro del análisis de los estados financieros es una oportunidad para conocer si la empresa mantiene su estructura estable en el tiempo, o bien, poder localizar sus puntos débiles con relación a su sector (Fernández, 1996: p.117).
Con la aplicación de las técnicas predictivas además de que es posible buscar reducir la información, también se puede llevar a cabo la clasificación de los individuos u objetos en un conjunto de grupos previamente establecidos (el análisis discriminante).
Sin embargo, el alcance, o mejor dicho, la mayor limitación del análisis financiero es que actualmente representa sólo un componente del análisis general de una empresa, ya que debe complementarse con el análisis técnico, el análisis fundamental, el análisis bursátil, entre otros. También es importante considerar al “análisis intuitivo” sobre los actuales factores diferenciadores que dependen del producto o servicio, de la estructura productiva, de los costes, del desarrollo tecnológico, la dependencia financiera, la localización geográfica, la dimensión y características de los activos, la política de investigación y posición estratégica o incluso el nivel de desarrollo del país.
Uno de los objetivos actuales del análisis financiero y que incorporamos en este trabajo, es el estudio de los aspectos importantes de la teoría contable y su relación con los modelos predicitvos. Para esto es importante revisar detalladamente el marco conceptual de los principios y normas que rigen la técnica contable actual para entender y saber solucionar los problemas prácticos que se presentan en la obtención de aquella información financiera que necesita la empresa en economías abiertas y a través del tiempo para alcanzar su estabilidad así como el crecimiento sostenido dentro del mercado en donde opera.
Bernstein (1999) ha definido al análisis financiero como el proceso crítico y dirigido a evaluar la posición financiera (presente y pasada) y los resultados de las operaciones de una empresa, con el objetivo primario de establecer las mejores estimaciones y predicciones posibles sobre las condiciones y resultados futuros. Pero el principal propósito del análisis financiero para este autor es sin duda alguna la toma de decisiones sobre préstamos e inversiones, y para esto apunta que se requiere de datos válidos y bien organizados, pues de lo contrario los datos incompletos o distorsionados conducen a decisiones incorrectas. Por eso el proceso del análisis de estados financieros consiste en la conversión de datos a información útil y más sintetizada. Esto lo llevamos acabo aplicando primero el método de ratios y posteriormente aplicamos el método del factorial.
Retomando a Bernstein (1999), éste opina que en general el análisis financiero es una herramienta de decisiones empresariales; previsión de situaciones y resultados futuros; diagnóstico de áreas con problemas de gestión; instrumento de evaluación de la gestión; y sobre todo reduce la dependencia de corazonadas, intuiciones e incertidumbres. Sin embargo, este autor apunta que una limitación del análisis financiero es que no aminora la necesidad de emplear la capacidad de discernimiento, pues sólo se establece una base firme y sistemática para su aplicación racional por parte del analista externo o interno.
Con frecuencia la limitación de datos representa el problema central en este tipo de estudios, pues fue hasta después de 1980 que la información de cash flow empezó a estar disponible y eso sólo en las empresas de los Estados Unidos. Además, en este período la armonización de la información contable era muy limitada entre los diferentes países. Esto nos llevó a determinar que la unidad temporal se considerara a partir de 1990, pues a esa fecha ya se había avanzado más en el proceso de armonización contable internacional, y en el caso de las empresas mexicanas que cotizaban en la Bolsa, la elaboración de estados financieros presentaba ya un conjunto de criterios bien sistematizados y un catálogo de cuentas contables homogeneizado que permitió mejorar sustancialmente la calidad y utilidad de la información.
Cabe destacar que este estudio se enfocó únicamente a aquellas empresas hoteleras de tamaño grande y del sector privado que cotizan en la Bolsa Mexicana de Valores. Por lo tanto, las generalizaciones de los resultados del análisis factorial no pueden ser aplicables a empresas pequeñas, medianas o corporaciones públicas. Esto es con el fin de poder hacer generalizaciones más acertadas sobre un sector y tamaño de empresa muy específico. Para esto se definieron los criterios cuantitativos y cualitativos que caracterizan a una empresa grande. Sin embargo, se reconoce que actualmente el número de empresas hoteleras que cotizan en la bolsa es escaso con relación al total de empresas inscritas. En este punto hemos de tomar en cuenta que la selección se realizó más bien con el propósito de iniciar un estudio de amplio alcance y a largo plazo dentro del sector hotelero mexicano. Para ello hemos comenzado por analizar al total de hoteles que cotizan en bolsa con el fin de obtener las variables independientes y los mejores factores que nos expliquen el comportamiento sectorial de estas empresas.
Por otra parte, las generalizaciones del modelo a través del tiempo pueden presentar una inestabilidad por las variables que afectan a la información financiera, debido principalmente a los cambios en los criterios contables. Sin embargo, para reducir dicha inestabilidad hemos utilizado únicamente cifras reexpresadas y auditadas para que sean comparables a través de los años. También se buscó descomponer en elementos muy detallados a las variables independientes más importantes que influyen en los siete factores establecidos a priori. Previo a esto, se seleccionaron los ratios financieros reconocidos como los más efectivos para el análisis financiero de una empresa compleja mexicana.
Con respecto al análisis factorial, que es el método estadístico que se seleccionó para obtener algunas evidencias empíricas entre el desarrollo conceptual de los ratios y el sector seleccionado, hemos creído importante mencionar algunas de sus ventajas y desventajas al principio de este trabajo, pues de hecho estas representan los alcances y limitaciones propias de este método multivariable en cualquier tipo de estudio.
Entre las principales alcances del análisis factorial se pueden citar principalmente a los siguientes:
a) Los factores indican las mediciones subalternas de los parámetros financieros del conjunto de variables en general.
b) Los resultados del análisis factorial pueden proporcionar algunos indicios sobre el tipo de información contenida en el conjunto de variables y pueden servir de guía para la selección de las variables independientes de un modelo predictivo final.
c) La reducción del conjunto de las variables independientes está dirigida hacia la selección de una variable por cada factor que contenga similar información. Así, el uso de varias variables en un factor dado no es necesario.
d) Utilizar pocas variables predictivas reduce la multicolinealidad y la probabilidad de que las variables incluidas en el modelo sean combinaciones lineales con respecto de cada una de aquellas que exhiban un alto grado de correlación. Además, pocas variables en el modelo final simplifican la aplicación del modelo y la interpretación de los resultados.
Con respecto a las desventajas, no hay que olvidar que en las técnicas de reducción de datos se han detectado varios problemas importantes en cuanto a la utilización de los resultados obtenidos en el proceso del análisis factorial. Entre las limitaciones que más se presentan podemos mencionar las siguientes:
a) Obtención de diferentes resultados al aplicar diferentes métodos de extracción de factores. A partir de que Hotteling (1933) presentó el método de componentes principales para la extracción de factores, se han generado un gran número de alternativas que han dado como resultado diferentes tipos de soluciones ante un mismo problema. Hasta ahora no se ha alcanzado un acuerdo sobre cual es el mejor método para extraer los factores, aunque algunos coinciden en que el análisis de componentes principales es el de mejor aceptación. Sin embargo, otros autores consideran que dicho método en realidad no pertenece al análisis factorial y que las mejores alternativas factoriales son: el método de mínimos cuadrados o el método de máxima verosimilitud. Para comprender mejor la complejidad del factorial en este punto, se pueden llevar a cabo las comparaciones de los resultados que se obtienen a través de la aplicación de los diferentes métodos. Para el caso de este estudio únicamente se seleccionó el análisis de componentes principales.
b) Acuerdo sobre el número de factores a extraer y conservar. Con respecto al número de componentes que deben ser incluidos en la solución final del modelo, se pueden utilizar ciertas técnicas estadísticas para su determinación, tales como: el análisis de factores "eigenvalues", "skee test", y el "criterio de la importancia substantiva". Los componentes con "eigenvalues" mayores de uno son considerados significativos. Esta regla general se ha utilizado como un punto de partida en numerosos estudios. Además, ésta técnica junto con la de gráficas "skeet test", son aplicables sólo en soluciones sin rotación. En cuanto al "criterio de importancia substantiva", se utiliza como una guía si los resultados de solución de rotación ortogonal son más fáciles para interpretar los componentes con respecto a una solución sin rotación. Esta última técnica está basada sobre la consideración de una cantidad de varianza total dentro de los datos explicados por cada componente individual, y sólo aquellos componentes que son considerados explicativos de la porción substancial de la varianza total se toman como significativos (Kim y Mueller: 1978).
c) El problema de la parsimonia. El análisis factorial al ser una técnica dirigida por las variables, los componentes principales identificados varían en número y composición. La matriz factorial normalmente contiene un número superior al necesario para explicar la estructura de los datos originales. A la fecha se cuenta con la suficiente evidencia empírica que establece de que a partir de un conjunto de factores, al reducirlos a través de una técnica estadística adecuada posibilita la explicación de la mayor parte de la variabilidad total, ya que los factores que se eliminan contribuyen mínimamente. Sin embargo, el problema principal radica en determinar cual es ese conjunto mínimo de factores para cumplir con el principio de parsimonia.
d) Aunque existen pocos criterios de amplía aceptación entre los diversos investigadores con relación a los métodos para la selección del número de factores, no siempre estos coinciden. Entre uno de los métodos más aceptados esta el de Kaiser (1960). Este se basa en conservar sólo aquellos factores o componentes principales cuyos eigenvalues sean mayores a la unidad. Sin embargo, en ocasiones se considera que no siempre este método resulta el más adecuado, y entonces se puede optar por analizar el porcentaje de la varianza total explicada por cada factor. En este caso, si se llega a alcanzar un porcentaje acumulado relativamente alto, indicará que el número de factores es el adecuado.
e) Otro método propuesto para la selección de los factores es el que se basa en: “la regla de la restitución mínima”, que consiste en fijar a priori un nivel mínimo de varianza a explicar. Por último, está el método que se basa en: “la regla de la información restituida por cada factor”. Esto último consiste en la aplicación de una serie de reglas empíricas que proporcionan una representación gráfica tal como la “scree plot” o “scree test”. Aquí los factores con varianzas altas se ubican por separado de los factores con varianzas bajas. Esto quiere decir que existe un punto de distinción que se denomina: “punto de inflexión del gráfico”. Todos aquellos factores situados antes del punto de inflexión se conservan, y en el caso del gráfico los factores se sitúan en el eje de las abscisas y los eigenvalues en el eje de las ordenadas. El gráfico o “figura” (que se asemeja a la falda de una montaña) permite observar aquel factor que se sitúa en la parte más alta del gráfico. Dicho factor es el que explicará la mayor parte de la variabilidad. Posteriormente, los otros factores con menor grado de explicación de la variabilidad se localizan en los niveles inferiores hasta llegar al punto de inflexión a través de la unión de puntos. Esto indica que a partir de éste punto todos los demás factores contribuyen muy poco a explicar la variabilidad total. Sin embargo, en ocasiones se presentan varios puntos de inflexión muy similares y entonces se complica la selección de un único punto.
f) Obtención de componentes complejos a través de los métodos de rotación de factores (ortogonales y oblícuos). Como ayuda para la interpretación de los resultados de un análisis factorial común, o bien, de componentes principales, se lleva a cabo un paso previo importante que es la rotación factorial. Aquí se buscan implicaciones o situaciones reales para interpretar los factores obtenidos en función de las variables e individuos que los caracterizan. Según Batista y Martínez (1989: p.91) , hasta el momento el único criterio empleado ha consistido en extraer los componentes de modo que tengan varianza máxima, y esto ha provocado el surgimiento de componentes primarios muy complejos que se correlacionan con la mayor parte de las varianzas originales, y por lo tanto, dificultan la interpretación.
g) Problemas en la interpretación. En la práctica muchas veces es difícil la interpretación de una combinación lineal de un gran número de ratios. Esto hace que se pierda una de las ventajas originales para utilizar los ratios, y que consiste en su facilidad de comprensión por parte de los ejecutivos o directivos de las empresas (Laurent: 1979). Si se aplica el modelo factorial en ambientes reales, la lógica subyacente a la técnica de reducción de datos es incongruente con el comportamiento observado en los decisores. Esto se debe a que la técnica se dirige a mejorar la toma de decisiones a través de la eliminación de redundancia. Sin embargo, estudios empíricos concluyen que los decisores expresan mayor confianza con datos correlacionados frente a datos no correlacionados de igual validez (Kanehman y Tversky: 1973; Swieringa:1976).
Aunque para algunos investigadores resulta ilógico este comportamiento, en la práctica la empresa moderna produce sus propios mecanismos de alerta y prevención. Este hecho lleva a que en repetidas ocasiones los directivos opten por información redundante a cambio de obtener la máxima seguridad antes de llevar a cabo la toma de decisiones. En tales casos el decisor al preferir utilizar pruebas o análisis redundantes no busca indicadores sintéticos o globales, pues la experiencia indica que la confiabilidad de los datos no es estable.
Otro factor que también influye para la no eliminación de información redundante, es que la producción de ésta actualmente no implica costes excesivos, y por lo tanto, eliminarla no es justificable sólo por razones económicas. Prueba de ello es que varias empresas trabajan con sistemas paralelos, es decir, existen áreas que trabajan con correlación de funciones y otras bajo la técnica de máxima reducción de datos. Normalmente la gerencia de sistemas y procedimientos busca la implementación de un sistema de control interno que obliga a una interdependencia de todas las áreas para contrarrestar la "infidelidad de los datos".
En general, los anteriores limitaciones contradicen en gran medida el objetivo central de la técnica de reducción de datos. Esto impide a los investigadores y analistas financieros partir de un estándar de variables independientes como el propuesto por Altman. Además, en repetidas ocasiones los estudios no parten de bases de datos y muestras ya reducidas para el desarrollo de sus respectivos modelos, pues no existe un enfoque sistemático único. Esto trae como resultado que cada vez que se inicia un modelo se tiene que partir de un gran número de variables independientes para aplicar la técnica de reducción de datos con pequeñas variaciones. En otros casos se parte con criterios totalmente diferentes aunque se trate del mismo sector y tamaño de empresas analizadas.
Todas estas limitaciones ya habían sido observados desde hacia tiempo por Horrigan (1965), quien propuso al respecto qué, para el desarrollo de esta técnica se debería intentar estructurar pirámides, jerarquías y clasificaciones de ratios orientadas por la literatura empírica. Con esto se pretendía establecer un conjunto de generalizaciones empíricas tendientes a crear los fundamentos de una metodología para el análisis financiero.
La reducción de datos o ratios para obtener las jerarquías y clasificaciones se ha desarrollado en los últimos años a través del análisis de componentes principales o factorial, sin modificar su objetivo central que se dirige a evitar la multicolinealidad a partir del conjunto de variables independientes o factores. Como hemos dicho los componentes principales son combinaciones lineales de variables originales que pretenden explicar una gran porción de la información (varianza) con el mínimo de factores y la mínima perdida de información importante. Para Jiménez (1994) la limitación que presenta esta reducción de datos radica que al ser una técnica dirigida por las variables, ésta depende principalmente de los ratios seleccionados y esto origina que los componentes principales identificados difieran en número y composición al existir diferentes criterios para la selección de componentes originales en el inicio del modelo.
En la literatura hasta ahora escrita, según Jiménez (1996), no se han encontrado aún resultados capaces de resolver este problema, pues al sustituir cada componente principal o un ratio estrechamente correlacionado, ocasiona una pérdida adicional de información. También la composición de los factores está influida por las muestras de ratios y las muestras de empresas seleccionadas en cada uno de los estudios. Aunque en ocasiones esta variabilidad no afecta a la hora de obtener resultados positivos, estos últimos pueden sin embargo ser inestables, pues a lo más sólo sirven para satisfacer los requerimientos específicos de la investigación pero sin llegar al punto de construir teorías o modelos generalizables a través del tiempo.
En general podemos decir que previo al inicio de este trabajo, hemos considerado los principales alcances y limitaciones de cada uno de los elementos del modelo, tales como la utilidad de la base de datos, la selección de la muestra, la definición de la variable dependiente, la selección de las variables independientes, así como las limitaciones del método de ratios y del análisis factorial. Sin embargo, consideramos que en todos estos aspectos quedará mucho trabajo por desarrollar en el futuro dentro del sector que se seleccionó.