Alberto Ibarra Mares
De inicio la conclusión principal a la que hemos llegado es que en general los modelos predictivos presentan dos fases para su desarrollo que son muy complejas y de igual importancia, y sin embargo, en la primera de ellas poco se ha trabajado en términos de una estrecha relación conceptual-empírica.
La primera fase comprende el estudio y estructuración detallada de la base de datos para evitar el efecto window dressing, mantener la utilidad y confiabilidad del sistema contable a través de los años para su comparabilidad, y llegar al máximo grado de armonización conceptual entre los diferentes estados financieros utilizados.
Continuando con esta fase, el siguiente paso consiste en que con la base de datos se debe proceder siempre a estimar un conjunto de ratios financieros previamente seleccionados y sustentados todos y cada uno de ellos dentro de un marco teórico bien fundamentado, el cual también incluya la definición conceptual de la variable dependiente. Si esto se ha cumplido, sólo entonces se debería proceder a utilizar un método mulvariable reductivo para determinar un conjunto de factores y eliminar al mismo tiempo aquellos ratios que presenten una alta multicolinealidad. Esto con el fin de llegar a obtener los ratios finales que representarán a los factores con base en su alta correlación entre cada factor y cada ratio emparejado. Una vez llevado a cabo lo anterior, consideramos que es de suma importancia que al factor se le asigne un nombre clave de acuerdo al marco teórico que presentó originalmente el ratio para su interpretación financiera.
Para concluir con esta síntesis sobre la metodología propuesta, se recomienda no pasar por alto la importancia que conlleva seleccionar adecuadamente el sector de la unidad de análisis, la unidad temporal, la muestra y la unidad geográfica. Sin embargo, de no ser posible llevar con éxito el desarrollo de la primera fase en términos generales, consideramos que definitivamente no se debería proceder al desarrollo de la segunda fase, pues el modelo adolecería de un sustento conceptual y empírico necesario.
En cuanto a la segunda fase del modelo, consiste en determinar la variable dependiente de forma categórica e incorporar en una función lineal los ratios seleccionados como variables independientes, asignándoles una ponderación individual a cada uno de ellos con el fin de aplicar un método multivariable clasificatorio para obtener porcentajes de exactitud y errores predictivos “ex-ante” o “ex-post”.
Este trabajo exclusivamente desarrolló de forma muy detallada la primera fase del modelo predictivo dentro de un sector muy específico en una economía emergente, situación que conlleva importantes particularidades por el aspecto tan “sui generis” en relación a una economía desarrollada que presentan las bases de datos. Con base en esta limitación obtuvimos las conclusiones que explicamos a continuación.
Conclusiones sobre las bases de datos.
Lo ideal para desarrollar adecuadamente un modelo predictivo sería que la contabilidad presentase en todo momento dos características fundamentales para el usuario: utilidad y confiabilidad. Sin embargo, la naturaleza propia de la técnica contable es provisional y en la práctica este sistema no refleja con exactitud la situación real de una empresa, ni tampoco el resultado contable constituye una buena medida de creación de valor dada la alta probabilidad de manipulación que puede introducirse y que se denomina efecto window dressing. Por otra parte, la estructura contable de medición es de partida defectuosa y se distorsiona aún más por la inflación, la devaluación de la moneda y la variación en las tasas de interés.
Ante esta evidente situación que se da de forma más acentuada en las economías emergentes, la revelación y la reexpresión son los dos únicos caminos que actualmente se han desarrollado de manera sistemática para mantener al máximo la utilidad de la información financiera a través del tiempo y utilizar entonces estos estados como base de datos. En el caso de la reexpresión, que es el método más eficaz para erradicar los efectos de distorsión del sistema de información empresarial, éste se fundamenta en dos principios que están en constante evolución y son: el principio del mantenimiento del capital financiero y el principio del mantenimiento del capital físico.
Otro fenómeno importante que hace vulnerable al sistema de información empresarial es la falta de armonización contable, pues la tendencia de la técnica varía entre los diferentes países y usuarios. En algunos casos o países se dirige a las necesidades del inversor; en otros el sistema contable se enfoca a los acreedores y proveedores; y por último, también se diseña para cumplir con políticas macroeconómicas del gobierno, tales como el nivel de crecimiento y el fortalecimiento del sistema tributario. Sin embargo, y como apunta acertadamente Stevens (1982), muchas ocasiones los principales usuarios del sistema contable, aunque perciben su subjetividad, erróneamente se han convencido durante décadas de que la contabilidad refleja con exactitud la situación real de un negocio al utilizar números detallados y formatos ordenados de clasificación e interpretación basados en principios y normas. En el caso de muchos investigadores que utilizan bases de datos contables, además de que no se detecta estos hechos en sus trabajos, tampoco se nota indicio sobre la percepción sobre el entorno económico en donde se produce dicha información.
Lo que llama nuestra atención es que ya varios investigadores considerados clásicos en este campo, como Lev (1989), han venido proponiendo con poco éxito nuevos elementos para la predicción del fracaso ampliando el concepto de la contabilidad positiva y exponiendo el escaso papel que la información contable desempeña en el mercado de capitales, añadiendo que el resultado contable no constituye una buena medida de la capacidad de creación del valor de una empresa dada su alta probabilidad de manipulación. Para Lev los pronósticos de los analistas financieros y las expectativas creadas por los participantes en el mercado son los que realmente provocan los movimientos en las cotizaciones, y por tanto, los precios son los que originan cambios en los resultados y no a la inversa. Algunos trabajos como los de Ohlson (1992), también nos sugieren acertadamente que las causas que explican el bajo contenido informativo de la información financiera se deben a que, el resultado contable anual mide la capacidad de creación del valor de las empresas en un plazo muy corto y con varios errores. Además, en el caso de los modelos predictivos, cuando se utiliza a los resultados acumulados de varios ejercicios como variable explicativa o independiente, éstos aumentan el grado de error en las mediciones según lo demuestran los resultados de sus investigaciones.
Otros estudios como el de Hammer (1983), que tuvo como objetivo constatar la sensibilidad de las variables independientes a través de la utilización de tres métodos (discriminante lineal, discriminante cuadrático y logit), concluye que son las bases de datos las que determinan la selección de las variables independientes y la técnica estadística. Así también lo reconocen Won y Young (1995) quienes opinan que cualquier trabajo predictivo requiere buenas bases de datos.
En este trabajo también destacamos el hecho de que el tipo de información contable que se toma como base de datos en los estudios predictivos de economías desarrolladas es en definitiva sustancialmente diferente con respecto de aquella información que producen las empresas que se ubican en economías en vías de desarrollo, en donde por cierto, la utilidad de la información contable se ve frecuentemente más cuestionada por fenómenos tan comunes como el efecto window dressing, o bien, por la incorrecta reexpresión de los estados financieros.
Por eso para la obtención y estructuración de las bases de datos con fines predictivos, se puso especial énfasis a este aspecto porque a pesar de que ha sido mencionada su problemática en ciertas investigaciones, su tratamiento teórico y empírico se ha limitado sólo a aspectos genéricos. Desde nuestro punto de vista este elemento constituye una de las principales claves para llevar a cabo adecuadamente las estimaciones y obtener correctamente los indicadores cuantitativos de un modelo predictivo. Por lo tanto, dicho elemento es uno de los que se analizó con más detenimiento a través de tres diferentes e importantes matices que fueron los siguientes:
a) El problema que existe para obtener las bases de datos ante la práctica del denominado efecto “window dressing” afecta en definitiva negativamente la utilidad del sistema contable.
b) Para solucionar el problema que se presenta para la comparación de las bases de datos entre las diferentes empresas de la muestra seleccionada, se debe considerar las diferentes tendencias que se dan en la presentación de los estados financieros e incorporar las propuestas más avanzadas para obtener nuevos modelos de homogeneización o armonización a escala mundial para la elaboración de los estados financieros básicos.
c) Hay que considerar seriamente el problema de la estructuración de las bases de datos ante los diferentes criterios de actualización de las cifras, bien sea mediante la revelación o a través de la reexpresión de los estados financieros. Como sabemos la actualización es necesaria para conservar la validez, confiabilidad y comparabilidad de la información contable a lo largo de los años. Sin embargo, a la fecha existe una controversia en cuanto al método para actualizar dichas cifras pues cada uno de éstos da diferentes resultados partiendo de cifras base comunes.
En el caso de las economías emergentes que utilicen unidades temporales de largo alcance es imprescindible reconocer la revelación y la actualización de los estados financieros para disminuir la distorsión de la unidad monetaria cuando hay inflación. El caso de la revelación se utiliza cuando la tasa inflacionaria es moderada y consiste en incluir sólo notas en los anexos de los estados financieros. Sin embargo, cuando se revela no se reconoce ni se incorpora dicho efecto en los estados financieros básicos. Por eso cuando las tasas inflacionarias son altas entre los períodos contables se recomienda optar siempre por la actualización o reexpresión de las cifras. Esto último representa un planteamiento más formalizado y sistemático, que sí reconoce e incorpora las distorsiones originadas por los cambios en el nivel general de precios, principalmente en las partidas no monetarias del activo fijo (con sus respectivas amortizaciones y depreciaciones); el capital social; los beneficios acumulados; los inventarios y el coste de ventas. De todo esto se obtiene dos resultados muy importantes que se reconocen tanto en el balance general como en el estado de resultados y son respectivamente: el resultado por activos no monetarios (retam) y los resultados por posición monetaria (repomo).
Los sistemas para actualizar y hacer comparables las bases de datos se pueden desarrollar bajo dos tipos de pensamiento o principios que a su vez producen dos modelos de contabilidad que son:
a) El principio de mantenimiento del capital financiero (contabilidad en moneda constante o al nivel general de precios). Este modelo busca mantener el poder adquisitivo general del capital que han invertido los accionistas. La contabilidad que se produce bajo este principio está diseñada para evitar la distribución del poder adquisitivo que reside en el capital financiero, centrándose en los efectos del declive de dicho poder adquisitivo. Es decir, el método se centra en la unidad de medida para modificarla o cambiarla por monedas de poder de compra y así eliminar el concepto de la moneda como unidad fiduciaria.
b) El principio de mantenimiento del capital físico (contabilidad al coste actual). Los fundamentos de la contabilidad que se produce bajo este principio, se basan en la premisa de que una empresa no puede declarar beneficios si antes no ha cubierto el mantenimiento de su capacidad de explotación existente. Este modelo se centra en los cambios de precios específicos que afectan a la empresa. Es decir, se centra en el atributo medido, buscando reemplazar los valores en que están valuadas las inversiones no monetarias por sus valores de reemplazo o actuales, tomando en cuenta para ello el uso y la capacidad de servicio del bien.
En México a partir de 1983 se estableció como obligatorio el reconocimiento de los efectos de la inflación en la información financiera. Posteriormente, en 1994 dichas normas se reconocieron como de carácter evolutivo pues se consideró que la reexpresión de la información financiera es un tema sujeto a un permanente proceso de investigación para mejorar el contenido y presentación de los datos, así como para simplificar la aplicación de los métodos de actualización y llegar a una comparación mejor de los estados financieros. Actualmente sólo prevalece la reexpresión a través del índice nacional de precios al consumidor.
Ahora pasemos a analizar nuestras conclusiones sobre las bases de datos ya en el contexto específico de los modelos predictivos. Coincidimos en la postura de Hair (2000) sobre que el análisis multivariable requiere previamente un examen riguroso de los datos por la influencia de atípicos, violaciones de los supuestos y la ausencia de datos que puede llevar a la pérdida de varias variables independientes y provocar con ello efectos sustancialmente diferentes en los resultados. Pero como el examen de las bases de datos es complejo y lleva tiempo, es común que se descuide este importante aspecto por parte del analista.
Sin embargo, un análisis eficiente de las bases llevará siempre a una mejor predicción, una mejor evaluación de las empresas muestreadas, soluciones más eficaces a los problemas de los datos ausentes, identificación de casos atípicos y la comprobación de los supuestos subyacentes en los modelos multivariables predictivos. Los datos ausentes tienen efectos negativos en cualquier investigación y son producto de la introducción o estimación de los datos. Los casos atípicos son magnitudes extremas que tienen influencia negativa o ilógica en los resultados. Por último, es necesario considerar los supuestos que puedan subyacer en un análisis multivariable, lo cual sólo es posible si se cuenta con la experiencia o la asesoría de un especialista para analizar e interpretar los estados financieros.
Conclusiones sobre los ratios.
En este estudio se estableció como un objetivo prioritario desarrollar un trabajo empírico sobre las clasificaciones de los ratios, midiendo la estabilidad de los factores a largo plazo para obtener una clasificación de factores estadísticamente independientes con relación al gran número de ratios expuestos en la literatura especializada.
Las conclusiones a las que se llegó sobre los ratios es que la tendencia de éstos no siempre indica si una empresa se dirige al fracaso o no, pues puede existir una manipulación en los estados financieros, y en específico en aquellas partidas que son parte de los componentes de los ratios más representativos para efectuar la evaluación de la empresa. A este hecho se debe añadir la calidad de la auditoría y la disponibilidad de los directivos para asumir mejores criterios de contabilización. Esto por supuesto no descarta la gran ventaja que tiene el método de ratios para resumir la información financiera, aunque hay que considerar que este método, al no tener un carácter obligatorio, lleva a que las estimaciones de los ratios presenten diversos criterios y componentes, y por lo tanto, no es factible alcanzar una armonización entre las empresas. También hay que considerar la experiencia de Beaver (1966) que demostró en sus investigaciones que los ratios no presentan la misma capacidad de evaluación o predicción a través del tiempo, ni predicen con igual exactitud el fracaso y el éxito (error tipo I y II).
Nosotros tratamos de superar en este estudio una de las criticas más importantes que se hicieron, tanto al modelo original de Altman como a gran número de trabajos predictivos posteriores, en el sentido de que las variables independientes seleccionadas no siempre son las más representativas. Por otra parte, también ha sido común para este tipo de trabajos recibir serias críticas en cuanto a que las variables independientes y sus respectivos factores utilizados en la función lineal no tienen un sustento teórico bien fundamentado, de ahí que hayamos desarrollado ampliamente el marco teórico de cada una de ellas. Aunque los estudios realizados con ratios financieros para medir fracaso empresarial se han enfocado en la comparación entre empresas en quiebra y empresas que no han quebrado (sanas y no sanas). Para algunos analistas esto ha permitido ofrecer pruebas de que las empresas que no quebraron presentaban ratios de tesorería "más firmes" que aquellas que si quebraron, aunque aún no se ha demostrado de manera concluyente la capacidad de los ratios por sí solos para la predicción de quiebras.
Otro aspecto importante a tomar en cuenta es que dentro del ratio, el numerador o el denominador pueden presentar signos negativos. Esto da origen a una interpretación engañosa sobre el coeficiente. Por eso se recomienda analizar sobre todo el signo del numerador, pues cuando presenta un signo negativo el análisis se vuelve más complejo.
Los anteriores problemas los teníamos previstos desde el inicio de este trabajo, pues consideramos la experiencia de Lizarraga (1996) que apunta el serio problema que existe en gran cantidad de ratios para encontrar su claro significado económico o financiero. La ausencia estos elementos lleva a una inevitable complejidad y a diferentes tipos de interpretación que genera desacuerdos o equívocos, lo que a su vez conducen a un exagerado optimismo sobre la utilidad del ratio, la cual tras ser analizada durante décadas, posteriormente se ha demostrado en varios casos como absurda o sin sentido.
Como hemos señalado antes, ningún ratio hay que considerarlo aisladamente porque no son significativos por sí solos, pues todos ellos deben ser comparados con un patrón para determinar si su nivel es satisfactorio o no. Para obtener dicho patrón es necesario seleccionar primero a los ratios y definir cuales serán sus objetivos (Westwick: 1987). Posteriormente es muy importante interpretar cada ratio comparándolo con ratios anteriores de la misma empresa, algún estándar establecido y ratios de otras compañías del mismo o similar sector.
Una de las últimas propuestas más importantes para las que se utilizan los ratios es la de servir como una base de datos aún más sintética que los estados financieros, reduciendo su redundancia y multicolinealidad a través de métodos estadísticos para llevar a cabo predicciones. Al respecto Horrigan (1965) sostiene que los problemas presentes de multicolinealidad son también oportunidades para el investigador, pues cuando se presenta este fenómeno con los ratios financieros, permite al analista contar con la máxima información contenida en los ratios, aunque sea redundante, para posteriormente ser capturados y reducidos a un pequeño número de factores.
Sin embargo, es importante considerar que los estados financieros, cuya característica básica es el devengo, representan el primer punto de partida para calcular cualquier medida o ratio. Por eso ciertos ratios requieren posteriormente ajustes más analíticos, pues no todos los componentes son fiables o están incluidos en los estados financieros.
Con respecto a la clasificación de los ratios por factores, consideramos importante la opinión de García-Ayuso (1996). Este nos indica que muchas de éstas se hacen “a priori” y sin ningún fundamento empírico. Esta situación ha dado como resultado únicamente coherencia en términos conceptuales en la totalidad de los ratios. Además, en este tipo de clasificaciones muchas veces influye más el amplio reconocimiento que se presta a ciertos autores que las han propuesto y esto lleva a que aquellas clasificaciones más tradicionales ya no sean cuestionadas, situación que sí se lleva a cabo con el análisis factorial. También existen estudios empíricos que aplicando técnicas estadísticas multivariables buscan obtener clasificaciones que determinen que ratios presentan un comportamiento análogo y aportan un contenido informativo similar sin más trascendencia conceptual o de medición, o bien, otros ratios que siendo efectivamente diferentes sirvan para medir variables importantes que afectan a la empresa. Con base en ello, también incorporamos en nuestro estudio uno de los principales objetivos de los trabajos de García-Ayuso que consistió en presentar una comparación entre clasificaciones a priori propuestas en la literatura contable y las clasificaciones obtenidas de investigaciones empíricas como resultado de la explicación de técnicas del análisis factorial.
En este trabajo intentamos seleccionar aquellas variables independientes que más influyen en el desarrollo económico y financiero de la empresa mexicana (sector hotelero). Lo anterior nos llevó a elegir setenta y un ratios que dividimos en siete factores. Hipotéticamente la serie de variables independientes tiene que aportar conclusiones rigurosas, con base en técnicas y relaciones complejas. Sin embargo, se debe tomar en cuenta que existen casos en donde considerando una sola variable independiente, ésta puede aportar un rigor similar o ligeramente inferior en lugar de utilizar varias.
Por eso a partir del conjunto original de 71 ratios, seleccionamos un segundo grupo de 21 ratios, eliminando aquellos que tenían serias deficiencias en cuanto a su cálculo o ausencia de datos, o bien, las cuentas con las que se integraban no presentaban la suficiente información en cuanto a su uso exacto; tal fue el caso de la partida denominada cuentas por cobrar. Esta cuenta se utilizó no sólo para registrar aquellas deudas a favor de la empresa por concepto de ventas a crédito, sino que también se observó que integraba otras operaciones como deudas de terceros con la empresa o pagos anticipados que se efectuaron por concepto de servicios aún no erogados.
También la reducción de las variables independientes a 21 ratios obedeció a las limitaciones del tamaño muestral de la base de datos que comprendió ocho años divididos en trimestres, lo que nos llevó a un total de 32 trimestres por cada una de las cinco empresas seleccionadas; lo que a su vez nos dio un total de 160 casos a lo largo de los ocho años (7.27 casos por variable). Estos datos en definitiva nos garantizaron la seguridad para aplicar correctamente el análisis multivariable del factorial, pues el investigador no debe utilizar una muestra inferior a 50 casos u observaciones, y preferiblemente el tamaño muestral debe ser superior a 100 o más casos, o bien, como regla general el mínimo de observaciones a tener en cuenta tiene que ser de por lo menos un número de observaciones cinco veces mayor con respecto al número de variables analizadas. Situaciones que sí cumplimos.
En cuanto a las relaciones empíricas entre los ratios, y según puede verse en el cuadro siguiente, hasta la fecha no existe suficiente consistencia entre los diferentes modelos predictivos. Esto se debe principalmente a problemas tales como: la inexactitud de los diferentes modelos propuestos, los diferentes criterios de selección y clasificación de los ratios, las distintas ponderaciones que los investigadores dan a las variables independientes, la diferencia de las poblaciones de ratios entre los modelos y a las relaciones empíricas que estos mantienen.
Conclusiones sobre la Variable Dependiente.
Para iniciar la determinación de la variable dependiente sugerimos que no siempre se parta del supuesto del fracaso. Pues como hemos visto puede enfocarse desde dos estados que presentan las empresas: a) como éxito empresarial, y b) como fracaso empresarial.
En el primer caso los criterios se reducen a dos supuestos que no son tan polémicos: "empresa sana" (maximización de los beneficios y maximización del valor de la empresa) y "empresa no fracasada" (no presenta ningún síntoma de fracaso, aunque tampoco necesariamente presente ninguno de éxito). Este criterio se recomienda utilizarlo en aquellas investigaciones en donde la población de empresas quebradas sea muy reducida y no se cuente con una unidad temporal amplia (más de tres años). También coincidimos con Mora (1993) en el sentido de que este enfoque es mejor cuando el analista tiene como objetivo principal el valorar la probabilidad de éxito en lugar que la del fracaso. Sin embargo, hemos de reconocer que para ello existen otras opciones muy bien fundamentadas tanto teóricas como prácticas para medir el éxito de la empresa en términos cuantitativos. Aunque dichas alternativas se han desarrollado con mayor éxito y excelentes resultados dentro del marco de las finanzas corporativas y no del análisis e interpretación de estados financieros o con modelos predictivos.
Además, al hablar de éxito empresarial también hay que considerar que actualmente éste se puede interpretar de acuerdo a ciertas estrategias sobre las formas de empresa. Por ejemplo, si los acreedores optan por realizar acuerdos con el deudor a través de nuevas formas de empresa (como puede ser la fusión por absorción, la asociación o la participación significativa) aunque la entidad presente síntomas de fracaso, puede estar más cerca de alcanzar el éxito empresarial. Esto se debe a que en el corto plazo se logra cumplir con los principios de continuidad y de liquidez, mientras que en el largo plazo los socios pueden llegar a obtener plusvalías en el valor de sus nuevas acciones o volver a maximizar sus beneficios a través de la nueva entidad.
En el segundo enfoque, que es el de más amplia aceptación, seguimos detectando que hasta la fecha continúan las divergencias entre los autores en cuanto al momento y la intensidad que presenta la enfermedad financiera en la empresa, pues hay quienes consideran que el estado de fracaso se inicia a partir de no alcanzar los objetivos del éxito empresarial, hasta quienes lo aceptan únicamente cuando la empresa ha llegado a la quiebra definitiva y estado de liquidación total.
Para nosotros antes es más importante considerar que el concepto de fracaso no es un fenómeno puntual, sino un proceso de crisis que se compone de dos etapas: el fracaso económico y el fracaso financiero. Además, el fracaso responde a situaciones no sólo económicas, sino también a aspectos de tipo jurídico, conceptual y técnico.
Aunque la determinación de la variable dependiente suele ser un proceso secundario en gran cantidad de investigaciones por la mayor influencia que ejerce el enfoque estadístico, consideramos que el estado actual de esta línea de investigación exige en estos momentos un planteamiento más riguroso, pues este elemento conceptual es central para definir mejor las dos clases de submuestras de empresas sanas y empresas fracasadas, porque esto repercutirá directamente en los porcentajes de error tipo I y II que se estiman en la segunda fase del modelo.
En cuanto a las posibles definiciones que se pueden presentar de acuerdo al contexto en donde se desarrolla la investigación, es importante considerar el aspecto temporal del fracaso, pues la crisis puede ser transitoria o crónica, y en gran medida a partir de este hecho depende que la empresa inicie un procedimiento concursal. Desde nuestro punto de vista existen básicamente cinco supuestos sólidos para definir técnicamente al fracaso empresarial y son: la suspensión de pagos decretada, la quiebra, la rentabilidad negativa o por debajo de su coste de oportunidad durante varios períodos (éstos se definen de acuerdo al ciclo de explotación y maduración que presente el sector), el capital contable negativo, y por último, el exceso de valor presente de los activos con respecto al valor presente de los pasivos.
En el caso de la suspensión de pagos ya hemos visto que existen muchas situaciones y variables negativas para considerarlo como una definición ampliamente aceptable y generalizable. Sin embargo en México, y muy específicamente en el caso de las empresas que cotizan en bolsa, este supuesto tiene un nivel de aceptación bastante respetable en la mayoría de los casos, pues la supervisión que lleva a cabo tanto la Comisión Nacional Bancaria y de Valores, el Ministerio de Hacienda, las firmas auditoras, así como la propia Bolsa, se hacen con criterios económicos y financieros bien fundamentados para proteger sobre todo al público inversionista.
En cuanto a un estado ideal para definir a la variable dependiente desde el enfoque del fracaso empresarial, consideramos que se daría cuando la empresa fuera formalmente declarada en quiebra o en suspensión de pagos, reuniendo a la vez todos los supuestos financieros, económicos, jurídicos y técnicos que tienen más aceptación en determinadas economías en un momento puntual, sin que intervengan para ello acuerdos que no estén contemplados en el sistema concursal vigente, ni tampoco se implementen subsidios ocultos por parte de los acreedores, gobierno u otras instancias.
En el caso de este trabajo, hemos llegado a la conclusión de que para el caso de México se pueden seguir tres criterios para separar a las empresas sanas de las empresas fracasadas, pero siempre y cuando estas coticen en la Bolsa Mexicana de Valores: a) se considerará como fracasadas a aquellas empresas que presenten un capital contable negativo; b) aquellas que tengan beneficios netos negativos continuos por lo menos durante los cuatro últimos años; y c) aquellas que entren en una suspensión de pagos efectiva.
Hemos de finalizar este apartado con tres observaciones: a) Que aquellas investigaciones que no presentan un estudio detallado y sólido sobre la definición de la variable dependiente, seguramente sus fundamentos serán débiles con respecto a la selección de la muestra, afectando directamente la confiabilidad de las inferencias estadísticas; b) También hemos de subrayar la importancia que tiene la relación entre el efecto window dressing y la determinación del éxito o fracaso en cualquiera de sus supuestos, pues si no se revisa dicho efecto, entonces las bases de datos proporcionarán indicadores o supuestos erróneos; y por último, c) En el caso de elegir entre una suspensión de pagos y una quiebra dentro de un sistema concursal eficiente, recomendamos se considere el primer supuesto por el hecho de que este tipo de empresas tienen la obligación de seguir generando estados financieros contables basados en el principio del devengo y no en el de la liquidación. Esto en definitiva ayuda a mantener vigentes todos los principios de contabilidad generalmente aceptados al estar el negocio en marcha, facilitándose con ello la comparación entre las empresas sanas y las empresas fracasadas.
Conclusiones sobre la muestra.
En cuanto a la muestra, coincidimos con el principio propuesto por Beaver (1966) que recomienda que las empresas seleccionadas deben cumplir con la característica de "tamaño comparable" y "sector homogéneo". Por otra parte, también consideramos acertado lo expuesto por Altman(1968) en el sentido de que la heterogeneidad entre el tamaño y el sector de las empresas muestreadas se debe eliminar para tratar de evitar los efectos de distorsión que provocan ambos factores en los resultados.
Estamos convencidos que es posible mejorar el modelo si sólo se selecciona un sector determinado, pues los resultados hasta ahora obtenidos han demostrado que estos no son generalizables a todas las empresas por lo diferente de sus estructuras financieras y el peso específico que tienen las variables independientes en cada sector productivo. Sin embargo, el modelo predictivo actualmente sí tiene posibilidades de desarrollarse entre sectores similares de diferentes países, pues existe más capacidad de comparación entre empresas similares aunque pertenezcan a sistemas macroeconómicos diferentes, dado el impulso extraordinario que se ha experimentado a nivel internacional para armonizar los criterios contables y su presentación. A esto hay que sumar que la mayoría de los sectores, sin importar su unidad geográfica, de acuerdo a su actividad presentan similares tipos de ciclos de explotación, estacionalidad, ratios, estructuras de capital y un conjunto de estrategias financieras comunes por el efecto globalizador en la economía.
Con lo que respecta al emparejamiento de las dos submuestras, aunque algunos autores lo consideran necesario, otros como Ohlson (1980) lo descartan como una vía para lograr mayor exactitud predictiva. En nuestro caso coincidimos con este autor en que no es necesario dicho emparejamiento, máxime en la primera fase del modelo predictivo donde se aplica únicamente el análisis factorial. Sin embargo, para un estudio futuro sí se recomienda contrastar las diferencias que se pueden producir al estimar muestras emparejadas y muestras no emparejadas dentro del sector hotelero mexicano para obtener mayor evidencia empírica al respecto. Aunque hay que recordar que esto último forma parte de la segunda fase del modelo y consiste en la aplicación del análisis discriminante.
Es muy importante mencionar con relación a la muestra y al método estadístico aplicado, que el análisis factorial desarrollado en este trabajo no pretende, dado el tamaño de la muestra, llegar a una inferencia estadística. Sin embargo, aún no siendo posible la inferencia esta técnica resultó útil para agrupar los ratios de la muestra, pudiéndose así comparar el agrupamiento obtenido mediante la muestra disponible con los resultados de otros estudios referidos a países, que por la mayor cantidad de información económica de que disponen, sí permiten inferencias.
No obstante, por el momento hemos concluido que la muestra que seleccionamos con bases de datos trimestrales cumple positivamente con los requerimientos que exige el análisis factorial (cinco casos como mínimo por variable independiente seleccionada). Como ya se apuntó en el capítulo 6, actualmente estamos llevando a cabo una actualización y ampliación de la base de datos original en la Universidad de las Américas, utilizando el sistema de información “Economática” y las más recientes bases de datos que está proporcionando la Bolsa Mexicana de Valores. Por otra parte, esta misma base de datos se está también ampliando longitudinalmente. Para ello estamos considerando los estados financieros mensuales para aplicar el análisis factorial por empresa. Esto nos permitirá alcanzar en el corto plazo un total de 96 casos durante los ocho años que seleccionamos como unidad temporal. Para este primer estudio que presentamos aquí de forma trimestral. Además, al actualizar el cuarto trimestre del año 2000, contaremos para finales de este año con un total de 11 años (1990-2001), es decir, 132 casos por empresa. Esto representará un total de 660 casos que pertenecen a la muestra original de las cinco empresas hoteleras.
Por otra parte, también estamos trabajando en la ampliación de la muestra, al emparejar el número de empresas sanas con el número de empresas fracasadas. Esto nos dará en una primera etapa una muestra de 5 empresas hoteleras sanas y una muestra de 5 empresas hoteleras fracasadas, con la misma unidad temporal (1990 – 2000), es decir, un total de 440 casos trimestrales y 1320 casos mensuales. Así, la robustez de la muestra se verá mejorada e incluso podría ampliarse la muestra de ratios disminuyendo el gran porcentaje de datos ausentes que se registró en la investigación.
En cuanto a la ausencia de datos, aunque no contamos todavía con elementos más sólidos, presumimos que este fenómeno pudo originarse en gran parte por el efecto window dressing, pues observamos algunos indicios de su presencia en algunas cuentas concentradoras y que al mismo tiempo formaban parte de algunos de los componentes de la muestra original de 71 ratios.
Conclusiones sobre la unidad temporal y la unidad geográfica.
En este estudio la unidad temporal no presentó el efecto negativo de la distorsión de los ratios a través del tiempo, ya que al reexpresar los estados financieros cada trimestre se reconoce en los estados contables el efecto inflacionario acumulado a lo largo de los períodos. De no realizarse dicha reexpresión la comparación a través de los años hubiera sido errónea en el contexto mexicano dada la alta variabilidad en las tasas de inflación y la depreciación de la moneda que ha experimentado el país en los últimos 20 años.
Algunos investigadores han comenzado a recomendar que dentro de esos períodos se obtengan también informes financieros trimestrales y no sólo anuales para observar mejor las tendencias en los cambios de los ratios. Esto lleva a que de alguna manera la unidad temporal se amplié y compense algunos aspectos negativos de aquellas muestras que sean pequeñas, como fue nuestro caso. Por eso obtuvimos informes trimestrales comprendidos entre 1990 y 1997. Sin embargo, hemos de apuntar que al existir distintos criterios sobre el número de años y trimestres en los períodos seleccionados es indudable que continuará presentándose un problema para la consistencia del modelo.
En general podemos decir que los dos problemas principales a resolver a la hora de determinar la unidad temporal son los dos siguientes: a) La dificultad de una definición representativa y objetiva del fracaso; y b) La dificultad para establecer la fecha concreta del fracaso.
En el caso de México tal vez la solución para estos dos aspectos no sea tan simple. En la práctica la mayoría de las empresas operan con desfases en sus cierres contables trimestrales y anuales. La Bolsa Mexicana de Valores sabe de esta realidad, y por lo tanto, permite la entrega previa de estados financieros no consolidados ni auditados para proporcionar al inversor una información financiera previa. Posteriormente se da un período que suele llegar hasta los seis meses para presentar la información final ya consolidada y auditada.
Con respecto a la información anual, el ejercicio técnicamente se cierra el 31 de diciembre, sin embargo, la legislación mexicana al igual que muchas otras del mundo, da como plazo hasta el 31 de marzo para la entrega final de la declaración anual del impuesto sobre la renta. Esta declaración contiene en realidad importantes ajustes a varias de las principales cuentas que se toman para el análisis financiero final. Por otra parte, en este trimestre también se concluye el ciclo anual de la auditoría interna y se hacen las reclasificaciones y ajustes a los estados financieros finales
Esta última operación técnica y cuyo producto final son las bases de datos contables, es también el inicio de los trabajos centrales de la auditoría externa, cuyo objetivo se centra en llegar a la cifra final más real de beneficios para el reparto de dividendos a los accionistas y el reparto de beneficios a los trabajadores. En general, durante el mes de agosto se da la conclusión de la auditoría externa para el año anterior inmediato de operaciones. Esto culmina con la entrega del dictamen del auditor, en el cual se incluyen las propuestas de reclasificaciones y ajustes importantes para ciertas partidas que inevitablemente modificarán los ratios financieros.
Con estas características propias de la práctica contable en México se condiciona y dificulta la determinación de la fecha puntual que se trata de alcanzar rigurosamente en los modelos predictivos. Lo que nos lleva a sugerir que: a) primero no es viable que un investigador pueda determinar una fecha puntual del fracaso de una empresa, y menos aún en una muestra amplia de empresas ; b) segundo, lo anterior nos puede llevar a sugerir que las fechas del fracaso no se deben establecer con base a una determinada emisión de información financiera, sino con base a un período que contenga el cierre final real de cada año. Por lo tanto, deberíamos de estar abiertos a la idea de que dicho cierre puede variar de uno hasta seis meses.
Con respecto a la unidad geográfica, en este punto hemos observado que la determinación correcta de la unidad geográfica en los diferentes estudios se ha realizado con base en los siguientes dos criterios: a) aquellos que están dirigidos a un sector muy concreto, y b) los estudios que abarcan varios sectores pero con características financieras homogéneas. En ambos casos normalmente se excluyen de la muestra las empresas financieras, aseguradoras y los bancos, ya que tienen características particulares. En resumen podemos decir que para que la muestra sea más representativa y puedan llevarse a cabo generalizaciones, la unidad geográfica debe seleccionarse considerando aspectos tan importantes como: a) determinación correcta del país y región; b) determinación correcta del sector y subsectores macroeconómicos en que opera la empresa; y c) fijación de las condiciones necesarias para obtener el tamaño de la empresa.
En esta investigación y con respecto a la determinación del sector y subsectores, como ya apuntamos, se seleccionaron sólo cinco empresas hoteleras grandes que operan en todo el país y que cotizan en Bolsa. Al reducir la muestra sólo a un subsector muy específico, partimos de la base de que en economías muy inestables algunos subsectores tienen comportamientos más dinámicos que otros, e incluso pueden beneficiarse de dichas inestabilidades a corto y mediano plazo.
Conclusiones sobre el método del factorial y la evidencia empírica.
Si consideramos que el principal objetivo de este trabajo no estuvo encaminado a obtener más poder predictivo en el modelo sino a analizar algunos de los principales problemas conceptuales, metodológicos y estadísticos que se presentaron en la reducción de las variables independientes, entonces el análisis factorial representa uno de los principales instrumentos para la extracción de los factores y no un análisis secundario o complementario para desarrollar el análisis predictivo.
Es importante mencionar que en el caso de este estudio nos enfocamos a seleccionar el método reductivo del factorial, dado que lo que interesa es reducir el número de ratios y de factores a partir de una base de datos contable reexpresada, con el fin de obtener para posteriores etapas indicadores estándar de un sector productivo específico que cotice en la Bolsa Mexicana de Valores. Posteriormente, estos indicadores representarán un punto de partida para contrastarlos con otras empresas, que aunque no coticen en bolsa, pertenezcan al tamaño y sector de la muestra original seleccionada. Al final, el propósito es definir una función lineal muy específica para analizar el sector hotelero complejo mexicano, para lo cual dicha función incluiría las variables independientes más representativas para evaluar a este tipo de empresas.
En cuanto al tipo de análisis factorial de componentes principales aplicamos dos tipos: el exploratorio y el confirmatorio. En el primero no se conocen los factores a priori y éstos se determinan a través del método del valor propio (eigenvalue). En cambio en el segundo, los factores que se establecen a priori contienen a las variables independientes originales, siendo el número de estas últimas mayor que el número de factores seleccionados. En general, el análisis factorial exploratorio se aplica cuando se tiene un desconocimiento teórico del objeto de estudio, y por lo tanto, el analista no tiene que formular ninguna hipótesis con respecto a la distribución de los pesos factoriales, pues éstos se deducirán a partir de los datos cumpliendo con los principios de simplicidad y parsimonia.
En cambio, en el análisis factorial confirmatorio sí se cuenta con información sobre las variables y sus intercorrelaciones, con lo cual se formulan hipótesis a priori que pueden ser contrastadas. Es decir, el análisis confirmatorio exige una hipótesis previa sobre el número de factores comunes, así como de las relaciones de dependencia entre cada variable con cada uno de los factores. En este estudio seleccionamos algunas de las variables más representativas para medir la rentabilidad, la eficiencia, la productividad, la liquidez, el cash flow, la solvencia y el endeudamiento.
El análisis confirmatorio aplicamos cinco alternativas en cuanto al número de factores que consistieron en: tres, cuatro, siete, ocho y diez factores. Como sabemos todas estas variantes sobre el número de factores dan resultados exactamente iguales en cuanto a la matriz de datos y sus respectivas pruebas (KMO, MSA, test de esfericidad de Bartlett, el determinante, la gráfica “scree plot”, entre otros). Por otra parte, a partir de las comunalidades, el análisis de la varianza explicada, las matrices factoriales rotadas y sin rotar, entre otros, sí influye significativamente el número de factores previamente establecidos en los resultados obtenidos como lo veremos con más detalle en posteriores líneas. La conclusión sobre la primera etapa del análisis factorial es que se comprueban y superan satisfactoriamente todos los tipos de análisis sobre la pertinencia y validez de la matriz de datos. Dicha matriz quedó conformada por 5 ratios de rentabilidad (R1, R4, R9, R11, R12), 3 ratios de productividad y eficiencia (R13, R14, R15), 5 ratios de liquidez (R28, R30, R35, R36, R38), 1 ratio de cash flow (R50), 5 ratios de solvencia (R51, R52, R56, R57, R58) y 2 ratios de endeudamiento (R64, R70). Como se puede observar, los ratios predominantes son los de rentabilidad, liquidez y solvencia. Esto coincide con el marco teórico tradicional de los modelos predictivos que consideran a estos tres factores como los más importantes dentro de la función lineal discriminante.
Si comparamos los resultados de este estudio con otros similares como el de Taffler (1984) podemos llegar sacar algunas conclusiones en cuanto a la validez de nuestros resultados. Por ejemplo, en ambos casos los factores de endeudamiento y rentabilidad fueron los que más peso clasificatorio obtuvieron a través del factorial. Los otros dos factores que se obtuvieron y coinciden con los nuestros son los de liquidez y el de posición de capital circulante (cash flow). Sin embargo, para el factor de endeudamiento el ratio con mayor correlación fue el R66 (pasivo circulante/ activo total). En nuestro caso el ratio R70 fue el que tuvo una mayor correlación: .985 (activo total / capital contable). Para el factor de rentabilidad Taffler seleccionó al R1 (beneficios netos antes de intereses e impuestos / activo total) pues este ratio dio los mejores resultados. En cambio para nosotros la correlación más alta la dio el R4: .949 (beneficios netos después de intereses antes de impuestos / activo total).
Otro estudio importante que comparamos con nuestros resultados fue el de Pinches, Mingo y Caruthers (1973). Aquí observamos que aunque se determinaron también 7 factores, tres de ellos corresponden al concepto de productividad y eficiencia, uno al de rentabilidad, uno a la solvencia, otro a la liquidez, y por último, uno al cash flow. Esto indica que el factor de endeudamiento y rentabilidad acumulada no fue representativo para Pinches, Mingo y Caruthers (1973). Además, de los siete ratios que representan a cada uno de los factores, sólo el R51 coincide en ambos estudios para representar al factor de endeudamiento. (ver cuadro 9.2).
Por otra parte, los 7 factores de Pinches, Mingo y Caruthers (1973) capturaron entre el 87 % y el 92 % del total de la información contenida en las 48 variables originales, siendo precisamente el factor de endeudamiento el más estable. En cambio, el factor denominado "intensidad del capital" fue el menos estable. En el caso de nuestro estudio, con los 7 factores logramos explicar el 80.34 % de la información. Estos resultados son relevantes si consideramos que el trabajo de los anteriores autores es considerado como uno de los mejores en cuanto a la aplicación del análisis factorial.
Un tercer trabajo considerado como clásico en cuanto al desarrollo de la metodología del factorial y que utilizamos también para contrastar nuestros resultados fue el de Chen y Shimerda (1981). Aquí se llevó a cabo un interesante estudio comparativo de cinco importantes investigaciones. Estas tenían en común un sustento teórico bien fundamentado como requisito previo para aplicar el factorial y demostrar la capacidad empírica de los ratios. Si comparamos los resultados en cuanto al porcentaje de reducción de variables independientes, nos damos cuenta que este oscila entre el 64 % hasta el 85 %. Ahora bien, si consideramos que nosotros obtuvimos el 77 % de reducción a partir de 21 variables, podemos concluir que nuestros resultados son positivos. (ver capítulo 2, cuadro 2.3.4.).
Nuestros resultados también coinciden con los de otros autores en cuanto a que del total de ratios seleccionados para el factorial, no es posible clasificarlos a todos dentro de los factores previamente establecidos en un análisis confirmatorio o exploratorio (Gombola y Kentz: 1983; Johnson: 1979; Short: 1978). Esto es importante tomarlo en cuenta porque nos lleva a la necesidad de estar ajustando constantemente el modelo en cuanto a la selección de factores, pues aunque las bases de datos se actualicen y no modifiquen a los ratios, al permanecer estable su importancia relativa. No hay que olvidar que los factores no son estables a través del tiempo (Gombola, Haskins, Ketz y Williams: 1987).
Aunque sí partimos de una base teórica que nos permite aplicar un análisis factorial confirmatorio, también incluimos un análisis factorial exploratorio para contrastarlos a ambos. Para ello, dentro del programa factorial del SPSS, en la extracción de factores se seleccionó primero la opción del valor propio (eigenvalue), dándonos como resultado seis posibles factores.
En cuanto al número de factores que explican en más del 85% a las variables originales, observamos que con 7 factores se obtuvieron mejores resultados en comparación con el “eigenvalue”. Con respecto a los resultados obtenidos con 7 y 8 factores, la diferencia fue mínima pues sólo se incrementaron los porcentajes de la varianza explicada en tres variables dentro del conjunto de 8 factores. Con base en ello, procedimos a realizar el análisis confirmatorio con 7, 8 y 10 factores, dando como resultado en todos los casos una estabilidad en el comportamiento de los factores 1, 2, 3 y 4.
Por último, el R50 que fue la única variable independiente que representó a la variable original del cash flow, mejoró sus correlaciones al aumentar el número de factores en el análisis confirmatorio. Así en el factor 7 se obtuvo una correlación de .737, con lo cual procedimos denominar a dicho factor como de cash flow.
Al analizar el análisis confirmatorio con 8, 9 y 10 factores, observamos que los factores finales se explican mejor. En cambio, al seleccionar sólo 3 y 4 factores concluimos que resulta insuficiente el espacio factorial para las correlaciones de las variables independientes en cada uno de los factores. Consideramos el marco teórico propuesto inicialmente, donde establecimos a priori 7 componentes, veremos que éstos coinciden con el fundamento empírico que se obtuvo a través del análisis factorial. Ahora bien, al analizar los resultados empíricos que obtuvimos con las variables independientes que se incluyen en el modelo discriminante de Altman, veremos que sólo dos variables independientes aparecieron en este trabajo como factores finales (X2 = R12 y X5 = R14).
En conclusión determinamos que dentro del sector hotelero complejo que cotiza en la Bolsa Mexicana de Valores, podemos llevar a cabo una función discriminante con los siete factores que se muestran a continuación: Factor 1: Endeudamiento (R70; capital contable / pasivo total). Factor 2: Rentabilidad (R4, beneficios netos antes de impuestos / activo total). Factor 3: Solvencia (R51, pasivo total / activo total). Factor 4: Liquidez (R38, activo circulante / pasivo total). Factor 5: Rentabilidad Acumulada (R12, beneficios netos no distribuidos / activo total). Factor 6: Productividad y Eficiencia (R14, ventas netas / activo total). Factor 7: Cash Flow (R50, cash flow tradicional / pasivo total)
Conclusiones sobre los alcances y limitaciones del modelo.
La validación de los modelos predictivos multivariables presentan serios problemas por el bajo nivel teórico que existe sobre la solvencia, además de las múltiples deficiencias metodológicas contenidas en los modelos, así como la falta de obtención de verdaderos resultados predictivos en empresas que se dirigen hacia la quiebra. Recordemos que el principal objetivo de los modelos de predicción es la detección oportuna de empresas que quebrarán en el futuro y su utilidad práctica sólo es patente cuando dichos modelos son capaces de distinguir entre empresas que “no fracasan” y tiene éxito (aunque presenten síntomas de fracaso empresarial) y empresas que sí fracasan (aunque no quiebren).
A lo largo del trabajo algo que llama nuestra atención es el constatar que a la fecha muchas investigaciones continúan sin aplicar nuevas variantes en los modelos y en la fase de diseño del trabajo empírico, pues se interesan más en la aplicación de las técnicas estadísticas. Sin embargo, para el trabajo del analista financiero siempre es más importante la exactitud del modelo predictivo que la contrastación de una hipótesis o la validación rigurosa de una teoría que sólo busca demostrar una compleja habilidad en el empleo de técnicas informáticas y estadísticas que se apartan de ambientes reales. Lizarraga (1993) también coincide con la idea anterior pues considera que la sofisticación metodológica, aunque imprescindible en el avance de la técnica, transforma en ocasiones a los investigadores en sólo “especuladores estadísticos”, que fundamentados en buenos resultados tras largos procesos de contrastación de variables, no tienen en cambio una base teórica y carecen de interpretaciones económicas convincentes.
Ya Lev (1978) afirmó hace más de dos décadas que algunos modelos son inadecuados y cuando se emplean, presentan generalmente el síntoma de la falta de una teoría base, desvirtuando en experimentos excesivos con gran número de variables y de modelos matemáticos cuyos datos y resultados son difíciles de generalizar. Con respecto a esto se vuelve a recomendar que en la interpretación y validación de los resultados exista una interpretación económica y financiera para dar un sentido lógico a las causas del fracaso empresarial, y no sólo interpretaciones en términos estadísticos.
Uno de los objetivos actuales del análisis financiero y que incorporamos en este trabajo, es el estudio de los aspectos importantes de la teoría contable y su relación con los modelos predictivos. Para esto es importante revisar detalladamente el marco conceptual de los principios y normas que rigen la técnica contable actual para entender y saber solucionar los problemas prácticos que se presentan en la obtención de aquella información financiera que necesita la empresa en economías abiertas y a través del tiempo para alcanzar su estabilidad así como el crecimiento sostenido dentro del mercado en donde opera.
Cabe destacar que este estudio se enfocó únicamente a aquellas empresas hoteleras de tamaño grande y del sector privado que cotizan en la Bolsa Mexicana de Valores. Por lo tanto, las generalizaciones de los resultados del análisis factorial no pueden ser aplicables a empresas pequeñas, medianas o corporaciones públicas. Esto es con el fin de poder hacer generalizaciones más acertadas sobre un sector y tamaño de empresa muy específico. Para esto se definieron los criterios cuantitativos y cualitativos que caracterizan a una empresa grande. Sin embargo, se reconoce que actualmente el número de empresas hoteleras que cotizan en la bolsa es escaso con relación al total de empresas inscritas. En este punto hemos de tomar en cuenta que la selección se realizó más bien con el propósito de iniciar un estudio de amplio alcance y a largo plazo dentro del sector hotelero mexicano. Para ello hemos comenzado por analizar al total de hoteles que cotizan en bolsa con el fin de obtener las variables independientes y los mejores factores que nos expliquen el comportamiento sectorial de estas empresas.
Por otra parte, las generalizaciones del modelo a través del tiempo pueden presentar una inestabilidad por las variables que afectan a la información financiera, debido principalmente a los cambios en los criterios contables. Sin embargo, para reducir dicha inestabilidad hemos utilizado únicamente cifras reexpresadas y auditadas para que sean comparables a través de los años. También se buscó descomponer en elementos muy detallados a las variables independientes más importantes que influyen en los siete factores establecidos a priori. Previo a esto, se seleccionaron los ratios financieros reconocidos como los más efectivos para el análisis financiero de una empresa compleja mexicana.
Los resultados del análisis factorial nos proporcionaron algunos indicios sobre el tipo de información contenida en el conjunto de variables del sector hotelero mexicano y pueden servir de guía para la selección de las variables independientes de un modelo predictivo final.
La reducción del conjunto de las variables independientes se dirigió hacia la selección de una variable por cada factor que contenga similar información. Así, el uso de varias variables en un factor dado no es necesario. Utilizar pocas variables predictivas redujo la multicolinealidad y la probabilidad de que las variables incluidas en el modelo sean combinaciones lineales con respecto de cada una de aquellas que exhiban un alto grado de correlación. Además, pocas variables en el modelo final simplifican la aplicación del modelo y la interpretación de los resultados
Hasta ahora no se ha alcanzado un acuerdo sobre cuál es el mejor método para extraer los factores, aunque algunos coinciden en que el análisis de componentes principales es el de mejor aceptación. Sin embargo, otros autores consideran que dicho método en realidad no pertenece al análisis factorial y que las mejores alternativas factoriales son el método de mínimos cuadrados o el método de máxima verosimilitud. Para comprender mejor la complejidad del factorial en este punto, se pueden llevar a cabo las comparaciones de los resultados que se obtienen a través de la aplicación de los diferentes métodos. Para el caso de este estudio únicamente se seleccionó el análisis de componentes principales.
En general las limitaciones impiden a los investigadores y analistas financieros partir de un estándar de variables independientes como el propuesto por Altman. Además, en repetidas ocasiones los estudios no parten de bases de datos y muestras ya reducidas para el desarrollo de sus respectivos modelos, pues no existe un enfoque sistemático único. Esto trae como resultado que cada vez que se inicia un modelo se tiene que partir de un gran número de variables independientes para aplicar la técnica de reducción de datos con pequeñas variaciones. En otros casos se parte con criterios totalmente diferentes aunque se trate del mismo sector y tamaño de empresas analizadas.
Nuestro trabajo no ha estado exento de varios de los problemas ampliamente comentados a lo largo de la investigación, por eso podemos concluir esta tesis diciendo que afortunadamente aún queda mucho por hacer.