Alberto Ibarra Mares
En 1993 Marco Giancarlo y Franco Varetto, de la Central de Balances de Turín, realizaron un trabajo empírico en el que utilizaron redes neuronales. Este trabajo lo dividieron en cuatro partes cuyos objetivos consistieron en lo siguiente:
1. Verificar la capacidad de las redes neuronales para reproducir los valores numéricos de los Z-Scores que se obtienen a través del análisis discriminante lineal.
2. Verificar la capacidad de las redes neuronales para separar las muestras entre empresas sanas y empresas en quiebra.
3. Determinar los cambios de los resultados de las empresas a través del tiempo, ya que las funciones discriminantes tienen un problema de “sensibilidad” sobre dichos cambios.
4. Verificar la capacidad de las redes neuronales para no separar a las empresas en dos categorías como se hacía tradicionalmente, sino en tres categorías: “empresas sanas”, “empresas vulnerables” y “empresas inestables”.
Para Giancarlo y Varetto las redes neuronales no representaban una teoría matemática exacta y clara en comparación con las técnicas estadísticas tradicionales. Sin embargo, y a pesar de estas limitaciones, subrayaron la importancia de que una de las partes integrales de su proyecto consistía en probar nuevas metodologías de análisis para las empresas crediticias a través de construir y mantener una base de datos específica que incluyera compañías con problemas financieros. Esto con el objetivo de desarrollar investigaciones mediante procesos dinámicos (en tiempo real) de quiebras y fracasos.
En su trabajo también se destacaba el reto por crear modelos específicos para cada sector, pues la investigación se centraba en un modelo que trataba por separado a las empresas de tres sectores: el industrial, el comercial y el de la construcción. Consideraron como un punto básico que el modelo era un “sistema de diagnóstico” que sólo debía tomar en cuenta a empresas del mismo tamaño. En este caso ellos sólo consideraron a empresas medianas y pequeñas, excluyendo de la muestra aquellas que tuvieran ventas superiores a 60 millones de dólares durante el período de 1985-1992. La muestra fue seleccionada de una población total anual de 37 mil compañías.
El método de las redes neuronales consistía en interconectar un gran número de unidades con otras, para ver si son capaces de dar resultados que son relativamente fáciles de calcular. Es decir, la idea se basaba en observar como un gran número de unidades interactuan entre si.
Para ellos, el análisis de los resultados de las empresas presentan problemas cuyo origen está en la teoría tradicional financiera y esto imposibilitaba el completar un modelo específico. Por eso los autores opinaban que las investigaciones tenían que adoptar una forma funcional comúnmente lineal predefinida que relacionara a variables endógenas y exógenas. Por otra parte, apuntaban que las redes neuronales no requerían una previa especificación de una forma funcional lineal, ni la adopción de supuestos restrictivos acerca de las características de las distribuciones estadísticas de las variables y errores del modelo. Es decir, las redes daban la posibilidad de trabajar con variables imprecisas, cambiando los modelos a través del tiempo para que fueran capaces estos de adaptarse gradualmente a cada nuevo caso que se presentara.
Para la unidad temporal, la estimación no se inició un año previo a la quiebra, sino dos años previos a que la empresa fuera clasificada como fracasada. Según ellos, esto obedeció a que las empresas transitan, entre el procedimiento concursal y la suspensión de pagos, un tiempo mayor a un año con respecto al momento de su declaración fiscal.
Con respecto a la muestra y a los modelos discriminantes, consideraron que éstos últimos tenían sólo una modesta exactitud “ex-post” cuando utilizan muestras grandes de empresas sanas. También reconocieron la dificultad para clasificar y discriminar muestras compuestas de empresas “vulnerables” y “enfermas”, ya que la utilización de una sofisticada metodología estadística bayesiana no incrementaba la exactitud para integrar los grupos. Sin embargo, apuntaron que otro camino para mejorar el sistema de muestreo consistía en realizar una serie de etapas pragmáticas para llegar a obtener las dos submuestras, advirtiendo que estos métodos no podían ser consistentes para todos los casos pues eran únicos para cada estudio y para cada base de datos.
Como ya se apuntó anteriormente, para obtener la variable dependiente separaron a las empresas en tres categorías: “sanas”, “vulnerables” y “poco estables”. Al final consideraron que el término “poco estable” era el que se debía considerar como fracaso empresarial, y así lo hicieron seleccionando 213 empresas con esta situación. Posteriormente, a estas empresas fracasadas las emparejaron con otra submuestra de empresas sanas. Ambas submuestras fueron elegidas entre un total de mil empresas cuyas bases de datos estaban integradas en la Central de Balances de Turín y cuya unidad temporal comprendió el período de 1982-1992. Los sectores a los que pertenecían las empresas muestreadas eran: el industrial, el comercial, de la construcción y el detallista (comercio al menudeo).
Cabe resaltar que por la importancia que mostraron los italianos con respecto a las bases de datos, la Central de Balances de Turín fue establecida en 1983 por el banco de Italia, la Asociación Bancaria Italiana y otros bancos e instituciones de crédito. Los autores trabajaron con especial interés para coadyuvar en el proyecto para la integración del Sistema Informático, Económico y Financiero de esta nueva institución cuyo producto principal sería precisamente el proveer a los bancos de bases de datos contables, que se utilizasen como herramienta para identificar a empresas con problemas financieros. Sin embargo, hasta 1993 esta institución sólo agrupaba a 37 empresas que proporcionaban información sobre sus estados financieros.
A partir de los criterios establecidos para la variable dependiente, los autores incluyeron en su primera función (F1) “un espacio de clasificación” más amplio que tenía cinco zonas:
1. Empresas con alta seguridad.
2. Empresas seguras.
3. Empresas con incertidumbre (entre seguras y vulnerables).
4. Empresas vulnerables.
5. Empresas muy vulnerables.
En su segunda función (F2) establecieron otros cinco tipos de zonas o espacios clasificatorios que fueron: empresas con alta vulnerabilidad, empresas vulnerables, empresas con incertidumbre (entre vulnerables y con riesgo), empresas con riesgo y empresas con alto riesgo de quiebra.
Una novedad en el estudio de estos investigadores consistió en probar por primera vez un método alternativo al análisis discriminante cuya aplicación estuviera basada en la inteligencia artificial, a través de las redes neuronales. Sus resultados les confirmaron que este sistema da un diagnóstico automático y puede ser utilizado para preseleccionar negocios que deban examinarse posteriormente con más profundidad para otorgarles créditos.
En cuanto al mayor problema que encontraron en su investigación, destacó la existencia de un inaceptable tipo de comportamiento dentro de la red. La frecuencia de tipos de comportamientos ilógicos dentro del juicio del análisis financiero creció con el incremento en la complejidad de la arquitectura de la red. Sólo las redes neuronales muy simples limitaban la probabilidad de resultados inaceptables. Sin embargo, los autores sugirieron como una alternativa, el integrar redes y funciones discriminantes para tratar problemas complejos de clasificación aprovechando la flexibilidad y la capacidad de estructuración simple que tienen las redes.
Los resultados obtenidos mostraron que un año previo a la quiebra se llegó a una exactitud del 92.6 % para las empresas fracasadas. De acuerdo con esto, los autores consideraron que las redes neuronales permitían al analista obtener una capacidad para aproximarse a un indicador con valor numérico para discriminar funciones y en ocasiones poder clasificar con más exactitud que el análisis discriminante lineal, a grupos de empresas sanas y no sanas. Un año previo a la quiebra se obtuvo una exactitud del 87.6 % para las empresas fracasadas. Según los autores, con estos resultados se podían sacar las siguientes conclusiones:
1. Las redes neuronales proporcionaban al analista la capacidad para aproximarse a un valor numérico (indicadores) para discriminar funciones entre grupos de empresas sanas y no sanas, e incluso con mayor exactitud que el análisis discriminante múltiple.
2. Este sistema tenía un poder predictivo considerable y era flexible, sin embargo se requerían numerosas pruebas para obtener la estructura de las redes.
3. Existía la posibilidad de obtener un comportamiento ilógico de las redes dadas las diferentes variaciones de los “input-valores”. Esto constituyó para ellos un serio problema desde un punto de vista financiero, y por lo tanto, recomendaron utilizar en paralelo tanto el MDA como las redes neuronales.
Giancarlo y Varetto concluyeron que aunque este sistema tenía un poder predictivo considerable y era flexible, se requerían numerosas pruebas para obtener la estructura de las redes neuronales. Además, también existía la posibilidad de obtener resultados con un comportamiento ilógico dadas las diferentes variaciones de los “input-valores”. Esto desde un punto de vista financiero representaba un serio problema. Por eso reconocieron la necesidad de utilizar simultáneamente el análisis discriminante múltiple y el método de redes neuronales.
El análisis final sobre esta primera parte del trabajo indica el desacuerdo extraordinario que existe hasta la fecha sobre los modelos predictivos en general, pero sobre todo en lo particular cuando analizamos cada uno de sus componentes desde un enfoque conceptual y técnico. Así lo podemos ver en el siguiente cuadro en cuanto a la muestra, el sector que tiende a no definirse de forma específica, la unidad temporal y el número de ratios utilizados.