Desde la perspectiva de la moderna Teoría financiera, podemos decir que el problema de la inversión en condiciones de certeza es un tema teóricamente resuelto. Los criterios contables, basados en el beneficio, han caído en desuso, abandonados por su subjetivismo, así como por los problemas de consideración del valor del dinero en el tiempo. Y dentro de los criterios de selección basados en el análisis del impacto en caja de un determinado proyecto (tales como el Valor Actualizado Neto –VAN–, la Tasa de Rentabilidad Interna –TRI–, el Indice de Rentabilidad –IR–, etc.), podemos decir que el VAN presenta indudables ventajas frente a los demás, que lo convierten en un criterio superior.
Sin embargo, no podemos decir lo mismo del problema del riesgo. Criterios clásicos, como el Ajuste del tipo de descuento, o el Equivalente de certeza; aportaciones como la de Markowitz, con su Teoría de cartera (y de sus continuadores, como Sharpe, Lintner, Mossin, etc., que dan lugar al Capital Asset Pricing Model –CAPM–); modelos como el Arbitrage Pricing Theory
–APT– de Ross, que trata de generalizar las conclusiones del CAPM; nuevos enfoques, como el Option Pricing Model –OPM– de Black y Scholes, que pretenden analizar la Teoría financiera desde una nueva perspectiva, … constituyen intentos de explicar la realidad, y pretenden dar al gestor herramientas útiles para la toma de decisiones en un entorno cambiante, en el que no conocemos con seguridad lo que nos deparará el futuro. Sin embargo, ninguna de las soluciones propuestas han dejado, ni mucho menos, cerrado el problema. La tendencia actual es la de contrastar la capacidad explicativa de estos modelos en la realidad, tratando de mejorarlos en lo posible, lo que a menudo implica utilizar complicadas técnicas estadísticas y econométricas.
En España, también se han producido aportaciones interesantes en lo que se refiere al tratamiento del riesgo. Una de ellas es el VAP (Valor Actualizado Penalizado), sistema desarrollado por el Profesor Gómez–Bezares en la Universidad Comercial de Deusto, y que trata de ser una alternativa sencilla y práctica a los criterios apuntados. Así, mientras los distintos sistemas citados precisan, en general, de un aparato matemático importante (que, en muchas ocasiones, hacen poco práctica su utilización, y quizás los alejan de los departamentos financieros de muchas empresas), el VAP presenta la ventaja de su sencillez, si bien sustentada en una justificación teórica suficiente.
Una característica común a casi todos los criterios mencionados es la suposición de que las variables utilizadas siguen una distribución normal. Este artículo pretende relajar esta condición en el caso del VAP, generalizando el criterio para el caso de que el VAN no siga ninguna distribución conocida.
Es de todos conocida la distinción que desde la Teoría de la decisión se establece entre los ambientes de certeza, riesgo e incertidumbre. Así, el ambiente de certeza se define como aquél en el que todas las variables que afectan a una decisión son conocidas con seguridad. En el extremo contrario, el ambiente de incertidumbre se caracterizaría por el hecho de no conocer en absoluto el comportamiento futuro de las variables implicadas en la decisión. Ambas son situaciones que habitualmente no se producen en la realidad: normalmente, las ventas de un nuevo producto están sujetas a una cierta variabilidad, incluso es probable que las estimaciones de diferentes gestores con un conocimiento similar de la realidad arrojen resultados distintos. Lo mismo podríamos decir acerca de variables como los tipos de inflación futuros, la evolución de los tipos de interés, o de los precios de materias primas como el petróleo, etc. Sin embargo, tampoco es frecuente que el decisor no pueda decir nada sobre el comportamiento esperado de estas variables.
Todo ello nos lleva al tercer ambiente, el de riesgo, que supone que es posible conocer las distribuciones de probabilidad de las distintas variables que afectan al problema. Entendemos, pues, que nos enfrentamos a una decisión con riesgo siempre que exista variabilidad en el resultado de la decisión y seamos capaces de estimar dicha variabilidad (puede profundizarse en el concepto de riesgo en Gómez–Bezares, 1993a, capítulo 6, y en Gómez–Bezares, 1991).
Pretender que pueden conocerse con exactitud las probabilidades de que ocurran determinados sucesos en el futuro parece también difícilmente aceptable. La estadística nos aporta aquí una herramienta interesante, la Teoría de la probabilidad subjetiva, que frente a la estadística clásica, que entiende la probabilidad como aquello a lo que tiende la frecuencia relativa (lo cual haría que sólo pudiéramos hablar de probabilidad en el caso de enfrentarnos a situaciones repetitivas), asimila este concepto al “grado de credibilidad” que se otorga a los distintos sucesos posibles (nuevamente, puede ampliarse esta idea en Gómez–Bezares, 1993a, capítulo 6).
Recordemos que el VAN (que, tal como indicábamos en la parte introductoria, es el criterio superior para la toma de decisiones de inversión en ambiente de certeza) propone analizar el interés de un determinado proyecto mediante la comparación, en valor actual, de los flujos positivos y negativos asociados al mismo. Así:
[1]
donde DI representa el Desembolso Inicial a realizar para afrontar el proyecto; GFi es el impacto que éste tiene en la caja de la empresa en el año i; k es el coste de oportunidad de invertir en el proyecto (en certeza, el tipo de interés sin riesgo); y n es la vida útil (es decir, el número de años en los que el proyecto tiene efectos). El criterio consistiría en aceptar aquellos proyectos cuyo VAN sea mayor que cero.
Supuesto lo anterior, y aceptando que lo normal es que nos encontremos en un ambiente de riesgo, un primer criterio de tratamiento en la decisión de inversión sería decidir en función del promedio del VAN. Así, bastaría con conocer el promedio esperado de resultado de una determinada decisión, aceptando aquellos proyectos cuyo VAN esperado fuera mayor que cero. Pero este criterio implica la suposición de que el decisor es indiferente al riesgo, lo cual es difícilmente aceptable en muchas ocasiones. Más lógico parece suponer que, en condiciones normales, los individuos nos comportamos como enemigos del riesgo, en el sentido de que preferimos una cantidad segura a una promesa de promedio igual, pero sujeta a riesgo.
La justificación teórica de esta aversión al riesgo la encontramos en la Teoría del consumidor: si suponemos que la utilidad de un bien normal (entre los que podríamos incluir el dinero) es creciente de forma menos que proporcional (lo que implica suponer que el individuo preferirá tener más a menos del citado bien, y que la utilidad marginal del mismo es decreciente), la mencionada aversión es clara. De esta manera, y tal como puede apreciarse en la figura 1, el individuo preferiría recibir 1 millón de euros seguros que participar en un juego en el que puede recibir 0 ó 2 millones con probabilidades del 50%, ya que la utilidad del millón seguro (en nuestro ejemplo, 0,9) es superior a la utilidad que como promedio obtendría en el juego (0,75).
La esperanza matemática de las unidades monetarias puede, sin embargo, ser útil en algunas ocasiones. Así, para cantidades pequeñas no parece ilógico pensar que el individuo se comporte como “indiferente” ante el riesgo, apareciendo así una zona de utilidad lineal. E incluso, en determinadas circunstancias, parece aceptable pensar que nos comportemos como amigos del riesgo, con zonas de utilidad marginal creciente (pensemos en el individuo que juega a la lotería). Esta circunstancia ha sido estudiada por autores como Friedman y Savage (1948), entre otros muchos, pero en términos generales puede considerarse excepcional, por lo que nosotros supondremos individuos enemigos del riesgo (para profundizar en estas ideas puede consultarse Gómez–Bezares, 1991, capítulo 1).
Figura 1
El problema radica en el hecho de que, si suponemos que la utilidad marginal es decreciente, deja de ser indiferente razonar en términos de esperanza matemática de unidades monetarias o de utilidades (en este sentido, puede ser interesante consultar la visión axiomática de la utilidad de Von Neumann y Morgenstern, 1947, de la cual puede encontrarse un buen resumen en Gómez–Bezares, 1991, capítulo 1).
Por lo visto hasta ahora, sería necesario estimar la función de utilidad del individuo para poder adoptar una determinada decisión, lo cual no es normalmente operativo desde un punto de vista práctico. Y además, aunque existen procedimientos que nos permitirían aproximar esta función (véase nuevamente Gómez–Bezares, 1991, capítulo 1), en la mayoría de las ocasiones, la decisión que pretende adoptarse afecta a un grupo grande de personas (los accionistas), lo que complica, cuando no imposibilita, esta forma de trabajar.
Nos encontramos, pues, con una decisión de inversión a adoptar, cuyo resultado no es conocido con seguridad, pero del que se conoce su distribución de probabilidad. Así mismo, suponemos individuos enemigos del riesgo, por lo que no basta con decidir en función del promedio, sino que se hace necesario considerar la variabilidad de los resultados.
Para ello, existen algunos sistemas clásicos, que presentan determinadas ventajas e inconvenientes. La idea general, como se verá, es la de penalizar de alguna forma el resultado de la decisión en función del riesgo que aporta.
5.1. El Equivalente de certeza
Este procedimiento consiste en penalizar las generaciones de fondos en función de su riesgo (variabilidad). Así, se trata de buscar, para cada Generación de Fondos (GF) sujeta a riesgo, su equivalente cierta, es decir, aquella cantidad segura que reporta la misma utilidad que la GF promedio con riesgo. Esto nos llevaría a aplicar a cada generación de fondos un coeficiente corrector ai (que para enemigos del riesgo es menor que 1), que dependería de la forma concreta de la función de utilidad del individuo. Exigiría, pues, conocer la función de utilidad, y estimar la ai correspondiente a cada GFi.
Así, siendo:
E(GFi) Generación de fondos esperada (sujeta a riesgo)
GFi’ Generación de fondos equivalente cierta
tendríamos que:
GFi’ = ai · E(GFi) [2]
Dado que, una vez aplicado el sistema de penalización, trabajamos con cantidades equivalentes ciertas, el tipo de descuento a aplicar en el cálculo del VAN sería el tipo de interés sin riesgo:
[3]
El sistema es interesante desde un punto de vista teórico, pero tan poco operativo en la práctica como razonar en función de la esperanza matemática de utilidad.
5.2. El Ajuste del tipo de descuento
Se trata aquí de penalizar el VAN de un proyecto arriesgado utilizando un tipo de descuento superior al aplicable a proyectos sin riesgo. Vemos, pues, que mientras en el procedimiento anterior, la penalización venía por la vía de los numeradores, en este caso se trata de penalizar el denominador. Así, las generaciones de fondos esperadas se actualizarían al tipo primado, según la siguiente expresión:
[4]
donde:
k Tipo de descuento para inversiones sin riesgo
P Prima por riesgo
En definitiva, se trata de exigir a las inversiones arriesgadas un “premio por riesgo”. La ventaja radica en su sencillez en términos comparativos con el anterior, ya que ahora sólo es necesario realizar una estimación (frente a las “n” ai del Equivalente de certeza). Por otro lado, considera el proyecto como un todo, y penaliza de forma creciente las generaciones de fondos más alejadas del momento actual, lo cual parece lógico en un entorno cambiante. El problema radica nuevamente en la forma de estimar esta prima por riesgo, que en muchas ocasiones es totalmente subjetiva. Existen procedimientos prácticos de estimación: así, podría tratar de verse cuál es la prima que los accionistas de empresas con similar riesgo están exigiendo en el mercado, pero en cualquier caso, la subjetividad está siempre presente.
6.1. La Simulación y los árboles de decisión
Se trata de dos herramientas de trabajo interesantes, aportadas por el campo de las Técnicas Cuantitativas. La primera consiste en, conocidas las distribuciones de partida de las variables que afectan a la decisión a adoptar, “simular” la aparición del azar para llegar a una distribución de resultado (en nuestro caso, de VAN). Se trata de una técnica de gran flexibilidad, que permite, además, repetir el proceso bajo diferentes condiciones de partida, facilitando así el análisis de sensitividad de los resultados ante cambios en las variables de entrada (puede ampliarse este tema en Hertz, 1964, Cepeda y Vargas, 1990, y Gómez–Bezares, 1993a, apéndice 6–B).
En cuanto a los árboles de decisión, se trata aquí de un instrumento que nos permite representar decisiones complejas de una manera sencilla (véanse, entre otros, Magee, 1964, y Gómez–Bezares, 1993a, apéndice 6–A).
En ambos casos, no podemos hablar estrictamente de “criterios de decisión”, sino más bien de instrumentos de ayuda en la valoración de proyectos.
6.2. El CAPM y sus continuadores
El CAPM, modelo que nace a partir de la Teoría de cartera de Markowitz, establece una distinción importante: la existente entre el riesgo sistemático y el diversificable. El primero sería el que tiene que ver con la marcha de la economía (y, por tanto, no podría evitarse invirtiendo en distintas ramas de la misma), mientras que el segundo sería el riesgo específico del proyecto, que podría eliminarse mediante una adecuada diversificación.
El modelo propone trabajar de la siguiente forma: en primer lugar, deberíamos estimar el premio que en el mercado se está pagando por unidad de riesgo sistemático (que es el único que, según el CAPM, debe ser retribuido, ya que el diversificable deberá ser convenientemente eliminado por el accionista racional); a continuación, habría que estimar la cantidad de riesgo sistemático asociado al proyecto que se analiza (para lo cual se propone una medida, la “beta”). Con la información descrita, estaríamos en disposición de adoptar la decisión correspondiente.
No es difícil conectar el CAPM con los dos criterios clásicos de tratamiento del riesgo que veíamos anteriormente (el Ajuste del tipo de descuento y el Equivalente de certeza; puede verse este tema en Gómez–Bezares, 1991, capítulo 5): así, el modelo puede entenderse como una herramienta más objetiva para el cálculo de los parámetros que la aplicación de dichos criterios exige.
Con todo, y reconociendo el innegable interés del CAPM desde el punto de vista teórico, hay que decir que su aplicación en la práctica presenta aún hoy interrogantes y problemas no definitivamente resueltos. Por otro lado, las contrastaciones empíricas realizadas en nuestro entorno más cercano no arrojan tampoco resultados definitivos respecto a su aplicabilidad en mercados aún lejanos de los perfectos (véanse a este respecto, entre otros, los trabajos de Bergés, 1984, Gómez–Bezares, 1989, y más recientemente, los de Santibáñez, 1994, Madariaga, 1994, y Gómez–Bezares, Madariaga y Santibáñez, 1994).
6.3. Una breve referencia al OPM y otros modelos
El OPM propone analizar toda la gestión financiera de la empresa desde la óptica de la Teoría de opciones: así, por ejemplo, trata de valorar las acciones de la compañía como si fueran una opción de compra sobre los activos de la misma, cuyo precio de ejercicio es el valor de la deuda. Se trata de un campo con posibilidades, pero la valoración de las opciones es un tema no resuelto definitivamente en la actualidad. Modelos como el de Black y Scholes (1973) presentan problemas a la hora de contrastar sus resultados en la realidad, que hacen que tampoco constituyan una solución definitiva al problema del riesgo.
Tampoco el APT de Ross parece una solución válida, al introducir grados de dificultad muy elevados respecto al CAPM, sin que se vea clara la mejoría conseguida en su capacidad explicativa (véase nuevamente Gómez–Bezares, 1989, Gómez–Bezares y Santibáñez, 1991, y Gómez–Bezares, Madariaga y Santibáñez, 1994).
En este contexto, aparece un sistema alternativo, el VAP, propuesto por Gómez–Bezares a mediados de los ochenta (y desarrollado, entre otros, en los trabajos que se citan en la bibliografía), con una intención eminentemente práctica. Frente a criterios como el Ajuste del tipo de descuento (que penaliza el VAN a través del denominador), o el Equivalente de certeza (que lo hace a través de sus numeradores), el VAP propone la penalización directa del VAN en función de su riesgo. De entre los múltiples sistemas para hacerlo (véase Gómez–Bezares, 1993a, págs. 286 y ss), nos inclinamos por la penalización lineal:
VAP = E(VAN) – t · s(VAN) [5]
donde E(VAN) y s(VAN) son, respectivamente, el promedio y desviación típica de VAN2 . Es importante señalar también aquí que los posibles valores de VAN (los que posteriormente dan lugar al promedio y la desviación presentadas) se calculan descontando las generaciones de fondos al tipo de interés sin riesgo. Según este criterio, serían interesantes los proyectos con VAP positivo, eligiéndose, en el caso de jerarquizar, los que tuvieran el máximo valor en esta variable.
Supuesto un valor concreto de t, y llamando Zi al resultado de aplicar la fórmula 5 según los diferentes valores posibles de E(VAN) y s(VAN), la ecuación representa un sistema de rectas paralelas en el mapa m-s, tal como puede verse en la figura 2.
Figura 2
En la citada figura 2 puede verse intuitivamente lo que estamos haciendo: al valorar un proyecto en función de su VAP, lo hacemos en razón de la ordenada en el origen de la recta en la que se sitúa dicho proyecto (supuesta, tal como decíamos anteriormente, una determinada t). Y, al elegir el proyecto con mayor VAP, buscamos aquél que nos permita situarnos en la recta con ordenada más alejada posible del origen de coordenadas. Si aceptamos la posibilidad de que las curvas de indiferencia (combinaciones de promedio y riesgo que resultan indiferentes para el individuo) sean rectas (simplificación aceptable, al menos para proyectos de riesgo similar
–véase para ampliar esta idea Gómez–Bezares, 1991, capítulo 10, o Gómez–Bezares, 1993a, capítulo 6–), vemos que, en realidad, estamos razonando en términos de utilidad.
7.1. Justificación teórica del VAP. Normalidad del VAN
Veamos ahora desde otro punto de vista lo que está detrás del criterio propuesto, suponiendo que el VAN siga una distribución normal. Para ello, jugaremos con los elementos que aparecen en la fórmula 5. Si despejamos t, y llamando X al valor obtenido de VAP, tendremos:
[6]
que no es otra cosa que la tipificación de un valor concreto de la variable VAN. Así, el valor X sería aquél que se aleja “t” desviaciones típicas del promedio. Y este valor dejará a su izquierda una probabilidad a, que será función de t (tal como puede verse en la figura 3) 3.
Figura 3
Recordemos que lo que conocemos del proyecto es su promedio y desviación típica (m y s), y lo que estamos buscando es el valor X (o VAP), debiendo, por tanto, decidir previamente el valor que daremos a t (y que, según el criterio, indicará el número de desviaciones típicas a restar al promedio). Obviamente, cuanto mayor sea el valor de t, menor será el valor de X, y, por tanto, más probabilidades tendremos de rechazar el proyecto. Pero también estaremos haciendo que la probabilidad de obtener un valor de VAN menor que X sea cada vez más pequeña. Dicho de otro modo, el VAP me está diciendo cuál es el valor mínimo garantizado de VAN que obtendré con un determinado nivel de garantía (1–a). Cuanto mayor sea t, menor será a, y por tanto, mayor será el nivel de garantía. Cuanto más enemigo del riesgo sea, mayor valor de t asignaré (más garantía exigiré de no obtener un valor de VAN menor que X), y más pequeño será el valor de VAP obtenido.
En este punto, podríamos preguntarnos qué valor sería lógico dar a t. Para resolver este problema, acudamos a las tablas de la distribución normal tipificada: una t = –1 (es decir, un valor inferior al promedio en una desviación típica) deja a su izquierda un 15% de probabilidad, aproximadamente; la probabilidad que queda a la izquierda de un valor de t = –2 es algo mayor que el 2%, mientras que para una t = –3, la probabilidad baja a una cantidad cercana al 1 por mil. Entendemos que un valor de t entre 1 y 2 sería razonable: dependiendo del grado de aversión al riesgo del decisor, así como de la importancia de la decisión, una garantía de un 85% de obtener un valor de VAN como mínimo igual a X (siendo éste positivo) puede ser suficiente, mientras que en otras ocasiones, este nivel de confianza exigido puede crecer hasta un 97%.
Nuevamente, el elemento subjetivo está presente en el tratamiento del riesgo, pero estamos ante un criterio que aporta, fundamentalmente, operatividad. Por otro lado, puede resultar de interés recordar que la subjetividad está presente desde el principio, en la propia estimación de los distintos sucesos posibles, así como de las probabilidades asociadas a los mismos.
Relacionado con lo anterior, y dado que el VAP pretende, sobre todo, ser un criterio utilizable en la práctica, hay que decir que, en ocasiones, realizar una estimación ajustada del promedio y la desviación típica del VAN puede resultar complicado. En estos casos, pueden realizarse aproximaciones simplificadas: así, si contamos con los valores máximo y mínimo del VAN, y siempre que no tengamos razones para rechazar la normalidad de la distribución, pueden aproximarse sin mucho error y de forma sencilla el promedio y la desviación típica:
[7]
[8]
7.2. Generalización del VAP para distribuciones no normales
Hemos visto que una de las hipótesis que está detrás de la justificación teórica del criterio es suponer que la distribución del VAN es normal. El propio Gómez–Bezares, en su trabajo de 1991, y en otro posterior (Gómez–Bezares, 1993b), propone una generalización para el caso de que la distribución de partida no siga una normal, a través de la distribución beta incompleta. Como es sabido, este tipo de distribución queda definida simplemente con los valores mínimo y máximo de la variable, así como con su moda.
Esta generalización puede ser de utilidad en determinadas ocasiones, cuando la información de partida es pobre. Sin embargo, existen otros casos en los que contamos con una información más rica, donde utilizar la beta incompleta supondría desperdiciar parte de la misma. Por ello, propondremos en el siguiente apartado la “visión histogramática”, siendo precisamente ésta la principal aportación del artículo que ahora se presenta.
8. Un paso adicional: La visión histogramática
Presentado el criterio VAP, su objetivo y su justificación, trataremos de generalizarlo para el caso en el que la distribución se representa con cualquier tipo de histograma, utilizando para ello un ejemplo (que reproduce el presentado en Santibáñez, 1992).
• Planteamiento del problema
A finales de 1990, Inverbol, S.A. tiene la posibilidad de comprar acciones de la sociedad “Megamore”, cuya actividad fundamental es la comercialización de distintos aparatos relacionados con el mundo del sonido y la alta fidelidad, y cuyo perfil de fondos estimado para los próximos años es el que aparece en el cuadro 1.
Escenario Desembolso90 GF91 GF92 GF93 Probabilidad
1 1.000 100 100 1.100 30%
2 1.000 110 110 1.150 40%
3 1.000 125 125 1.200 30%
Cuadro 1
Las presentadas son una aproximación a las generaciones de fondos esperadas para el comprador de una acción (netas de impuestos, por no complicar el caso desde el punto de vista fiscal). La cotización de la acción en el momento de adoptar la decisión es, como se desprende del mencionado cuadro 1, 1.000 unidades monetarias (u.m.).
También puede deducirse del cuadro citado que, dentro de cada posible estado de la naturaleza, existe una correlación perfecta entre las generaciones de fondos de cada año. Para inversiones con riesgo, Inverbol, S.A. utiliza el sistema del Valor Actualizado Penalizado (VAP). En concreto, para niveles de riesgo como el que se analiza, y en los casos en que pueda aceptarse que la distribución de resultados siga la normal, el parámetro t de penalización es de 1 (VAP = µ – s): esto significa que el criterio de Inverbol es el de valorar los proyectos en función de su valor mínimo garantizado con un 84,13% de probabilidad (en el caso de que la distribución de resultados no siga la normal, el criterio a utilizar es el mismo, si bien no podrá aprovecharse la fórmula propuesta). Diremos también que el tipo de interés sin riesgo en el mercado es del 10%.
• Solución propuesta
En la valoración de este proyecto nos encontramos con que existen tres posibles alternativas: una “pesimista”, otra “normal” y otra “optimista”. Sin embargo, no es lógico pensar que la distribución de las generaciones de fondos sea discreta: entre los valores de la generación del primer año en las opciones pesimista y optimista (100 y 125) hay un abanico de valores que con toda seguridad podrían producirse (y no solo uno, 110). Tampoco parece lógico que pueda asegurarse que “en ningún caso” dicha generación de fondos vaya a ser inferior o superior a los valores dados como mínimo y máximo, respectivamente. Obviamente, se trata de una simplificación realizada por la persona que aporta los datos, que, por otro lado, será frecuente en la realidad. La interpretación que daremos a esta información de partida es la de considerar que en la opción pesimista, por ejemplo, la generación de fondos “rondará” las 100 unidades monetarias los dos primeros años y 1.100 el tercero, con lo cual el VAN “estará próximo” al valor calculado partiendo de las mencionadas generaciones de fondos.
Los posibles VANes (calculados a partir de los valores aproximados de las generaciones de fondos, y actualizados al tipo de interés sin riesgo, 10%, para evitar la doble penalización) son los que aparecen en el cuadro 2.
Concepto / Alternativa |
Pesimista |
Normal |
Optimista |
Desembolso |
1.000 |
1.000 |
1.000 |
GF91 |
100 |
110 |
125 |
GF92 |
100 |
110 |
125 |
GF93 |
1.100 |
1.150 |
1.200 |
Probabilidad |
0,3 |
0,4 |
0,3 |
VAN |
0 |
54,92 |
118,52 |
Cuadro 2
A partir de estos valores, podríamos intentar construir la distribución del VAN, eliminando la discretización de la variable. Si aceptáramos que la distribución es aproximadamente normal, aplicaríamos directamente el modelo del VAP conocido: calcularíamos el promedio del VAN y lo penalizaríamos restándole una desviación típica, estando en este caso plenamente justificado razonar en términos de m y s. Sin embargo, los valores estimados de VAN presentan una pequeña asimetría, que puede hacernos algo más difícil aceptar la normalidad de la distribución. Una alternativa sería aplicar algún test de normalidad, pero no parece que, en nuestro caso, esto tenga demasiado sentido, dada la poca información de partida y lo altamente discretizada que se encuentra.
Llegados a este punto, puede ser interesante realizar una breve reflexión, que enlaza con lo apuntado en el primer párrafo de este mismo apartado, y que se refiere a la interpretación de la información. Lo habitual es que los datos referentes a una inversión no sean conocidos con certeza, sino que estén sujetos a una cierta variabilidad. Podríamos ir más lejos, y afirmar que, en la mayoría de los casos, el trabajo más difícil del decisor radica, precisamente, en la estimación de la información relevante a la decisión, en aquello que constituye normalmente el “planteamiento” del problema.
A todo ello hay que añadir el hecho de que es frecuente que el decisor no sea el encargado de estimar toda la información relevante. Así, preguntará normalmente al jefe de ventas sobre la cantidad de un producto que puede venderse; o al de producción sobre las unidades que una máquina es capaz de producir; o al responsable de aprovisionamientos sobre la cantidad que estima debe quedar en almacén, … Esto añade una dificultad adicional, que es la interpretación de la información disponible.
Es habitual suponer que los datos de los que se dispone, incluso en un caso encuadrado dentro de un entorno de riesgo, se entiendan como seguros. Es decir, que si se nos dice que, como en este caso, existe un 30% de probabilidad de obtener unas determinadas generaciones de fondos, éste dato se entienda al pie de la letra. Y sin embargo, si nos detenemos un instante, encontraremos a veces que este supuesto es absurdo.
Partiremos, pues, de la idea de que la información que se nos ha proporcionado es con frecuencia imperfecta, y que el primer paso que debemos realizar es la interpretación de la misma. Y proponemos la siguiente forma de actuación: en los casos en que la normalidad sea aceptable, trabajaremos con la penalización directa del VAN; cuando esta hipótesis sea difícilmente creíble, seguiremos un camino alternativo, que debe entenderse como una generalización del VAP en el caso de que la distribución no siga una forma conocida.
Dado que en nuestro caso la información está muy discretizada (solo tres valores), rechazaremos en una primera aproximación que la distribución sea normal, y aplicaremos un sistema alternativo: tal como se verá, el sistema propuesto es subjetivo, pero entendemos que siempre podrá llegarse, con ayuda de la persona que aporta la información, a determinar si la realidad se comporta o no de manera suficientemente aproximada a los supuestos que se realicen.
Empezaremos suponiendo que la distribución con la que contamos no se parece a ninguna conocida, por lo que intentaremos construir el histograma correspondiente. Al distribuirse los datos de forma ligeramente asimétrica respecto al promedio, los intervalos no van a tener el mismo tamaño, ni siquiera tienen por qué ser centrados. En este sentido, entendemos los valores calculados de VAN como “marcas de clase” un tanto “sui géneris”: calcularemos el límite inferior de un intervalo y el superior del siguiente como punto equidistante de las dos “marcas de clase”, con lo que garantizamos que cada posible valor intermedio queda clasificado dentro del intervalo de cuya marca se encuentra más cercano. Obviamente, el proceso nos va a dar intervalos no simétricos respecto a lo que hemos tomado como marca de clase. Entendemos que no es esto lo importante, como comentaremos después.
En lo que se refiere al primer y último intervalos, la forma de cálculo de los límites inferior y superior se realizará, respectivamente, restando o sumando a la marca de clase correspondiente el valor obtenido previamente para la mitad contraria del propio intervalo. Veámoslo en nuestro caso concreto.
Llamando:
Lij Límite inferior del intervalo j.
Lsj Límite superior del intervalo j.
y realizando las siguientes operaciones:
llegamos al histograma que aparece en la figura 4, donde las alturas de los diferentes intervalos se han calculado de forma que el área de los mismos refleje su probabilidad. Concretamente, se han calculado de la siguiente forma (llamando bj a la base del intervalo j y hj a su altura):
Figura 4
Un breve comentario respecto a la razón de optar por esta opción. Podríamos haber elegido representar los intervalos de forma que las alturas fueran las que representaran las probabilidades de cada uno de ellos. Pensemos en un ejemplo: supongamos una distribución en la cual la mayor parte de la probabilidad se reparte dentro de unos valores centrales, en un rango amplio de valores. Por ejemplo, supongamos que la probabilidad asignada a un VAN de –15 sea de un 25%, y la de un VAN de +15 sea igualmente de un 25%. También nos dice el “informador” que la probabilidad de obtener un VAN de –25 es de un 15%, y la de un VAN de
–27 de un 10%. Igualmente, las probabilidades asignadas a unos VANes de 25 y 27 son de un 15% y un 10%, respectivamente.
Analizando la distribución original (variable discreta), podríamos pensar que es lógico aceptar la normalidad de la distribución. Y a esta conclusión podríamos también llegar si, al convertir en continua esta variable, los intervalos tuvieran unas alturas equivalentes a las probabilidades de cada uno de ellos. Sin embargo, si representamos los intervalos de forma que sus áreas representen las probabilidades, observaremos que los intervalos extremos tienen una altura mayor que los centrales (a pesar de que la probabilidad es más pequeña, al tener una base del intervalo mucho menor, no hay más remedio que darles una mayor altura para respetar la probabilidad asignada). Esta representación nos haría más difícil aceptar la normalidad de la distribución. Puede verse todo esto de manera gráfica en las figuras 5 y 6.
¿Cuál de las dos aproximaciones es mejor? Nuestra opinión es que claramente la segunda (la que propone mantener la proporcionalidad entre áreas y probabilidades). Lo que ocurre es que lo que es difícil de aceptar es que la distribución original tenga esa forma: no parece lógico que el “informador” sea capaz de afinar tanto en valores extremos (nótese que es capaz de dar probabilidades a valores alejados en tan solo dos unidades en dichos extremos), y tan poco en los valores centrales (que, por su probabilidad, son mucho más frecuentes). Por otro lado, no es corriente que nos encontremos con este tipo de distribuciones en la realidad.
Figura 5
Figura 6
Pero todo esto es simplemente una crítica a la información de partida, a la credibilidad que podemos dar a esa información inicial. Si aceptamos como buena dicha información, es decir, si nos creemos que la distribución discreta aportada inicialmente es correcta, entonces lo lógico es no aceptar la normalidad de la distribución continua. Normalmente no se producirán situaciones tan raras como la planteada en el ejemplo, por lo que las dos posibilidades (probabilidad = altura ó probabilidad = área) son defendibles en términos generales. Pero, en caso de discrepancia, nos inclinamos por la proporcionalidad entre área y probabilidad.
En este punto, y siguiendo con nuestro ejemplo original, se trata de buscar el valor de VAN que, en la distribución así construida (figura 4), deje un 15,87% de probabilidad a su izquierda (o dicho de otra forma, el valor mínimo de VAN garantizado con un 84,13% de probabilidad). En nuestro caso, dado que 54,92 es la amplitud del intervalo inferior (27,46 x 2, al ser simétrico, por la propia forma de cálculo), tendremos que, interpolando, el valor buscado es el siguiente:
VAP = –27,46 + 29,053 = 1,593
el cual resulta ser positivo, lo que indica que el proyecto es interesante. Veamos la solución a la que llegaríamos si aceptáramos la normalidad de la distribución.
Aplicando las fórmulas de cálculo de la esperanza matemática y desviación típica de una variable aleatoria a los datos de partida (previos a la confección del histograma), tenemos:
[9]
[10]
E(VAN) = 57,5244
s(VAN) = 45,9518
VAP = 11,5727
que resulta también ser positivo, por lo cual la conclusión es la misma en ambos casos. Consideramos que ello es suficiente para aceptar el proyecto. En caso de discrepancia, habría que tratar de determinar cuál de las dos hipótesis es más razonable, incluso sería interesante un análisis de sensitividad de la solución. Podemos señalar como justificación de la diferencia obtenida en función de ambos criterios el hecho de que en la visión “histogramática” se está hipervalorando la probabilidad de las colas (lo normal es que la probabilidad de obtener valores inferiores a 0 –límite inferior de la información de partida– sea menor a la de obtener valores entre 0 y 27,46 –límite superior del intervalo inferior–). Permítanos el lector insistir nuevamente en una idea que, aunque ya comentada, consideramos clave para entender este planteamiento. Las dos alternativas propuestas respecto a la distribución del VAN (la normal y la “histogramática”) sólo pretenden ser interpretaciones de la información que el planteamiento del caso proporciona. Lo importante, en la práctica, es que el que proporciona la información nos diga cuál de ellas (si alguna) se acerca más a su previsión de la realidad. Incluso en un caso como éste, en el que no hay discrepancia entre ambos criterios, puede ser interesante cotejar nuestras interpretaciones con el informador.
Entendemos que el proceso no es del todo “ortodoxo” desde un punto de vista teórico, y que requiere algunas simplificaciones de diverso orden. Sin embargo, en el caso de que no sea aceptable la hipótesis de normalidad en la distribución del resultado de un proyecto, no sólo el VAP deja de ser aplicable directamente (también los criterios de Ajuste del tipo de descuento y Equivalente de certeza, si los basamos en el CAPM, presentan problemas teóricos). La pretensión del VAP ha sido siempre la de servir como criterio práctico de decisión, aunque soportado en una adecuada justificación teórica. La aplicación actual debe entenderse como una generalización del modelo, aceptando las simplificaciones realizadas en su justa medida, y analizando la robustez del criterio. En este sentido, vemos que, en nuestro ejemplo, llegamos a la misma solución por ambos caminos.
Una posible crítica, que se refiere más al planteamiento que a la solución, es el hecho de que la compañía está teniendo en cuenta el riesgo total del proyecto, y no la cantidad de riesgo que aporta al conjunto de la empresa. Incluso podríamos ir más lejos: en el contexto del CAPM, el riesgo que debería tenerse en cuenta es el sistemático, aquél que el accionista no va a poder diversificar 4. Sin negar el interés y conveniencia de considerar estos aspectos, también podemos decir que, desde un punto de vista puramente práctico (dejando de lado purismos teóricos), la solución aquí propuesta puede considerarse como suficiente en muchos casos.
BERGES, A. (1984): El mercado español de capitales en un contexto internacional, Ministerio de Economía y Hacienda, Madrid.
CEPEDA, J.M. y A. VARGAS (1990): “La simulación de Montecarlo: una aplicación práctica”, Boletín de Estudios Económicos, 140, Agosto, págs. 391–414.
FRIEDMAN, M. and L.J. SAVAGE (1948): “The utility analysis of choices involving risk”, The journal of political economy, Agosto, págs. 279–304.
GÓMEZ–BEZARES, F. (1989): “Modelos de valoración de acciones en la Bolsa de Bilbao”, Cuadernos de Gestión, Marzo, págs. 103–128.
GÓMEZ–BEZARES, F. (1991): Dirección financiera (Teoría y Aplicaciones), Desclée de Brouwer, Bilbao, 2ª ed.
GÓMEZ–BEZARES, F. (1993a): Las decisiones financieras en la práctica, Desclée de Brouwer, Bilbao, 4ª ed.
GÓMEZ–BEZARES, F. (1993b): “Penalized present value: net present value penalization with normal and beta distributions”, en Aggarwal, ed., Capital budgeting under uncertainty, Prentice Hall, Englewood Cliffs, New Jersey, págs. 91–102.
GÓMEZ–BEZARES, F., J.A. MADARIAGA y J. SANTIBÁÑEZ (1994): Valoración de acciones en la Bolsa española. Un análisis de la relación entre la rentabilidad y el riesgo, Desclée de Brouwer, Bilbao.
GÓMEZ–BEZARES, F. y J. SANTIBÁÑEZ (1991): “Las carteras en la bolsa de Bilbao (1980–87)”, Actualidad financiera, 28, Julio, págs. F547–F559.
HERTZ, D.B. (1964): “Risk analysis in capital investment”, Harvard business review, Enero–Febrero, págs. 95–106. Existe traducción al castellano en Harvard–Deusto, 2, Bilbao, 1977.
MADARIAGA, J.A. (1994): Rentabilidad y riesgo de las acciones en el Mercado Continuo español, Tesis doctoral, Universidad Comercial de Deusto, Bilbao.
MAGEE, J.F. (1964): “Decision trees for decision making”, Harvard business review, Julio–Agosto, págs. 126–138. Existe traducción al castellano en Harvard–Deusto, 26, Bilbao, 1978.
SANTIBÁÑEZ, J. (1992): Inversión y Financiación: Casos resueltos, Universidad de Deusto, Bilbao.
SANTIBÁÑEZ, J. (1994): Valoración de acciones en la bolsa española (1959–1988), Tesis doctoral, Universidad Comercial de Deusto, Bilbao.
VON NEUMANN, J. and O. MORGENSTERN (1947): Theory of games and economic behaviour, Princeton university press, Princeton, 2ª ed. (la 1ª ed. es de 1944).
1 Con el término “no conocida” queremos significar que, si bien conocemos la distribución de probabilidad del VAN, ésta no se ajusta a ninguna distribución teórica conocida.
2 Utilizaremos indistintamente los términos E, E(VAN) y m para referirnos a la esperanza matemática del VAN, y s o s(VAN) para referirnos a su desviación típica.
3 Puede resultar de interés resaltar aquí que la propia formulación del criterio hace que el valor X calculado tiene que estar forzosamente a la izquierda del promedio de VAN (de ahí que el signo asociado a t sea negativo, y que hablemos de probabilidades a la izquierda del mismo).
4 El VAP puede adaptarse a esta situación variando la t (Gómez–Bezares, 1991, cap. X). También podría estudiarse la posibilidad de considerar sólo la variabilidad relevante.