por Fernando Gómez–Bezares, José A. Madariaga y Javier Santibáñez
Publicado en Estudios Empresariales, nº 107, 2.001 (Tercer Cuatrimestre), págs. 22–37
El objetivo del presente artículo consiste en presentar, de la manera más sencilla que nos sea posible, cómo deben analizarse las decisiones de inversión en condiciones reales de riesgo, es decir, cuando los valores que van a tomar las variables que afectan a la decisión a analizar no son conocidos con seguridad. El lector en el que pensamos al escribir el artículo sería el gestor de una pequeña o mediana empresa, que en muchos casos no estará especializado en temas financieros, por lo que nuestra intención es la de simplificar al máximo los planteamientos teóricos, tratando de abandonar en lo posible aparatos matemáticos complicados, explicando los diferentes temas de manera intuitiva y sencilla, y tratando siempre de aportar herramientas aplicables a la realidad con la que se enfrenta1 .
El esquema que seguiremos es el siguiente: en un primer apartado intentaremos definir claramente el concepto financiero de riesgo, trataremos de justificar la actitud que cabe esperar normalmente de los individuos ante él y aportaremos un marco general de razonamiento; en el segundo apartado trataremos de explicar la diferencia existente entre los dos “tipos” de riesgo fundamentales, el riesgo sistemático y el riesgo diversificable, revisando las ideas más importantes que se derivan de la conocida Teoría de Cartera de Markowitz y del Modelo de Valoración de Activos de Capital (más conocido por sus siglas en inglés, CAPM –Capital Asset Pricing Model–); el tercer apartado se dedica al análisis de la decisión de inversión en condiciones de certeza, definiendo la metodología general aplicable en la construcción del perfil de fondos de un proyecto de inversión y revisando los criterios fundamentales que suelen utilizarse en su valoración (el Valor Actualizado Neto –VAN– y la Tasa de Rentabilidad Interna –TRI–); finalmente, en el cuarto apartado analizaremos la decisión de inversión en condiciones de riesgo, revisando las implicaciones que dicho riesgo tiene en la construcción del perfil de fondos y los principales criterios clásicos que la Teoría Financiera propone para su valoración (el Ajuste del tipo de descuento y el Equivalente de certeza), y presentaremos también un criterio desarrollado en el departamento de Finanzas de la Universidad Comercial de Deusto, el Valor Actualizado Penalizado (VAP).
En la Teoría de la decisión (y las Finanzas pueden considerarse de alguna manera como parte de aquella) suelen distinguirse tres ambientes o entornos en los que puede analizarse una decisión: certeza, riesgo e incertidumbre.
El ambiente de certeza es una situación teórica en la que se suponen conocidos los valores que van a tomar en el futuro todas y cada una de las variables que afectan a la decisión que se analiza. Así, y en lo que se refiere a un proyecto de inversión, se conocerían la cantidad y precio al que pueden venderse los productos, los precios de las materias primas, la evolución futura de los costes salariales, así como el comportamiento de los tipos de interés en el futuro o la inflación que afectará a cada una de las partidas implicadas. En definitiva, no se tiene ninguna duda respecto del valor que tomará cualquier variable que influya en el comportamiento del proyecto.
En el extremo contrario nos encontraríamos con el ambiente de incertidumbre, que se caracterizaría por no tener información respecto a qué valores concretos van a tomar las variables que afectan a la decisión analizada. Es importante subrayar que este ambiente presupone un desconocimiento de lo que ocurrirá en el futuro, es decir, aunque conozcamos los posibles valores que pueden tomar las variables, éstos nos parecen igualmente razonables.
La situación intermedia, y normalmente la más cercana a la realidad, es el ambiente de riesgo. En entornos de riesgo no sabemos exactamente lo que ocurrirá, pero conocemos los posibles valores de las variables implicadas y las probabilidades asociadas a los mismos. Dicho de un modo algo más técnico, conocemos las distribuciones de probabilidad de las variables que afectan al problema que se pretende analizar.
Como decíamos anteriormente, la situación más habitual es la de riesgo, es decir, aquella en la que pueden producirse distintos resultados de la decisión con diferentes probabilidades. Pongamos algunos ejemplos sencillos. Supongamos que podemos participar, sin pagar nada por ello, en un juego de azar consistente en lanzar una moneda al aire: si sale cara, cobraremos 1.000 euros, y si sale cruz cobraremos 2.000 euros. Si la moneda no está trucada, sabemos que el resultado del juego será un beneficio de 1.000 ó 2.000 euros con un 50% de probabilidad para cada uno de los dos posibles valores.
Intuitivamente, el primer criterio que surge a la hora de valorar una decisión en ambiente de riesgo como la propuesta es el que se conoce con el nombre de la Esperanza Matemática (EM). La EM no es otra cosa que lo que, si repetimos indefinidamente el experimento, obtendremos como promedio de la decisión, y se obtiene ponderando los resultados posibles por sus probabilidades correspondientes. En nuestro sencillo ejemplo, la esperanza matemática sería:
EM = 0,5 · 1.000 + 0,5 · 2.000 = 1.500
La esperanza matemática nos indica lo que recibiríamos “por término medio” si repitiéramos muchas veces la misma decisión. Así, y siguiendo con nuestro ejemplo, si se nos permitiera jugar muchas veces al juego, aproximadamente la mitad de las veces saldría cara (con lo que ganaríamos 1.000 euros) y la otra mitad saldría cruz (cobrando 2.000), lo que “se parece” mucho (si el juego se repite un número suficiente de veces) a ganar 1.500 en cada jugada.
Sin embargo, la esperanza matemática no tiene en cuenta otro elemento importante del ejemplo anterior: nos referimos al riesgo asociado a la decisión. Para comprender mejor esta idea, supongamos que únicamente se nos permite participar una vez en el juego propuesto (que llamaremos juego A), y supongamos también que se nos ofrece la posibilidad de elegir entre dicho juego y otro (al que llamaremos juego B) en el que pueden ganarse 0 ó 3.000 euros con el mismo sistema, es decir, el que cobremos una u otra cantidad dependerá del resultado de lanzar al aire una moneda (si sale cara, no cobramos, y si sale cruz cobramos 3.000 euros). En la figura 1 se ofrece la representación gráfica de ambos juegos.
Figura 1
Puede comprobarse que los dos juegos tienen la misma esperanza matemática de resultado:
Juego A: EM = 0,5 · 1.000 + 0,5 · 2.000 = 1.500
Juego B: EM = 0,5 · 0 + 0,5 · 3.000 = 1.500
Y sin embargo, la variabilidad de ambos (su riesgo) es distinta. En casos tan sencillos como éste, podemos valorar intuitivamente dicha variabilidad con una medida sencilla como el recorrido, es decir, calculando para cada juego la diferencia de resultado que obtendremos entre cada una de las dos situaciones posibles:
Juego A: Recorrido = Valor máximo – Valor mínimo = 2.000 – 1.000 = 1.000
Juego B: Recorrido = Valor máximo – Valor mínimo = 3.000 – 0 = 3.000
Es decir, que aunque ambos tienen la misma esperanza matemática (el mismo promedio de resultado), la diferencia radica en el distinto riesgo asumido: así, decimos que el juego B tiene más riesgo que el juego A, ya que los resultados posibles de B se alejan más del valor promedio; dicho de otra forma, el juego B tiene más variabilidad o dispersión en su resultado.
El lector puede ahora preguntarse cómo podemos hablar de “riesgo” cuando nos referimos a juegos en los que “sólo pueden pasar cosas buenas” (o salir indiferentes, en el peor de los casos, en el juego B). La respuesta es sencilla: en Finanzas, el concepto de riesgo no es el mismo que el propuesto por la Real Academia de la lengua Española, según la cual, riesgo es la “contingencia o proximidad de un daño” (Diccionario de la R.A.E., 1992). Frente a esta concepción, y por la propia definición dada para el ambiente de riesgo, en Finanzas riesgo es sinónimo de variabilidad, es decir, posibilidad de que ocurran cosas diferentes (no necesariamente malas). A nosotros nos gusta poner el siguiente ejemplo: si me tiro de un 100º piso no corro ningún riesgo, ya que tengo la certeza de que acabaré convertido en puré. Es decir, no hay variabilidad posible en el resultado, éste es conocido a priori, por lo que en el lenguaje financiero diríamos que se trata de una decisión segura (sin riesgo).
Una vez definido el concepto financiero de riesgo, la siguiente pregunta a la que habría que intentar responder es la siguiente: ¿cómo nos comportamos los individuos ante el riesgo? O dicho de otra forma, ¿cuál es nuestra actitud frente al riesgo?
Intentaremos nuevamente responder a la pregunta de una manera intuitiva, apoyándonos en el ejemplo propuesto anteriormente. Si nos comportáramos como indiferentes ante el riesgo, el criterio de la Esperanza Matemática propuesto sería válido, y los juegos A y B aparecerían como indiferentes (ya que tienen idéntica EM, aunque recordemos que diferente riesgo). Sin embargo, el comportamiento habitual sería elegir el juego A, que tiene idéntica EM pero menor riesgo. Ello supondría renunciar a la posibilidad que ofrece B de alcanzar un beneficio de 3.000 (frente a los 2.000 que ofrece A en el mejor de los casos), pero también permite eliminar la posibilidad de ganar 0 (obteniendo un mínimo de 1.000 en el juego A y en el peor de los casos).
Tratemos de ver más claramente la idea anterior. Supongamos que hemos ganado un premio de 10 millones de euros en la Lotería. Cuando vamos a cobrar el premio, se nos ofrece la posibilidad de jugarlos a doble o nada al 50% de probabilidad, es decir, si ganamos cobraremos 20 millones y si perdemos nos vamos sin nada. Parece obvio que nadie en su sano juicio aceptaría este juego, y sin embargo, es un juego “limpio”, en el sentido de que su esperanza matemática es idéntica a la cantidad segura que apostamos. Y ello se debe a que la posibilidad de perder 10 millones es valorada más (negativamente) que la posibilidad de añadir 10 millones adicionales a nuestra riqueza 2.
Si actuamos conforme a lo expuesto, nos comportamos como enemigos del riesgo. Esto no significa que nunca estemos dispuestos a asumir riesgos, lo que quiere decir es que para hacerlo se nos debe premiar por ello. Es decir, la aversión al riesgo significa que ante igualdad de promedio, los individuos elegiremos normalmente aquella decisión que minimice el riesgo.
Para ver más claramente el concepto, volvamos a nuestro sencillo ejemplo. Recordemos que ante los juegos A y B, con idéntica esperanza matemática, pero distinto riesgo, parecía lógico elegir el A (el de menor riesgo). Pero supongamos que podemos ahora elegir entre los juegos A y C (ambos sin coste), que aparecen representados en la figura 2.
Figura 2
Y calculemos ahora la esperanza matemática y el riesgo de sus resultados:
Juego A: EM = 0,5 · 1.000 + 0,5 · 2.000 = 1.500
Riesgo (recorrido) = 2.000 – 1.000 = 1.000
Juego C: EM = 0,5 · 0 + 0,5 · 6.000 = 3.000
Riesgo (recorrido) = 6.000 – 0 = 6.000
En esta nueva situación, el juego C tiene más riesgo que el A, pero también más esperanza matemática, por lo que es posible que algunos individuos prefieran el C (aunque otros seguirán prefiriendo el A). La razón es que ahora existe lo que en finanzas llamamos “premio por riesgo”: efectivamente, el paso de A a C supone un aumento de riesgo, pero también un incremento en el resultado “esperado”, el cual puede compensar a algunos individuos. Nótese que en el juego A tenemos “garantizada” en el peor de los casos una riqueza mínima de 1.000 euros (que no tenemos en C), pero renunciamos a la posibilidad de obtener, en el mejor de los casos, un diferencial de 4.000 euros (6.000 asociados a C en el caso de que ganemos, frente a sólo 2.000 en A). Lo anterior nos lleva a la idea de que el concepto de aversión al riesgo es relativo: el premio que ofrece C frente a A (1.500 euros en términos de esperanza matemática) puede ser suficiente para algunos individuos, mientras que para otros puede no serlo.
Lo importante de lo anterior es la idea de que si los individuos nos comportamos como enemigos del riesgo, sólo estaremos dispuestos a asumir riesgos si “esperamos” un premio por hacerlo.
Una vez presentados de manera intuitiva los conceptos de riesgo y de aversión al riesgo, cruciales en Finanzas, daremos un paso más. Lo que propondremos ahora es un esquema sencillo que nos permita razonar en entornos de riesgo. Así, en Finanzas es habitual razonar en términos de lo que se conoce como “mapa m-s”. Un mapa m-s es un gráfico en el que representamos las diferentes decisiones a nuestro alcance en términos de los dos parámetros fundamentales que definen su comportamiento: la esperanza matemática (m) y el riesgo (s) de su resultado. La s no es otra cosa que una medida de la variabilidad del resultado, la llamada desviación típica, la mejor medida desde el punto de vista estadístico, y que presenta una serie de ventajas frente al recorrido que no constituyen el objeto de este artículo. Recordemos la fórmula matemática de la desviación típica:
(1)
donde Xi representa los diferentes valores posibles de la variable X (n posibles valores), E(X) es la esperanza matemática de X y fi es la probabilidad asociada al valor Xi. Lo importante no es tanto la fórmula concreta, sino la idea de que lo que trata de medir la desviación típica es conceptualmente lo mismo que antes hacíamos con el recorrido (la variabilidad, el riesgo), siendo ésta una medida más adecuada que la anterior en la mayoría de los casos. Dicho de otra forma, a más variabilidad, la desviación típica de la decisión será mayor. Veámoslo en nuestro ejemplo:
Juego A:
Juego B:
Juego C:
Volviendo así al mapa m-s, y tal como indicábamos anteriormente, representaremos en dicho mapa las decisiones a nuestro alcance, caracterizadas por los dos elementos fundamentales que definen su comportamiento: la esperanza matemática y el riesgo asociados a su resultado (riqueza final, en nuestro caso). Llegaríamos así al mapa de la figura 3.
Figura 3
Definamos ahora el concepto de curva de indiferencia. Una curva de indiferencia representa las combinaciones de valores promedio–riesgo (m-s) que son indiferentes para el individuo, es decir, que le reportan la misma satisfacción (utilidad, en lenguaje microeconómico). Cada individuo tendrá infinitas curvas de indiferencia, representando las curvas más alejadas del origen de coordenadas niveles de utilidad superiores (al estar asociadas a promedios de riqueza más elevados).
La forma de las curvas de indiferencia es sencilla: si el individuo se comporta como enemigo del riesgo, dichas curvas serán crecientes, ya que ante aumentos de riesgo, el individuo exigirá incrementos de promedio (el premio por riesgo al que nos referíamos antes) para mantener el nivel de satisfacción; mientras que si el individuo fuera amigo del riesgo, las curvas decrecerían, es decir, el individuo estaría dispuesto incluso a renunciar a promedio con tal de asumir riesgos; y finalmente, si el individuo fuera indiferente ante el riesgo, las curvas serían paralelas al eje horizontal, el individuo sólo se fijaría en el promedio de riqueza para tomar sus decisiones. Y para todos ellos, parece lógico suponer que las curvas de indiferencia más alejadas del origen de coordenadas representan niveles superiores de utilidad, al estar asociadas a promedios de riqueza más altos. Veamos todo ello representado en unos sencillos gráficos (figura 4).
Figura 4
En dicha figura 4 se han representado en el mapa m-s tres de las infinitas curvas de indiferencia asociadas a un enemigo, un amigo y un indiferente ante el riesgo. En los tres casos, la curva 1 se corresponde con un nivel de utilidad superior a la curva 2, y ésta superior a la de la curva 3. Y recuérdese que cada una de las curvas representa combinaciones de promedio y riesgo que al individuo le reportan la misma satisfacción.
Centrándonos en el enemigo del riesgo (que refleja el comportamiento racional de la mayoría de los individuos, tal como hemos justificado anteriormente, sobre todo para decisiones importantes), ¿cómo tomaría sus decisiones? En nuestro ejemplo, ¿cuál de los tres proyectos planteados –A, B ó C– sería elegido? La respuesta es nuevamente sencilla: el individuo razonaría tratando de maximizar su satisfacción, es decir, eligiendo aquella decisión que le permita situarse en la curva de indiferencia más alejada posible del origen de coordenadas, tal como puede verse en la figura 5.
El individuo representado, enemigo del riesgo (por eso sus curvas de indiferencia son crecientes), elegiría el juego A, ya que es el que le permite obtener un nivel superior de utilidad. Esto no impide que pueda haber otro individuo, también enemigo del riesgo, que, con otro sistema de curvas de indiferencia, prefiera C. El razonamiento anterior puede parecer algo teórico (y todavía lo es), pero lo único que pretende es determinar un marco de razonamiento para la toma de decisiones en ambiente de riesgo (que por otro lado está en la base de toda la teoría de cartera de Markowitz y de los modernos modelos de valoración que se han desarrollado sobre la anterior).
2. Riesgo sistemático y diversificable
En el apartado anterior veíamos que en Finanzas riesgo es variabilidad, y que la actitud lógica de los individuos sería la de aversión al riesgo. Sin embargo, no todos los riesgos son iguales. Así, en Finanzas distinguimos entre dos tipos fundamentales de riesgo: el riesgo sistemático y el riesgo diversificable.
Figura 5
Tratemos nuevamente de ver el concepto desde un punto de vista intuitivo. Pensemos en un individuo que tiene una cartera de acciones compuesta por un único título, supongamos muy arriesgado (con mucha variabilidad en su rentabilidad), pero también con un alto valor esperado. Si decide añadir un título más a su cartera, es evidente que su rentabilidad esperada se verá afectada (al alza o a la baja, dependiendo de la rentabilidad esperada asociada al nuevo título, así como de los pesos que ambos tengan en la cartera), pero su riesgo no sólo no tiene por qué aumentar, sino que puede incluso disminuir. Efectivamente, si los dos títulos no tienen ninguna relación, lo normal es que se produzca un cierto efecto de compensación, de manera que será difícil que siempre que uno presente altas rentabilidades el otro lo haga también; y viceversa. Y este efecto de disminución del riesgo (de la variabilidad en su rentabilidad) se vería reforzado si el individuo sigue añadiendo a su cartera títulos cuyo comportamiento no está relacionado. A este efecto le llamamos diversificación del riesgo, y significa que el riesgo de una cartera disminuye al añadir títulos no relacionados entre sí.
Sin embargo, hay una parte de la variabilidad de la rentabilidad que no puede eliminarse por muchos títulos que incluyamos en la cartera. Y es que todos los títulos tendrán alguna relación (unos mucha y otros poca) con la marcha general del mercado. A esta parte del riesgo no eliminable por diversificación se le llama riesgo sistemático, y es la parte de la variabilidad asociada a la rentabilidad de la cartera que no hay más remedio que asumir por el hecho de que los títulos se relacionan en cierta medida con la marcha general del mercado.
Hemos visto intuitivamente que el riesgo total de una cartera se compone de dos tipos de riesgo diferentes: el riesgo diversificable (el que puede eliminarse añadiendo títulos a la cartera) y el riesgo sistemático (el que está relacionado con la marcha general del mercado, y que no puede eliminarse por diversificación):
Riesgo total = Riesgo sistemático + Riesgo diversificable (2)
De esta manera, cada título incorporará cantidades diferentes de los dos tipos de riesgo. Habrá títulos que tengan poca relación con el mercado (tendrán poco riesgo sistemático), mientras que otros tendrán alta relación con él (tendrán mucho riesgo sistemático).
Una forma de medir la cantidad de riesgo sistemático y diversificable de un título consiste en calcular lo que llamamos la Línea Característica del Título (LCT). Esta recta se obtiene mediante un ajuste de regresión entre las rentabilidades del título y las del mercado, tal como puede verse en la figura 6.
Figura 6
Explicaremos brevemente el significado de la figura 6. En el eje vertical (ordenadas) se representan las rentabilidades del título “i”, mientras que en el eje horizontal (abscisas) aparecen las rentabilidades del mercado (normalmente se utiliza un índice suficientemente representativo del mismo, como por ejemplo el IBEX–35 o cualquier otro índice representativo de la Bolsa). Así, cada punto representa la rentabilidad que el título “i” y el mercado en su conjunto ofrecieron a sus propietarios en un determinado periodo de tiempo (evidentemente, un paso previo para construir el gráfico consiste en determinar el periodo básico para el que se calculan las rentabilidades, supongamos el mes).
La recta de ajuste o de regresión es aquella que mejor se ajusta a la nube de puntos formada por las rentabilidades del título “i” y el mercado3 , y se obtiene tratando de minimizar las distancias 4 de los puntos a la recta medidas en vertical. De esta manera, la recta obtenida “trataría de explicar de la mejor forma posible” el comportamiento del título “i” en relación con el del mercado. La ecuación de la recta es la siguiente:
Ri = αi + βi · Rm (3)
donde ai es la ordenada en el origen de la recta de regresión (el punto de corte con el eje de ordenadas) y bi es la pendiente.
La recta obtenida nos serviría para hacer predicción: así, supuesta una rentabilidad para el mercado, la sustitución de dicho valor en la ecuación propuesta nos permitiría obtener la rentabilidad “que cabría esperarse” para el título “i”. Esta estimación será tanto más afinada cuando más “aplastada” sea la nube de puntos, o dicho de otra forma, cuanto menores sean las distancias de los puntos a la recta. A la distancia entre un punto cualquiera y la recta (siempre en vertical) se le llama perturbación aleatoria, y es el “error” de estimación que cometemos con la recta. Dicho de otra forma, es la parte del comportamiento del título “i” que el mercado no es capaz de predecir correctamente. Así, de la variabilidad (riesgo) asociada a la rentabilidad del título “i” hay una parte que puede explicarse por el ajuste (por la recta), y por lo tanto, por el mercado, mientras que hay otra parte de la variabilidad que no se explica por la recta: es el riesgo específico del título, y que al no tener que ver con el de otros títulos, puede eliminarse mediante una adecuada diversificación.
Como hemos dicho, el riesgo sistemático es aquél que se debe a la relación del título con el mercado. Y la medida de dicho riesgo sistemático que podemos obtener del modelo es la beta, la pendiente de la recta de ajuste5 . Así, títulos que presenten betas altas serán títulos que “apalancan” las variaciones del mercado, son los llamados “títulos agresivos”, mientras que títulos con valores bajos de beta “suavizan” las variaciones del mercado, son los títulos “defensivos”; y, evidentemente, el mercado tendría una beta igual a la unidad, mientras que la renta fija (inversión segura) tendría una beta nula. Por otro lado, podría incluso haber títulos que fueran “contra el mercado”, es decir, que ofrecieran rentabilidades altas cuando el mercado va mal y viceversa (piénsese, por ejemplo, en un bufete de abogados especializado en suspensiones de pagos y quiebras que cotizara en bolsa): serían títulos “superdefensivos”. Puede verse lo anterior de una manera gráfica en la figura 7.
Figura 7
Veamos ahora todo lo anterior con algunos ejemplos sencillos. Supongamos una empresa dedicada a la investigación farmacéutica. Su rentabilidad será alta los años que consiga buenos resultados de su investigación, influyendo en menor medida el estado general de la economía. Se trataría de un título con mucho riesgo, ya que la diferencia en términos de rentabilidad será grande entre los años buenos y malos, pero la incidencia del mercado en la evolución de la rentabilidad del título será baja. Por otro lado, gran parte de este riesgo sería fácil de eliminar (diversificar): bastaría con comprar acciones de muchas empresas farmacéuticas dedicadas a la investigación, ya que es razonable pensar que sus resultados tenderán a compensarse (es difícil que en el mismo año todas acierten en sus investigaciones; e igualmente difícil será que no lo haga ninguna). Vemos que en este ejemplo el título tendría mucho riesgo, pero casi todo diversificable.
Pensemos ahora en una empresa dedicada a la construcción. Es ésta una actividad muy relacionada con la marcha general de la economía, por lo que gran parte de su riesgo no se podrá eliminar por diversificación. Así, lo normal es que a la empresa le vaya bien los años en que la economía se encuentre boyante, y viceversa (influyendo también, aunque en menor medida que en el caso de la compañía farmacéutica, el mayor o menor acierto de la empresa). En este ejemplo el riesgo sería casi todo sistemático.
Y un último ejemplo: supongamos una cartera compuesta por infinidad de títulos, todos con beta = 1, pero con diferentes riesgos diversificables. Estos últimos se irán compensando unos con otros, con lo que en la cartera desaparecerá el riesgo diversificable; sólo quedará el sistemático. Si medimos el riesgo sistemático con la beta de la cartera, que se calculará con la media ponderada de las betas de los títulos que la componen, ésta será la unidad. Vemos que el riesgo sistemático es el que se mantiene.
Una vez aceptada la distinción planteada entre el riesgo sistemático y el diversificable, el Modelo de Valoración de Activos de Capital de Sharpe (más conocido por sus siglas en inglés, CAPM) deduce dos consecuencias fundamentales fácilmente intuibles: en primer lugar, que el riesgo diversificable no es relevante, ya que el individuo puede eliminarlo de su cartera simplemente añadiendo un número suficiente de títulos a la misma; y en segundo lugar, y dado que como indicábamos en el apartado anterior, lo lógico es que los individuos se comporten como enemigos del riesgo, que a mayor riesgo sistemático (mayor beta) debería corresponder una rentabilidad esperada mayor. En las condiciones del modelo, la relación entre la rentabilidad esperada de un título y su beta (medida del riesgo sistemático) es lineal. Aceptada esta relación lineal, la deducción de la formulación matemática del modelo es inmediata. En efecto:
sea: E(Ri) = λ0 + λ1 · βi (4)
donde l0 y l1 son, respectivamente, la ordenada en el origen y la pendiente de la recta que buscamos, y E(Ri) la rentabilidad esperada del título “i”. Pero bm (la beta del mercado) = 1 y b0 (la beta del título sin riesgo) = 0 (tal como puede comprobarse en el ajuste de regresión), luego:
E(r0) = r0 = λ0 + λ1 · 0 –> λ0 = r0
E(Rm) = λ0 + λ1 · 1 = r0 + λ1 –> l1 = E(Rm) – r0
donde E(Rm) es la rentabilidad esperada del mercado y r0 es el rendimiento del título sin riesgo (al no tener riesgo, su esperanza coincide con su valor). Y por tanto:
E(Ri) = r0 + [E(Rm) – r0] · βi (5)
Esta es la formulación del CAPM6 , que nos dice cómo la rentabilidad esperada de un título (o de cualquier cartera, como es el caso del mercado, formada por títulos) es función de su riesgo sistemático, de su beta.
A la formulación del CAPM (5) también puede llegarse gráficamente (figura 8): si buscamos una recta que relacione la rentabilidad esperada de un título E(Ri) con su riesgo sistemático bi, tal recta debe pasar por r0 (el título sin riesgo tiene rentabilidad r0 y beta igual a cero) y por el punto M (el mercado tiene beta igual a 1 y E(Rm) como rentabilidad esperada). Esta recta, denominada Línea del Mercado de Títulos, LMT, es, como puede comprobar el lector, la representación gráfica del CAPM definido en (5).
3. La inversión en condiciones de certeza
Una vez definido el marco conceptual general de razonamiento para la decisión de inversión en ambiente de riesgo, descenderemos ahora a un nivel mayor de detalle, comenzando por la descripción de la metodología a utilizar en el análisis de un proyecto de inversión en ambiente de certeza, y que matizaremos después (en el siguiente apartado) al introducir la hipótesis de riesgo.
Figura 8
Figura 9
Así, el primer paso que debe realizarse para analizar el interés de un proyecto de inversión es la construcción de su perfil de fondos. Este perfil recoge los impactos que el proyecto tiene en la tesorería de la empresa. Así, deberá calcularse lo que llamamos Desembolso inicial (DI), que es la inversión inicial que normalmente requerirá el proyecto al comienzo de su vida; las Generaciones de Fondos (GFi), que son los incrementos (positivos o negativos) que el proyecto provoca en la tesorería de la empresa en los distintos años (lo habitual, si nos referimos a proyectos de inversión de largo plazo, es calcular los impactos en caja con carácter anual); y el Valor Residual (VR), que sería el impacto provocado en la tesorería de la empresa por la liquidación de los activos que quedaran asociados al mismo al término de su vida útil (que es el número de años en los que el proyecto provoca efectos en la tesorería de la empresa). Puede verse todo ello en la figura 9, en la que se representan con flechas hacia arriba las entradas provocadas por el proyecto en la tesorería de la empresa, y con flechas hacia abajo las salidas.
Tres características deben resaltarse en lo que se refiere al perfil de fondos asociado a un proyecto de inversión: en primer lugar, se trata de impactos en caja (no de beneficios); en segundo lugar, se trata de flujos de fondos incrementales (es decir, los que se derivan de comparar la tesorería de la empresa “con” el proyecto respecto de la que tendría “sin” él); y en tercer y último lugar, el perfil se construye con total independencia de cómo se financie el proyecto (es decir, se trata de calcular “lo que el proyecto pide y da en cada momento, con independencia de quién ponga o se lleve el dinero correspondiente”).
Veamos lo anterior con un sencillo ejemplo. Supongamos que podemos afrontar un proyecto de inversión, que consiste en comprar una instalación para producir un determinado producto. La instalación tiene un precio de compra (DI) de 40.000 euros, y con ella podrían obtenerse unas ventas anuales de 30.000 euros con unos costes operativos (excluidos los intereses) con desembolso (excluida la amortización) de 15.000. También habría que pagar impuestos por 5.000 euros anuales. Finalmente, el proyecto tendría una duración de cinco años (vida útil), al término de los cuales podría liquidarse la instalación por 10.000 euros, pagándose por la liquidación un impuesto de 3.000 euros. El perfil de fondos quedaría de la siguiente forma:
DI = 40.000
GFi = 30.000 – 15.000 – 5.000 = 10.000
VR5 = 10.000 – 3.000 = 7.000
Figura 10
Una vez construido el perfil de fondos asociado al proyecto de inversión que se analiza, el siguiente paso consiste en valorar el interés de afrontarlo. Para ello existen en Finanzas una serie de criterios, de entre los que destacan dos: el Valor Actualizado Neto (VAN) y la Tasa de Rentabilidad Interna (TRI). Ambos se apoyan en el análisis del perfil de fondos propuesto.
El VAN propone comparar en valor actual “lo que el proyecto da con lo que el proyecto pide”. Expresado de forma matemática:
(6)
(7)
El tipo K es el coste de los fondos utilizados en la financiación del proyecto. Este coste es siempre un coste de oportunidad, es decir, el rendimiento de la mejor alternativa (de riesgo similar) a la que se renuncia al afrontar el proyecto. En ambiente de certeza, la K sería el rendimiento de los títulos de renta fija del Estado, normalmente a un año.
La interpretación del VAN es sencilla: es la diferencia entre los valores actuales de lo que el proyecto da y lo que pide, luego es el incremento de valor que el proyecto aporta a la empresa. Lo anterior puede también verse de otra forma: el valor actual de las generaciones de fondos (incluido el valor residual y sin restar el desembolso inicial) es lo que costaría en el mercado “comprar” esa corriente de flujos de fondos, luego si este valor es mayor que el DI, la diferencia es la riqueza que debería haber aportado adicionalmente para comprar esa misma corriente de flujos de fondos en el mercado, y que me ahorro comprándola en el proyecto, por lo que tal diferencia puede interpretarse como el incremento de riqueza aportado por el proyecto.
Evidentemente, el criterio de actuación sería aceptar proyectos cuyo VAN sea mayor que cero, es decir, afrontar los proyectos que aporten valor a la empresa. Y si necesitamos jerarquizar el interés de varios proyectos, por ser incompatibles entre sí, elegiremos aquél que reporte un VAN mayor. Por otro lado, proyectos con VAN=0 serían indiferentes, lo que significa que dan el beneficio que deben dar (por lo que no crean valor).
El segundo criterio de decisión al que nos referíamos es la Tasa de Rentabilidad Interna (TRI). La TRI mide lo que el proyecto rinde, y se calcula igualando el VAN a cero y despejando el tipo de descuento que cumple con tal condición. Dicho de otra forma, se trata de calcular el tipo K que haría que el proyecto fuera indiferente: dicha tasa sería el rendimiento del proyecto. Matemáticamente:
(8)
El criterio de actuación sería también sencillo: se aceptan aquellos proyectos cuya TRI sea superior a K, es decir, aquellos que rinden más que lo que deben (más que la mejor alternativa de mercado de riesgo similar a la que se renuncia al afrontar el proyecto). En el caso de elegir entre varios proyectos, se escogería aquél que presente mayor TRI. Y finalmente, proyectos con TRI=K resultarían indiferentes (rinden exactamente lo que deben rendir).
Evidentemente, si pensamos en proyectos de inversión que se comportan “típicamente” como tales (lo que en Finanzas se conoce como inversiones simples), es decir, que presentan una salida de fondos inicial y posteriores entradas de fondos (todas positivas), VAN y TRI no pueden discrepar a la hora de aceptar o rechazar un proyecto, es decir, no puede ocurrir que el proyecto sea interesante para el VAN y no para la TRI (o viceversa). Dicho de otro modo, siempre que VAN>0 ocurrirá que TRI>K (y viceversa). Los problemas pueden presentarse a la hora de jerarquizar proyectos, momento en el que sí pueden aparecer tales discrepancias, es decir, podría ocurrir que el VAN prefiera un proyecto y la TRI prefiera otro.
Por ello, es importante señalar muy brevemente las razones que hacen del VAN un criterio claramente superior a la TRI7 :
– En primer lugar, el VAN está directamente relacionado con el objetivo financiero de la empresa, que es la maximización de su valor en el mercado. Y hay que decir que maximizar el valor no es exactamente lo mismo que maximizar la rentabilidad (aunque obviamente ambos aspectos estén relacionados).
– El VAN supone que las generaciones de fondos que “salen” fuera del proyecto pueden reinvertirse al tipo K (hipótesis lógica, ya que K es el coste de oportunidad), mientras que la TRI supone que las generaciones de fondos que salen del proyecto se reinvierten a la propia TRI. Esta diferente hipótesis de reinversión implícita es la que está detrás de la posible discrepancia VAN–TRI que comentábamos anteriormente, y puede tener efectos especialmente “dramáticos” en proyectos con altas rentabilidades con respecto al mercado pero que recuperan muy pronto la inversión realizada.
– La TRI presenta un problema matemático (con implicaciones financieras que no constituyen el objeto de este artículo): se obtiene despejando una incógnita en un polinomio ordenado de grado n (el número de años de vida del proyecto). Por la regla de los signos de Descartes, el número de raíces positivas que pueden obtenerse será igual o menor al número de cambios de signo que presente el polinomio ordenado. Este es el conocido como problema de Inconsistencia de la TRI, es decir, podría ocurrir que un proyecto tenga como TRIs el 5% y el 15% (por ejemplo), siendo el coste de los fondos K=10%, con lo que no sabríamos qué hacer.
– La TRI necesita que los desembolsos iniciales de proyectos que van a compararse sean idénticos, cosa que no es necesaria al utilizar el VAN.
– Finalmente, el VAN presenta algunas ventajas operativas, como el hecho de que es aditivo, propiedad que no presenta la TRI.
Con todo, y a pesar de la clara superioridad del VAN frente a la TRI, conviene señalar que los dos son buenos criterios de decisión. Además, si lo que se analizan son proyectos uniperiodo (y de igual desembolso), es decir, proyectos en los que sólo hay dos posiciones, una en la que se invierte, y otra en la que se recogen los frutos de la inversión realizada, los dos criterios serían totalmente coherentes. Dicho de otra forma, en tal caso utilizar uno u otro criterio es indiferente. Lo cual es interesante, ya que la TRI presenta una ventaja, su mayor intuitividad y comodidad a la hora de analizar inversiones financieras. De hecho es en esta propiedad en la que se apoya la Teoría de Cartera de Markowitz, que utiliza la TRI en lugar del VAN. La indiferencia entre ambos criterios a la hora de analizar proyectos uniperiodo y con idéntico desembolso puede verse con un sencillo ejemplo. Supongamos dos proyectos, A y B, que requieren para ser afrontados 10.000 euros cada uno. Ambos ofrecen una única generación de fondos al final del primer año: A reporta 13.000 euros, mientras que B ofrece 15.000. Supongamos que el coste de los fondos K es del 10%. Los perfiles de fondos de los dos proyectos se representan en la figura 11.
Figura 11
Es fácil en este caso calcular la TRI de los dos proyectos: A devuelve el importe invertido con una plusvalía de 3.000 euros (que suponen un 30% sobre la inversión), por lo que su rendimiento es TRIA = 30%, mientras que B añade a la inversión una cantidad de 5.000 al final del año (un 50% sobre el importe invertido), por lo que rinde TRIB = 50%. Así, los dos proyectos son interesantes, ya que rinden más que el coste de los fondos (K=10%), siendo B mejor que A, ya que rinde más. Y es evidente que también B será mejor para el VAN, ya que el desembolso es el mismo, y B tiene una generación de fondos superior a A. Efectivamente:
Y es que al tratarse de proyectos uniperiodo no puede haber discrepancias VAN–TRI (ya que no tiene sentido hablar de reinversión de las generaciones de fondos), ni tampoco la TRI puede tener problemas de inconsistencia (sólo puede haber una solución, al ser una ecuación de grado uno), pudiendo decirse que es totalmente indiferente en proyectos de este tipo razonar en términos de VAN, TRI, riquezas actuales o riquezas finales.
4. La inversión en condiciones de riesgo
Revisaremos en este punto la metodología propuesta para el análisis de proyectos de inversión cuando introducimos la hipótesis de riesgo. A efectos de simplificación, razonaremos pensando en el riesgo total de un proyecto.
El primer paso a realizar sería coincidente con el análisis de proyectos de inversión en condiciones de certeza: lo primero que tenemos que hacer es construir el perfil de fondos asociado al proyecto, es decir, calcular el impacto que éste tendrá en la tesorería de la empresa. Pero a diferencia de lo que ocurría en ambiente de certeza, en el que todos los datos eran conocidos con total seguridad, en ambiente de riesgo lo que conocemos son las distribuciones de probabilidad de las variables que influyen en el proyecto, por lo que ahora nos encontraremos con un perfil de fondos como el que se propone en la figura 12.
Figura 12
Es decir, que a partir de la información con la que contamos referida a las variables que influyen en las generaciones de fondos asociadas al proyecto, lo que podemos obtener ahora es la distribución de dichas generaciones de fondos. Obsérvese que el Desembolso inicial lo suponemos conocido, dado que se produce en el momento cero. Y una hipótesis que será aceptable en muchos casos es que las generaciones de fondos siguen una distribución normal, de promedio m y desviación típica s, en cuyo caso la distribución queda perfectamente definida con estos dos parámetros. Por otro lado, y como es evidente, el promedio y riesgo de las diferentes generaciones de fondos asociadas al proyecto no tienen por qué ser idénticos.
En lo que se refiere a los criterios que la Teoría Financiera pone a nuestra disposición para el análisis de proyectos de inversión en condiciones de riesgo, debemos decir que básicamente serían los mismos (con algunas matizaciones que comentaremos a continuación) que los que tenemos en ambiente de certeza, el VAN y la TRI. Dada su superioridad teórica, razonaremos en términos de VAN (aunque podríamos hacerlo también en términos de TRI). Dos son los criterios clásicos que la Teoría Financiera propone, sobre la base de lo anterior, para el tratamiento del riesgo:
– Ajuste del tipo de descuento. Propone calcular el VAN ajustado por el riesgo: como hemos dicho, la diferencia con el ambiente de certeza radica en que ahora las generaciones de fondos no son “seguras” sino “esperadas” (y por tanto sujetas a riesgo). Y dado que, tal como indicábamos en el primer apartado, parece lógico suponer que los individuos nos comportamos como enemigos del riesgo, lo razonable será exigir una rentabilidad superior a la exigida a los proyectos “seguros”. Así, el Ajuste del tipo de descuento propone descontar las generaciones de fondos (esperadas) a un tipo “primado” por el riesgo, y que llamaremos R:
(9)
donde R = K + P, es decir, el rendimiento que exigiríamos al proyecto si las generaciones de fondos fueran seguras (K), más una prima de rentabilidad P que dependerá del riesgo que el proyecto aporte a la empresa. Puede expresarse la fórmula anterior de manera más resumida:
(10)
– Equivalente de certeza. Consiste en buscar las cantidades “equivalentes ciertas” de las generaciones de fondos esperadas, es decir, las cantidades seguras por las que el individuo estaría dispuesto a cambiar cada una de las generaciones de fondos esperadas. Esto se hace multiplicando cada generación de fondos esperada por un coeficiente corrector ai (diferente para cada año), que para enemigos del riesgo sería menor que la unidad. Y dado que las generaciones de fondos se convierten así en “equivalentes ciertos”, el VAN debería calcularse utilizando el tipo de interés sin riesgo (el exigible a inversiones seguras), ya que la penalización en este criterio se hace a través de los numeradores de la fórmula:
(11)
(12)
donde GF’i representa la generación de fondos equivalente cierta del año i. Como puede verse, ambos criterios pretenden conceptualmente lo mismo: penalizar el interés de un proyecto en función de su riesgo. Así, si suponemos dos proyectos A y B con idénticas generaciones de fondos, pero que son seguras en el primero y esperadas en el segundo, el VAN ajustado de B será inferior al VAN (seguro) de A, ya que a B se le aplicará un tipo de descuento superior (en el caso del Ajuste del tipo de descuento), o se minorarán las generaciones de fondos en una determinada medida, para descontar las generaciones de fondos equivalentes ciertas al tipo K (en caso de utilizar el Equivalente de certeza). Y en ambos casos, la penalización será tanto mayor cuanto mayor sea el riesgo que el proyecto aporta. La dificultad de ambos criterios radica en la estimación de los parámetros necesarios para su utilización: la prima de riesgo P en el primero, y los coeficientes correctores ai en el segundo.
Frente a estos dos criterios clásicos, nosotros propondremos un tercer criterio, el Valor Actualizado Penalizado (VAP)8 . El criterio propone penalizar directamente el promedio de VAN con su riesgo (medido por la desviación típica). De entre las múltiples formas de penalización posibles, nosotros nos decantamos por la penalización lineal, que tiene una interpretación teórica más clara, y presenta la ventaja de poder utilizarse en la práctica de manera más sencilla. Así:
VAP = mVAN – t · sVAN (13)
donde mVAN y sVAN son, respectivamente, el promedio y la desviación típica de VAN, y t es el parámetro de penalización que el decisor tiene que decidir. El promedio y la desviación típica de VAN deben calcularse al tipo de interés sin riesgo (K), ya que la penalización por el riesgo se hace después, restando t veces la desviación típica al promedio.
El criterio de actuación sería el de aceptar los proyectos que presenten un VAP positivo, y a la hora de elegir entre varios proyectos, se elegiría aquél que tuviera un VAP mayor. Puede verse que conceptualmente el criterio propone algo muy similar a los criterios clásicos, penalizar el interés del proyecto en función de su riesgo. La diferencia consiste en que mientras el Ajuste del tipo de descuento propone penalizar a través del denominador y el Equivalente de certeza a través de los numeradores, el VAP propone penalizar directamente la esperanza matemática del VAN con su riesgo.
Dedicaremos algunas líneas a tratar de justificar desde un punto de vista teórico el criterio propuesto. Así, si despejamos el promedio en la fórmula propuesta en (13), tenemos:
mVAN = VAP + t · sVAN (14)
que como puede verse es la ecuación de una recta en el mapa m-s de VAN, de pendiente t y ordenada en el origen VAP. Si llamamos ahora Zi al VAP, lo que tenemos es un sistema de rectas paralelas (una recta para cada valor de Zi) de pendiente t, tal como puede verse en la figura 13.
Figura 13
Así, cuando tratamos de maximizar el VAP lo que hacemos es elegir aquél proyecto que nos permita situarnos en la recta de pendiente t más alejada posible del origen de coordenadas (la que tenga una ordenada en el origen mayor). Además, todos los proyectos que se sitúen en la misma recta tendrán la misma ordenada en el origen (el mismo VAP), por lo que resultarán indiferentes, y así las rectas pueden interpretarse como “rectas de indiferencia”. Por otro lado, todos los proyectos que se sitúen en la misma recta son indiferentes entre sí, y también a un proyecto cuyo VAN seguro coincida con el valor que se sitúa en la ordenada en el origen, por lo que el VAP puede interpretarse como el VAN equivalente cierto. De esta manera, puede verse claramente la relación entre el planteamiento del VAP y el razonamiento a través de las curvas de indiferencia que proponíamos en el primer apartado de este artículo.
Un problema que presenta el planteamiento desde un punto de vista teórico es que puede demostrarse, bajo determinadas circunstancias 9, que las curvas de indiferencia crecen más que proporcionalmente, es decir, son cóncavas vistas desde arriba. Esto nos lleva a la necesidad de utilizar valores de t diferentes para proyectos con riesgos muy distintos, pero no supone problemas a la hora de comparar proyectos de riesgos similares, ya que el premio por riesgo puede considerarse constante para incrementos suficientemente pequeños del riesgo. Lo anterior pude verse en la figura 14, en la que las curvas se representan como una serie de rectas engarzadas, siendo el error cometido suficientemente pequeño (para variaciones suficientemente pequeñas de riesgo).
Figura 14
Vemos así que la interpretación teórica del criterio es clara y consistente con todo lo propuesto anteriormente. Sólo falta dar una interpretación clara al valor de t. Afortunadamente, dicha interpretación es sencilla si suponemos normalidad del VAN. Efectivamente, y tal como puede verse de manera intuitiva, el valor de t indica el número de desviaciones típicas que el valor tomado como referencia para analizar el interés del proyecto (el VAP) se aleja del promedio. Dicho de otra forma, el valor de t elegido (cambiado de signo) es el valor tipificado del VAP supuesta normalidad de la distribución del VAN.
Lo anterior es fácil de ver si despejamos el valor de t en la formulación propuesta (13):
(15)
Como es sabido, los valores tipificados de una variable que sigue la distribución normal tienen asociadas unas determinadas probabilidades (a), menores cuanto mayor es el valor de t, y que vienen tabuladas. Algunos valores especialmente significativos son los representados en la figura 15.
Figura 15
De esta forma, el VAP puede entenderse como el VAN mínimo garantizado con una determinada probabilidad, que depende del valor de t elegido. Así, si elegimos una t=1, dado que la probabilidad de encontrar un valor que se aleje una desviación típica o más respecto del promedio es de un 16% (aproximadamente), el VAP obtenido será el VAN mínimo garantizado del proyecto con una probabilidad del 84%, aproximadamente; mientras que si el valor escogido es t=2, el VAP será el VAN mínimo garantizado con una probabilidad aproximada del 98%; la elección de un valor t=3 supondría que la garantía asociada al valor obtenido sería de un 99,9%, aproximadamente.
Cuanto mayor sea la aversión al riesgo, la garantía exigida al valor obtenido será mayor, por lo que utilizaremos una t superior (penalizaremos más). Y supuesta una determinada aversión al riesgo, cuanto mayores sean las consecuencias negativas asociadas al proyecto en el caso de que salga mal, el valor de t será también superior.
En el entorno de la pequeña y mediana empresa, será difícil en ocasiones calcular con todo rigor el promedio y la desviación típica del VAN, lo que exigiría definir un número suficientemente grande de escenarios posibles. Podemos en tal caso aportar algunas fórmulas simplificadas. Así, supongamos que el decisor es capaz de definir únicamente dos valores posibles del VAN: el valor mínimo (el más pesimista), que llamaremos a, y el valor máximo (el que se produciría en la situación más optimista posible), que llamaremos b. En esta situación, pueden utilizarse fórmulas simplificadas para el cálculo de la esperanza matemática y desviación típica del VAN. Si puede aceptarse la hipótesis de normalidad de la distribución del VAN, la esperanza matemática será fácil de aproximar (al ser simétrica la distribución):
(16)
Y en condiciones de normalidad, valores que se alejen más de 3 desviaciones típicas del promedio, tanto por la izquierda como por la derecha, tienen una probabilidad muy escasa de producirse (aproximadamente un 0,2%, ya que en el rango de valores comprendidos entre ±3 s se encuentra un 99,8% de probabilidad, aproximadamente). Esto significa que el error cometido si suponemos que:
b – a = 6 · s (17)
es suficientemente pequeño. Por lo que podemos aproximar la desviación típica como:
(18)
Partiendo de las fórmulas de cálculo simplificadas del promedio y riesgo de VAN asociados al proyecto, podemos aplicar la formulación propuesta del VAP. Así, para t = 1,5, tenemos:
VAP = mVAN – t · sVAN (13)
(19)
que como puede verse, supone ponderar con un peso del 25% el valor máximo y con un 75% el valor mínimo. Y dado que el valor de t utilizado es de 1,5, el valor VAP obtenido puede entenderse como valor mínimo garantizado con un 93% de probabilidad, aproximadamente. Si el valor propuesto de t nos parece demasiado alto (es decir, si la penalización propuesta se considera exagerada), podemos dar valores inferiores a t. Por ejemplo, t = 0,6 (que hace que el VAP deje a su izquierda un 27% de probabilidad, aproximadamente), con lo que:
(20)
donde ahora el valor máximo tiene una ponderación superior. Veamos todo lo anterior con un sencillísimo ejemplo. Supongamos un proyecto de inversión en el que sólo nos atrevemos a calcular los valores mínimo y máximo de VAN: a = –20.000 y b = 40.000, respectivamente. Supongamos también que el analista no tiene razones para rechazar la hipótesis de normalidad, es decir, que no piensa que ninguno de los dos valores sea más probable que el otro, y tampoco piensa que los dos valores definidos sean los únicos posibles, sino los más representativos de un rango suficientemente amplio de valores (siendo posibles valores intermedios –tanto más cuanto más “centrados”–, y también valores inferiores o superiores a los propuestos –aunque con una probabilidad que se considera despreciable–). Supongamos además que el proyecto es de un riesgo similar a los que normalmente afronta la empresa, por lo que se considera suficiente que el valor obtenido para juzgar el interés del proyecto esté garantizado con un 73% de probabilidad (t = 0,6). Haciendo los cálculos correspondientes:
VAP (t = 0,6) = 0,4 · b + 0,6 · a = 0,4 · 40.000 + 0,6 · (–20.000) = 4.000
Si la penalización correspondiente a t = 0,6 se considera suficiente, el proyecto sería aceptado, ya que tiene un VAP positivo. Razonar así supone fijarse en un valor concreto de VAN, 4.000, que sería el valor que se produciría como mínimo en un 73% de los casos en los que se afrontara el proyecto.
Un último comentario relativo a la medida del riesgo utilizada a lo largo de todo este apartado. Como puede verse, hemos razonado en términos del riesgo total del proyecto, cuando lo que en realidad habría que haber considerado es el riesgo que éste aporta a la empresa (razonamiento en términos de variabilidad a la decisión). Así, podría ocurrir que un proyecto tuviera un riesgo elevado si lo tomamos por separado, pero que fuera capaz incluso de disminuir el riesgo total de la empresa en la que va a enmarcarse (al tener una relación muy negativa con los proyectos afrontados actualmente por la empresa). Dando un paso más, el riesgo realmente relevante de un proyecto no sería el que aporta a la empresa, sino el que añade a la cartera del accionista (cfr. riesgo diversificable y riesgo sistemático). Esto nos llevaría a tratar de medir ese riesgo relevante (para el accionista, o en su caso, para la empresa, si las posibilidades de diversificación del accionista no son amplias), medida que sustituiría a la s utilizada (que es una medida del riesgo total).
Nosotros pensamos que esto puede tenerse en cuenta simplemente variando el valor de t utilizado, lo que es más sencillo. Así, si el proyecto estudiado está fuertemente correlacionado con los proyectos en funcionamiento que tiene la empresa, casi todo el riesgo del proyecto será relevante para la empresa, por lo que el valor de t será más alto; mientras que si el proyecto estuviera negativamente correlacionado con los actuales de la compañía, el valor de t podría ser incluso negativo. Y un razonamiento similar podría hacerse teniendo en cuenta el riesgo que el proyecto aporta a la cartera del accionista (en el caso de que éste tenga posibilidades interesantes de diversificación del riesgo en su propia cartera).
1 Dado que el artículo se dirige fundamentalmente a un público implicado con los problemas analizados desde un punto de vista práctico, evitaremos hacer continuas referencias bibliográficas, intentando también utilizar un lenguaje asequible para aquellos menos familiarizados con los aspectos financieros de la empresa. Con todo, puede ser conveniente consultar en algunos extremos cualquiera de los manuales clásicos de finanzas, como el de Fernando Gómez–Bezares, “Las decisiones financieras en la práctica”, editado por Desclée de Brouwer, Bilbao, 1999, 7ª edición; el de Andrés Santiago Suárez Suárez, “Decisiones óptimas de inversión y financiación en la empresa”, Pirámide, Madrid, 1996, 18ª ed.; o el de J.C. Van Horne, “Financial management and policy”, Prentice–Hall, Englewood Cliffs, Nueva Jersey, 1998, 11ª ed.
2 Esta idea no es otra cosa que el concepto de la utilidad marginal decreciente propuesto por la Teoría del Consumidor. Efectivamente, el punto de partida de dicha teoría es que, para bienes normales, la utilidad (medida de la satisfacción) asociada a unidades adicionales de dicho bien (es lo que se llama utilidad marginal, es decir, el aumento de utilidad) es siempre positiva pero decreciente. Dicho de otra forma, unidades adicionales de riqueza suponen aumentos siempre positivos de satisfacción, pero cada unidad añade una satisfacción inferior a la reportada por la unidad anterior. Es decir, que los sucesivos incrementos que añadimos a nuestra riqueza “cada vez nos hacen menos ilusión” (aunque siempre nos dan algo de alegría).
3 Se supone relación lineal entre las rentabilidades del título y el mercado.
4 En realidad se minimiza la suma de cuadrados de dichas distancias.
5 Puede justificarse todo lo expuesto desde un punto de vista matemático, pero no entraremos en demasiados detalles. Indicaremos simplemente algunas fórmulas que pueden resultar de utilidad. Así, la beta de un título “i” se obtiene mediante la siguiente fórmula:
donde sim es la covarianza entre las rentabilidades del título “i” y el mercado, mientras que s2m es la varianza (cuadrado de la desviación típica) de la rentabilidad del mercado. Y puede también verse matemáticamente la distinción entre riesgo sistemático y diversificable:
Riesgo total = Riesgo sistemático + Riesgo diversificable
donde el riesgo total lo medimos ahora, por conveniencia, con la varianza de la rentabilidad del título “i”, s2i, y a la nomenclatura anterior se añade la s2e, que es la varianza de las perturbaciones aleatorias. Tenemos así que el primer sumando de la parte derecha de la igualdad sería el que tiene que ver con el mercado, mientras que el segundo es el específico del título, y que por tanto, podría eliminarse por diversificación. Para comparar el riesgo sistemático entre diferentes títulos, dado que la s2m afecta a todos, se utiliza la b como medida de dicho riesgo sistemático.
6 Para una demostración más rigurosa del CAPM véase, por ejemplo, “Dirección financiera”, de Fernando Gómez–Bezares, Desclée de Brouwer, 1991, 2ª edición, capítulo 5.
7 El lector interesado puede ampliar lo aquí expuesto en “VAN vs TRI: algunos ejemplos prácticos”, de Fernando Gómez–Bezares, José A. Madariaga y Javier Santibáñez, publicado en Harvard–Deusto Finanzas&Contabilidad, nº 7, Septiembre–Octubre, 1995, págs. 48–58.
8 El criterio nace en 1984, de la mano del profesor Gómez–Bezares, y hemos seguido desarrollándolo en el Departamento de Finanzas de la Universidad Comercial de Deusto a lo largo de los últimos quince años. Puede consultarse en “Penalized present value: net present value penalization with normal and beta distributions”, de Fernando Gómez–Bezares, en Aggarwal, ed., “Capital budgeting under uncertainty”, Prentice – Hall, Englewood Cliffs, Nueva Jersey, 1993, págs. 91–102.
9 Individuos con utilidad marginal positiva y decreciente (es decir, que prefieren más riqueza a menos riqueza y se comportan como enemigos del riesgo) y supuestas distribuciones normales de resultado. Puede verse, por ejemplo, en “Dirección financiera”, de Fernando Gómez–Bezares, Desclée de Brouwer, 1991, 2ª edición, capítulo 4.