Samuel Immanuel Brugger Jakob
Al desarrollar modelos de series de tiempo se necesita saber si se puede suponer que el proceso estocástico que los generó es invariable en el tiempo. A este tipo de procesos se les denomina procesos estocásticos estacionarios. Si el proceso no es estacionario, será muy difícil representar a la serie de tiempo durante intervalos de tiempo pasados y futuros con un modelo algebraico simple. Si el proceso es estacionario, entonces es modelable mediante una ecuación de coeficientes fijos estimables con datos pasados. En la práctica es complicado encontrar series de tiempo surgidas de procesos estacionarios; sin embargo, hay técnicas que se encargan de convertir dichos procesos en estacionarios.
Los procesos estacionarios tienen características deseables. Por ejemplo, una serie y1, y 2, ...,yT puede considerarse como generada por un conjunto de variables aleatorias distribuidas en forma conjunta. En otras palabras, y1,y 2,...,yT representa un resultado particular de la distribución de probabilidad conjunta p (y1 , y 2 ,..., yT); esto es lo que se denomina “realización”. De igual manera, una observación futura yT +1 puede ser considerada como generada por una función de distribución de probabilidad condicional p(yT+1 |y1,y 2,...,yT), es decir, una distribución de probabilidad para yT +1 dadas las observaciones pasadas. Entonces, de manera formal, un proceso estacionario se define como aquel cuya distribución conjunta y distribución condicional es invariable respecto al desplazamiento en el tiempo. Por lo que si la serie y t es estacionaria, se tiene que
p(yt,...., yt+k) = p(y t+m , ... y t+k +m) y p(y t) = p(yt+m ) ∀ t , k , m
Con base en este resultado se obtienen las características de una serie estacionaria:
1 Si la serie es estacionaria, la media de la serie definida como μy = E(yt), también debe ser constante a lo largo del tiempo, por lo que E(yt) = E(yt + m) ∀ t , m.
2 La varianza de la serie, definida como σ2y = E[(yt − μy)2], también debe ser constante, de tal manera que E[(yt − μy)2] = E[(yt + m − μy)2].
3 Para cualquier rezago k, la covarianza de la serie γk = Cov(yt,yt + k) = E[(yt −μy)(yt+k −μy)] debe ser estacionaria, de modo que Cov(yt, yt+k ) = Cov(yt+m , y t+k +m).
Por tanto, si un proceso estocástico es estacionario, la distribución de probabilidad p(yt) es la misma para todo tiempo t y su forma o al menos algunas de sus propiedades pueden inferirse a través de un histograma de las observaciones y1,y 2,...,yT. Si una serie no cumple con las tres características anteriores, se dice que es no estacionaria.
Sin embargo, en el trabajo de Granger y Newbold (1974) se ha demostrado que la mayoría de las series económicas no son estacionarias en niveles, es decir, que son integradas de algún orden mayor que 0. Esto acarrea algunos problemas graves en la práctica, sobre todo porque se viola un supuesto básico del modelo clásico de regresión: la estacionariedad de las variables.
Este problema se remonta a los resultados que obtuvo Yule (1926). Llegó a la conclusión de que es relativamente sencillo encontrar correlaciones estadísticamente significativas entre variables que no son estacionarias. De esta manera se demostró, por ejemplo, que la inflación anual de Gran Bretaña es explicada por los casos de disentería que ocurrieron en Escocia el año anterior (Henry, 1980).
El problema fue abordado de manera profunda por Granger y Newbold (1974). Determinaron llamar a las regresiones econométricas que involucran variables no estacionarias “regresiones espurias”, debido a que se puede demostrar casi cualquier relación estadísticamente significativa con variables I(d), donde d > 0. Según Granger y Newbold (1974), las regresiones espurias se caracterizan por:
Una elevada bondad de ajuste (R2).
Un valor del estadístico Durbin Watson, DW, excesivamente bajo, muy inferior al valor 2 que corresponde a la ausencia de autocorrelación e inferior al límite inferior del test DW.
Las principales consecuencias de la presencia de autocorrelación de los errores en una regresión son:
Los coeficientes estimados por la regresión son sesgados e ineficientes.
Las proyecciones basadas en las ecuaciones son suboptimales.
La significancia de las pruebas sobre los coeficientes no es válida.
Para analizar si las regresiones son espurias o no, se analizaron en primera instancia las raíces unitarias. El número de raíces unitarias equivale al número de veces que se tiene que diferenciar una serie para hacerla estacionaria. Así, se dice que una serie I(1) tiene una raíz unitaria y que una serie I(d) tiene d raíces unitarias.
Existen diferentes pruebas para analizar la presencia de raíces unitarias (o el orden de integración de las series); entre las más usuales están: Dickey-Fuller (DF), Dickey-Fuller Aumentada (ADF), Phillips-Perron (PP), Kwiatkoski, Phillips, Schmidt y Shin (KPSS), entre otras. A continuación se presentarán los resultados obtenidos con la prueba de Dickey-Fuller Aumentada (ADF). Se dejarán las demás pruebas de lado, ya que muestran resultados equivalentes y, por tanto, no aportan información adicional. El cuadro 18 muestra que las series analizadas son de orden I(d) > 0, por lo que tienen por lo menos una raíz unitaria. Se tomaron las series en niveles y con tendencia e intercepto.
La hipótesis nula (Ho) propone que la serie tiene una raíz unitaria. La prueba de hipótesis se hace con el valor de la t estadística. Si ésta resulta positiva o está por debajo del valor crítico, se acepta Ho. Este resultado se confirma un poco más intuitivamente cuando se observa que la probabilidad de la prueba es mayor al 95% de confianza, lo cual se advierte en el valor de probabilidad, que debe ser mayor a 0.05. En tal caso se sabe de la existencia de al menos una raíz unitaria. En todos los casos se demuestra la existencia de al menos una raíz unitaria. Por tal razón, es necesario saber si la serie es I(1) o I(2), lo que resulta al realizar las pruebas especificando las variables en primeras diferencias. La obtención de una probabilidad mayor a 0.05 sería prueba de que la serie tiene dos raíces unitarias y que sería necesario sacar otra diferencia para tenerla estacionaria.
De esta forma se analizaron las mismas series en primeras diferencias. En el cuadro 19 se observa que las series tienen una raíz unitaria, por lo que de aquí en adelante se usarán las series en primeras diferencias para tener series estacionarias y evitar tener una regresión espuria. Al usar primeras diferencias ya sólo se usó con intercepto y se obtuvieron resultados favorables entre 6 a 10 rezagos. Con 11 rezagos Argentina y Chile mostrarían dos raíces unitarias. Sin embargo, la mayoría de los estudios no sobrepasan los seis rezagos. Este resultado es congruente con los resultados de los trabajos de Peiró (1996) y Ortiz (2007a). No obstante, aunque pueda haber una raíz unitaria esto no evita la posibilidad de que exista una relación de largo plazo entre las series originales que se analizarán a continuación mediante la prueba de cointegración. Lo anterior es relevante principalmente porque al obtener primeras diferencias se pierde información que puede ser valiosa para el análisis (Maddala, 2001).
Después de analizar las series bursátiles se estudiaron los PIB mensuales. Al igual que con las series bursátiles se calculan las series originales en niveles con tendencia e intercepto (véase cuadro 20). Se observa que todas las series tienen por lo menos una raíz unitaria.
En el cuadro 21 se muestra la existencia de una sola raíz unitaria –al 5%– en las series en primeras diferencias. De esta manera, es necesario analizar las dos series en primeras diferencias – excepto que las series cointegren– para evitar cualquier regresión espuria (Loría, 2007).