SciELO - Scientific Electronic Library Online

 
vol.18 número1ENGENHARIA DO CONHECIMENTO APLICADA AO SERVIÇO DE ATENDIMENTO AO CLIENTE NA INDÚSTRIA DO SOFTWAREINGENIERÍA REVERSA Y COMPRENSIÓN DE PROGRAMAS DIRIGIDA POR MODELOS: UN EJEMPLO índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

Compartir


Ingeniare. Revista chilena de ingeniería

versión On-line ISSN 0718-3305

Ingeniare. Rev. chil. ing. v.18 n.1 Arica abr. 2010

http://dx.doi.org/10.4067/S0718-33052010000100008 

Ingeniare. Revista chilena de ingeniería, vol. 18 Nº 1, 2010, pp. 64-75

ARTÍCULOS

PREDICCIÓN DE SERIES TEMPORALES USANDO MÁQUINAS DE VECTORES DE SOPORTE

 

TIME SERIES PREDICTION USING SUPPORT VECTOR MACHINES

 

Juan D. Velásquez1 Yris Olaya1 Carlos J. Franco1

1Escuela de Ingeniería de Sistemas. Universidad Nacional de Colombia. Carrera 80 Nº 65-223. Medellín, Colombia. E-mail: jdvelasq@unal.edu.co; yolayam@unal.edu.co; cjfranco@unal.edu.co


RESUMEN

La predicción de series de tiempo es un importante problema de investigación debido a sus implicaciones en ingeniería, economía, finanzas y ciencias sociales. Un importante tópico de esta problemática es el desarrollo de nuevos modelos y su comparación con aproximaciones previas en términos de la precisión del pronóstico. Recientemente, las máquinas de vectores de soporte (SVM) han sido usadas para la predicción de series de tiempo, pero las experiencias reportadas son limitadas y hay algunos problemas relacionados con su especificación. El objetivo de este artículo es proponer una técnica novedosa para estimar algunas constantes en las SVM que usualmente son fijadas en forma empírica por el modelador. La técnica propuesta es usada para estimar varias SVM con el fin de pronosticar cinco series benchmark; los resultados obtenidos son comparados con las estadísticas reportadas en otros artículos. La metodología propuesta permite obtener SVM competitivas para las series pronosticadas en comparación con los resultados obtenidos usando otros modelos más tradicionales.

Palabras clave: Series de tiempo, predicción, redes neuronales artificiales, máquinas de vectores de soporte.


ABSTRACT

Time series prediction is an important research problem due to its implications in engineering, economics, finance and social sciences. An important topic about this problematic is the development of new models and its comparison with previous approaches in terms of forecast accuracy. Recently, support vector machines (SVM) have been used for time series prediction, but the reported experiences are limited and there are some problems related to its specification. The aim of this paper is to propose a novel technique for estimating some constants of the SVM usually fixed empirically by the modeler. The proposed technique is used to estimate several SVM with the aim of forecast five benchmark time series; the obtained results are compared with the statistics reported in other papers. The proposed method allow us to obtain competitive SVM for the time series forecasted in comparison with the results obtained using other most traditional models.

Keywords: Time series, forecasting, artificial neural networks, support vector machines.


INTRODUCCIÓN

La predicción del comportamiento futuro de diferentes variables físicas, sociales, financieras y económicas ha sido un problema de particular interés para científicos y profesionales de diversas áreas [1]. Se busca encontrar el modelo que permita determinar con la mayor precisión posible los valores futuros de la serie investigada, para uno o más periodos hacia delante. Para abordar este problema se han desarrollado numerosas técnicas que abarcan modelos estadísticos tradicionales tales como los ARIMA y las funciones de transferencia [2], hasta modelos no lineales [3]. Particularmente, los modelos de redes neuronales artificiales han sido de especial utilidad cuando la serie estudiada presenta características no lineales; en [4] se presenta una revisión general, y aplicaciones específicas en [5-13].

Particularmente, los perceptrones multicapa (MLP, por sus siglas en inglés) han sido ampliamente utilizados para la predicción de series no lineales, debido a que pueden aproximar cualquier función continua definida en un dominio compacto [14-16]. Sin embargo, su especificación se basa fundamentalmente en criterios heurísticos y juicio experto del modelador [17, 18], de tal manera, que dicho proceso se basa en un conjunto de pasos críticos que afectan el desempeño final del modelo [19], en términos de su ajuste a los datos históricos y su capacidad de generalización con el fin de realizar pronósticos.

Las máquinas de vectores de soporte (SVM, por sus siglas en inglés) [20, 21] son un tipo de red neuronal que fue originalmente diseñada para la solución de problemas no lineales de clasificación [22, 23], pero que recientemente se ha aplicado a problemas de regresión [21, 24] y predicción de series temporales [25-29]. Ello se debe a su capacidad de generalización [30, 31], la cual es función directa de su estructura y de la metodología utilizada para la estimación de sus parámetros.

Las SVM presentan varias ventajas sobre otras técnicas no lineales (que incluyen los MLP):

a) Su especificación se basa en el principio de minimización del riesgo estructural que equivale a minimizar el límite superior del error de generalización del modelo. Así, la estimación de una SVM busca encontrar tanto la estructura óptima del modelo como los valores óptimos de sus parámetros, permitiendo una mayor capacidad de generalización del modelo. La estimación de los parámetros de otros modelos tradicionales, tales como los MLP, se basa en la aplicación del principio de minimización de riesgo empírico que depende fundamentalmente del ajuste a los datos históricos, tomando la estructura del modelo como un parámetro de entrada.
b)
La estimación de los parámetros de una SVM es equivalente a la solución de un modelo de programación cuadrática con restricciones lineales; ello implica, que la solución óptima es global y única, lo cual representa una clara ventaja sobre modelos como los MLP que se caracterizan por poseer múltiples puntos de mínima local.

El problema de programación cuadrática de cuya solución se obtienen los parámetros de las SVM depende de los datos (la serie de tiempo) y de varias constantes que representan los parámetros de la función de núcleo (o kernel) utilizada, y de los parámetros de la función de riesgo. Su definición detallada se presenta en la próxima sección. Las constantes anteriores son dependientes de cada problema particular, y no existen métodos que permiten su estimación, por lo que sus valores deben ser fijados de manera heurística por el experto; es así como en las referencias analizadas [25-29] no se presentan sugerencias sobre este punto. Este aspecto dificulta enormemente el proceso de desarrollo de un modelo de predicción para una serie de tiempo usando SVM.

Por otra parte, las experiencias reportadas en la literatura sobre la predicción de series de tiempo usando SVM son limitadas, y no es posible realizar comparaciones sistemáticas de las SVM con otros modelos. Un resumen de los estudios seleccionados se presenta en la Tabla 1. La escasa literatura encontrada muestra que el uso de las SVM para la predicción de series de tiempo ha sido poco difundido.

Tabla 1. Estudios seleccionados sobre la predicción de series de tiempo usando SVM.

El primer objetivo de este artículo es proponer una metodología para la selección de las constantes que controlan el desempeño de las SVM con el fin de facilitar el desarrollo de modelos de predicción de series temporales.

El segundo objetivo es pronosticar cinco series de tiempo del mundo real que presentan diferentes características estructurales usando la metodología propuesta para comparar los resultados obtenidos con los estadísticos reportados por otros autores que usaron la metodología ARIMA y MLP. Ello permitirá que en el largo plazo se pueda establecer una clara comparación con otras metodologías, ya que las series utilizadas son comúnmente aceptadas para este fin. La decisión de tomar los resultados obtenidos por otros investigadores para los modelos más tradicionales está motivada en el hecho de poder garantizar que se usan estadísticos de error realmente competitivos que han sido estimados por expertos en la metodología; así, se evita una objeción sobre la calidad de la comparación realizada.

El tercer objetivo es contribuir a la difusión del uso de las SVM como una técnica competitiva para la predicción de series de tiempo que puede producir mejores pronósticos que otros métodos más tradicionales.

Este artículo consta de cuatro secciones. En la primera se examina la formulación matemática de las SVM. En la siguiente sección se presenta una metodología para la selección de las constantes que controlan el desempeño de las SVM. En la tercera sección, se realiza una comparación del desempeño de las SVM para la predicción de cinco series de tiempo que han sido utilizadas comúnmente como benchmark por otros investigadores para evaluar el desempeño de modelos no lineales. En la última sección se concluye.

MÁQUINAS DE VECTORES DE SOPORTE

En esta sección se presenta una descripción detallada de la arquitectura de las máquinas de vectores de soporte, el proceso de estimación de sus parámetros y las funciones de núcleo comúnmente utilizadas.

El modelo
Sea una serie de tiempo, yt, con regresores xt, para la cual se poseen D ejemplos representativos. Una SVM permite aproximar yt a través de la función:

(1)

Donde b es una constante y wd son los factores de ponderación de la función de núcleo k (·,·). Así, una SVM es la combinación lineal del mapeo de xt en un espacio de características altamente no lineal definido por los puntos xd y la función de transformación no lineal k (·,·).

Estimación
La estimación de (1) se basa en minimización de la función de riesgo regularizado, R (C,ε), definida como:

(2)

Donde el primer sumando mide el error empírico entre el modelo y los datos, mientras que el segundo corresponde a la componente de regularización y depende únicamente de los pesos wd. La constante de regularización C permite variar la importancia de cada una de las componentes; así, valores muy altos de C enfatizan el ajuste del modelo a los datos, sin que importe que tan grandes deban ser los pesos wd para conseguirlo; sin embargo, se sabe que el modelo pierde su capacidad de generalización de los datos a medida que los pesos wd aumentan en magnitud, ya que ellos suelen causar una varianza excesiva en el modelo. Cuando C tiende a cero, la magnitud de la función R (C,ε) depende únicamente de wd, sin importar el ajuste a los datos, haciendo que los pesos wd disminuyan tanto como sea posible. Lε es la función de error e -insensible de Vapnik [30] definida como:

(3)

Donde la constante ε es la precisión deseada, y representa el radio del tubo dentro del cual el error se considera cero. Este comportamiento es esquematizado en la Figura 1, donde los puntos negros representan los datos disponibles, que están alejados a una distancia mayor de e unidades de la predicción del modelo, y para los cuales el error se considera superior a cero; los puntos blancos, representan los datos dentro del túnel de tolerancia del modelo, y para los cuales el error se considera cero. Mientras menor sea el valor dado a ε, mayor es la precisión exigida, ya que se tendrá en cuenta una mayor cantidad de puntos que contribuyen al error de ajuste.

La solución de (2) puede ser obtenida mediante la teoría de multiplicadores de Lagrange, y es fácilmente demostrable que el problema original es equivalente a resolver el problema de programación cuadrática [30] [34]:

(4)


Figura 1. Función de error.
Fuente: Elaboración propia

Con restricciones lineales:

(5)
(6)

Donde αd y αd* son los multiplicadores de Lagrange asociados a los datos, los cuales cumplen con las restricciones αd × αd* = 0, αd = 0, y αd* = 0; z = [αd, αd* ]'; ƒ = [ε - yt, ε + yt]; y finalmente,

(7)

En esta última ecuación, K es una matriz de orden D×D , con kij = k ( xi, xj). Los pesos wd se obtienen como:

(8)

En la práctica, esto equivale a que |wd| = C.

La formulación como un problema de programación cuadrática implica: (a) que la solución obtenida es global, ya que la formulación del problema es convexa; (b) que la solución es única ya que la función de costo es estrictamente convexa; y (c) que muchos de los pesos wd serán cero; de tal forma, que solamente una fracción de los datos originales contribuyen en la función de error. Esta conclusión es basada en las condiciones de Karush-Kuhn-Tucker para la programación cuadrática. Los puntos para los cuales sus correspondientes multiplicadores de Lagrange son diferentes de cero, (esto es, con Lε(·,·) > 0) son llamados vectores de soporte, y son los que permiten realizar la aproximación de y t en (1). Así, se espera que a medida que aumente el valor de e , disminuya la cantidad de vectores de soporte; pero que también disminuya la capacidad de aproximación del modelo a los datos originales.

Funciones de núcleo (kernels)
En (1), k (x, xd) representa una función de núcleo que permite llevar el punto x a un espacio altamente dimensional parametrizado por los puntos xd. Existen varias funciones que son típicamente utilizadas como núcleos [30-31, 35]:

•  Lineal: x xd
•  Polinomial: (α1x xd+α2)d.
•  Gaussiana o RBF: exp[-1/α12×(x-xd)2]
•  Exponencial: exp[-1/α12×(x-xd)]
•  Perceptron multicapa: tanh(α1x xd+α2).
Las constantes α1 y α2 son dependientes del problema y sus valores deben ser ajustados por el modelador.

En muchas de las referencias reportadas en la Tabla 1, se indica que la función gaussiana o RBF presenta un mejor desempeño para la solución de problemas de regresión y de predicción de series temporales. Consecuentemente, en este artículo sólo se considerará el uso de esta función de núcleo, pero la metodología presentada en la siguiente sección es aplicable a cualquiera de las restantes funciones de activación.

METODOLOGÍA DE SELECCIÓN DE LAS CONSTANTES

Dada una serie temporal, una SVM con función de núcleo RBF (cuya desviación estándar es σ) y valores para las constantes C y e es posible determinar los valores óptimos de los parámetros b y wd de la SVM definida en (1), a partir de la solución del problema de programación cuadrática definido por (4), (5) y (6). Tal como ya se indicó, el modelo definido por las ecuaciones anteriores tiene una solución única y global, pero dependiente de los valores asumidos para σ, C y ε. La dificultad radica en que estos valores son dependientes del problema particular analizado, y en que no hay métodos heurísticos para la determinación de sus valores, por lo que el experto debe fijar sus valores de forma heurística. En esta sección se propone una metodología para la fijación de sus valores iniciales, y un proceso para su optimización.

Fijación de los valores iniciales de σ, C y ε
Sean los vectores de regresores xi y xj para la serie de tiempo yt btenidos de la información disponible para la estimación del modelo. En (1), k (xi, xj) se define como la función gaussiana o RBF:

(9)

Donde ||·|| representa la distancia entre los vectores xi y xj. De esta forma (9) puede escribirse en términos de la distancia d entre los vectores xi y xj:

(10)

Dicha distancia oscila entre 0 y un valor positivo arbitrario dmax que representa la máxima distancia entre dos vectores de regresores. Bajo esta premisa (10) sólo toma valores en el intervalo [0, dmax], siendo k (0) = 1 y k (dmax) —> 0. El problema de la selección del valor d se radica en que para valores muy grandes de s el valor de k () en (1) sería prácticamente cero, mientras que para valores muy pequeños, k () valdría prácticamente la unidad. Ya que dmax puede ser estimado a partir de la información disponible, el valor inicial de σ puede obtenerse como el σ tal que k (dmax) = α; donde α es una constante arbitraria cercana a cero, por ejemplo, α = 0,05. Esto garantiza que la función k () toma valores en el rango [α, 1] para la serie de tiempo analizada.

Por otra parte, la constante e toma valores entre 0 y un valor positivo desconocido que representa el error máximo entre el modelo y la serie de datos. Ya que el modelo (1) no ha sido estimado, la serie de errores es desconocida, por lo que no es posible fijar e en un valor inicial adecuado. Un valor inicial para e puede ser obtenido si se supone que yt sigue un proceso autorregresivo de orden uno:

(11)

Donde φ es una constante y et son los residuales. El valor inicial de e puede obtenerse como un porcentaje del valor máximo de et en (11).

En esta investigación no se encontraron mecanismos para obtener un valor inicial para C , por lo que se supone que su valor inicial es igual a la unidad.

Optimización de los valores de σ, C y ε
Una vez que se han fijado valores para el vector (σ, C, ε) es posible estimar los valores óptimos de (1) y estimar un estadístico que mida el error de ajuste del modelo a la serie de tiempo. En principio cualquier técnica de optimización podría ser utilizada para estimar los valores óptimos de (σ, C, ε), pero la obtención de la solución de problema de programación cuadrática es computacionalmente costosa. En esta investigación se utilizó un proceso de búsqueda discreta en donde se evalúan secuencialmente los puntos en la vecindad de (σ, C, ε). Las soluciones vecinas se obtienen como (σ, C, ε) + (±Δ σ, ±Δ C, ±Δ ε); cuando se detecta una dirección que permite disminuir el error de ajuste, se continúa avanzando en esta dirección hasta encontrar un punto de mínima local; el proceso de optimización termina cuando ningún punto en la vecindad de la solución actual permite disminuir el error de ajuste.

Dependiendo de los valores de (σ, C, ε), la SVM puede sobreajustarse a la muestra de entrenamiento, tal como ocurre con otros tipos de redes neuronales. Para evadir este problema, los datos para el entrenamiento del modelo son divididos en un conjunto de ajuste con el que se calculan los valores óptimos de los parámetros de (1) dado (σ, C, ε); y en un conjunto de validación que se usa para determinar si se ha presentado el sobreajuste del modelo. El proceso de optimización de (σ, C, ε) se detiene cuando:
1. (σ, C, ε) convergió a un punto de mínima.
2. El error cuadrático medio para la muestra de ajuste (MSE) entre las iteraciones k y k +1 (esto es, cuando se ha detectado una dirección en que disminuye el error), se reduce muy lentamente. Dicha velocidad, medida como (MSEk-MSEk-1)/MSEk = ε1, es inferior a un valor ε1* predefinido por el experto [32]. Y, cuando la proporción entre los errores de ajuste (MSET) y validación (MSEV) para la iteración actual, |MSET-MSEV|/MSET = ε2 es superior a un valor ε2* predefinido por el experto [32].

DESEMPEÑO

En esta sección se reportan los resultados obtenidos al pronosticar las series descritas a continuación utilizando SVM obtenidas con la metodología de la sección anterior. Para cada serie considerada, las SVM obtenidas difieren en los rezagos usados para su predicción. Los valores óptimos de (σ, C, ε) para cada SVM se obtuvieron utilizando el procedimiento descrito en la sección anterior.

a)
Serie AIRLINE: Corresponde al número de pasajeros transportados mensualmente al exterior por una aerolínea entre ENE1949 y DIC1960; esta serie presenta una tendencia creciente más un patrón cíclico de periodicidad anual. En las experiencias reportadas en la literatura, los primeros 120 datos son utilizados para la estimación del modelo, y los 12 restantes para su validación. La serie modelada corresponde a la serie original transformada usando la función logaritmo natural.
b)
Serie POLLUTION: Es la cantidad de despachos mensuales de un equipo de polución en miles de francos franceses, entre ENE1986 y OCT1996. La serie modelada corresponde al logaritmo natural de los datos originales. Las primeras 106 observaciones son usada para la estimación de los modelos, mientras que las 24 restantes son usadas para su validación.
c)
Serie INTERNET: Es la cantidad de usuarios que acceden a un servidor de internet por minuto durante 100 minutos consecutivos. Los primeros 80 datos son usados para la estimación del modelo, y los 20 restantes para su predicción. Se modela la serie original sin ningún tipo de transformación.
d)
Serie LYNX: Corresponde al número de linces canadienses atrapados por año en el distrito del río Mckenzie del norte de Canadá entre los años 1821 y 1934. Se modela el logaritmo en base 10 de la serie original. Las primeras 100 observaciones son usadas para el ajuste de los modelos y las 14 restantes para la predicción por fuera de la muestra de calibración.
e)
Serie PAPER: Corresponde a las ventas mensuales de papel impreso y escrito en miles de francos franceses entre ENE1963 y DIC1972. Las primeras 100 observaciones son usadas para el ajuste de los modelos y las 20 restantes para la predicción por fuera de la muestra de calibración. La serie es modelada sin ninguna transformación.

Serie AIRLINE
En [8] se comparó la precisión de varios modelos para pronosticar esta serie; en dicha referencia se indica que el mejor modelo ARIMA para representar la serie es de orden (0, 1, 1)×(0, 1, 1) 12 .; sus resultados se presentan en la Tabla 2. Igualmente en [8] se estimaron diferentes MLP que difieren en la cantidad de neuronas de la capa oculta y los rezagos de la serie usados como regresores de la serie; el MLP con menor error de entrenamiento tiene 4 neuronas en la capa oculta y usa los rezagos 1 – 13; el MLP con menor error de validación tiene 2 neuronas en la capa oculta y usa los rezagos 1 y 12. En la Tabla 2 se reportan los resultados para estos dos modelos.

Tabla 2. Sumatoria del error cuadrático (SSE). SVM con kernel gaussiano. Serie AIRLINE.

En esta investigación se estimaron varias SVM con los mismos rezagos usados en [8]. Para cada uno de los SVM se aplicó el proceso de optimización de (σ, C, ε) descrito previamente ; en la Tabla 2 se reportan los resultados obtenidos.

Todas las SVM estimadas tienen errores de entrenamiento menores que el obtenido en [8] para el modelo ARIMA, excepto para la SVM-7 con rezagos 1, 2 y 13; todas las SVM estimadas tienen un error de validación inferior al del modelo ARIMA. Para la mejor SVM, presenta una reducción del 82% y del 100% de los errores de entrenamiento y validación en relación a los del modelo ARIMA.

Respecto al MLP con mejor ajuste, la SVM con mejor ajuste presenta una reducción del error de entrenamiento del 23%, pero del 100% respecto al error de validación. Se observa igualmente que el MLP con menor error de validación se encuentra bastante lejano en desempeño respecto a las SVM estimadas.

En la Figura 2 se presenta la predicción un mes adelante para la SVM-3 de la Tabla 2. Los puntos negros representan los datos reales. La línea continua con puntos negros representa la predicción del modelo; las otras líneas representan los intervalos de confianza del 95% para la predicción. La línea punteada vertical del extremo derecho representa la división entre el conjunto de datos de ajuste y el conjunto de datos de predicción.

Serie POLLUTION
Esta serie fue originalmente utilizada en [33], y se indica que un modelo ARIMA de orden (2,1,0)(1,0,0) 12 es adecuado para representar su dinámica. En [32], se reportan los resultados obtenidos al estimar dicho modelo para las primeras 106 observaciones y validar su desempeño para las siguientes 12 y 24 observaciones, respectivamente. De igual manera en [32] se reportan los resultados obtenidos al estimar un MLP que usa como entradas los rezagos 1 – 12. Los estadísticos para ambos modelos son resumidos en la Tabla 3.

Tabla 3. Error cuadrático medio (MSE) y desviación media absoluta (MAD). SVM con kernel gaussiano. Serie POLLUTION.

En esta investigación se estimaron SVM para los mismos grupos de rezagos sugeridos en [32]; los resultados presentados en la Tabla 3 muestran que todos los SVM presentan un MSE de entrenamiento igual o inferior al reportado para los modelos MLP y ARIMA, y una MAD siempre inferior. Para la predicción un año adelante, el modelo ARIMA presenta el MSE más bajo, pero este aumenta considerablemente al considerar un horizonte de predicción de 24 meses. Las SVM presentan un desempeño inferior al del modelo ARIMA para la predicción un año adelante, pero superan claramente a los demás modelos para el horizonte de 2 años. El modelo SVM-1 de la Tabla 3 presenta el mejor desempeño global entre todos los modelos considerados; su predicción un mes adelante es presentada en la Figura 3.

Serie INTERNET
Esta serie es analizada en [33], y se sugiere que un modelo ARIMA de orden (3,1,0) sería el más adecuado para representar su dinámica. En [32] se reportan los resultados obtenidos al estimar un MLP con rezagos 1, 2, 3 y 4 para dicha serie. Los resultados reportados en [32] son resumidos en la Tabla 4.

Tabla 4. Error cuadrático medio (MSE) y desviación media absoluta (MAD). SVM con kernel gaussiano. Serie INTERNET.

En este caso se demuestra que las SVM no siempre pueden ser la mejor alternativa respecto a los modelos ARIMA y los MLP. Para este caso, la SVM presenta un MSE de entrenamiento menor que el modelo ARIMA pero superior al del MLP (Tabla 4); en términos de la MAD, la SVM estimada es inferior en calidad respecto a los dos modelos competidores. Para la predicción por fuera de la muestra de calibración, la SVM presenta un pobre desempeño respecto a los otros modelos considerados; su MSE y su MAD son el 200% y el 154% de los obtenidos para el modelo ARIMA. La predicción para el modelo SVM es presentada en la Figura 4.

El proceso de optimización fue realizado muchas veces, y en ningún caso fue posible obtener estadísticos que fueran inferiores a los reportados para los modelos ARIMA y MLP.

Serie LYNX
Esta serie es usada en [9] para evaluar el desempeño de un modelo ARIMA, un MLP y un modelo híbrido que combina las dos metodologías anteriores; en [9] se reporta que el MLP tiene una estructura de 7 entradas correspondientes a los primeros 7 rezagos de la serie, 5 neuronas en la capa oculta y una neurona de salida. Igualmente, se señala que el modelo ARIMA tiene el mejor desempeño de los tres modelos considerados.

Ya que en [9] no se reportan los rezagos utilizados para especificar el modelo ARIMA, se consideraron 7 SVM que difieren en los rezagos utilizados por cada modelo. Los estadísticos de ajuste a las muestras de entrenamiento y predicción para las SVM y los modelos reportados en [9] son presentados en la Tabla 5. Para esta serie, el modelo SVM-6, que usa como entradas los rezagos 1 al 3 y 8 al 10, presenta unos estadísticos de ajuste a la muestra de predicción que son inferiores a los reportados para el modelo híbrido en [9]. Esto se presenta en una reducción del 11% y del 22% para el MSE y el MAD, respectivamente. La predicción un mes adelante obtenida con la SVM-6 es presentada en la Figura 5.

Tabla 5. Error cuadrático medio (MSE) y desviación media absoluta (MAD). SVM con kernel gaussiano. Serie LYNX.

Serie PAPER
En [33] se reporta que el modelo ARIMA con menor MSE para representar la dinámica de la serie es de orden (0, 1, 1)(0, 1, 1) 12 usando la totalidad de la información disponible. En [32] este modelo es reestimado usando los primeros 100 datos para el ajuste del modelo y los 20 restantes para la predicción por fuera de la muestra de ajuste. Igualmente en [32] se reportan los resultados obtenidos al estimar un MLP que usa los rezagos 1, 7 y 12 como entradas. Los estadísticos para estos modelos son resumidos en la Tabla 6.

Tabla 6. Error cuadrático medio (MSE) y desviación media absoluta (MAD). SVM con kernel gaussiano. Serie PAPER.

En esta investigación se estimaron 2 SVM que usan los mismos rezagos de los modelos ARIMA (1, 12 y 13) y MLP (1, 7 y 12). Para este caso, los estadísticos de ajuste a la muestra de calibración muestran que las SVM presentan errores (MSE y MAD) más altos que los modelos ARIMA y MLP; esto es, incrementos del 36% y del 14% para el MSE y el MAD respecto a los reportados para el modelo ARIMA. En términos de la predicción por fuera de la muestra de ajuste, los SVM presentan mejores estadísticos que el MLP, pero peores que los del modelo ARIMA. Los SVM presentan un MSE y un MAD que son superiores al menos un 15% y un 11%, respectivamente, en relación a los reportados para el modelo ARIMA. En la Figura 6 se presenta la predicción un mes adelante para la SVM-2.

CONCLUSIONES

El uso de las SVM para la predicción de series de tiempo se ve dificultado por la necesidad de escoger adecuadamente los valores de las constantes (σ, C, ε) que controlan el desempeño del modelo final obtenido. En este artículo se ha propuesto una metodología para fijar el valor inicial de dichas constantes, y una metodología para su optimización con el fin de obtener el mejor SVM posible para pronosticar la serie particular estudiada.

La metodología propuesta fue utilizada para construir SVM para cinco series que han sido comúnmente utilizadas como benchmark en la comparación de modelos no lineales de predicción. Igualmente, se compararon los resultados aquí obtenidos con los reportados por varios investigadores que pronosticaron las mismas series utilizando modelos ARIMA y perceptrones multicapa. Contrariamente a lo reportado en otras investigaciones [25-26, 28-29] las SVM solo fueron superiores en desempeño respecto a los modelos ARIMA y los MLP, en 3 de 5 casos.

Como trabajo futuro debe investigarse el desempeño de SVM con otras funciones de núcleo, así como también otras metodologías para la especificación de las constantes que controlan el desempeño del modelo.


Figura 2. Predicción para la serie AIRLINE usando el modelo SVM-2 de la Tabla 2.
Fuente: Elaboración propia.


Figura 3. Predicción para la serie POLLUTION usando el modelo SVM-1 de la Tabla 3.
Fuente: Elaboración propia.


Figura 4. Predicción para la serie INTERNET usando el modelo SVM de la Tabla 4.
Fuente: Elaboración propia


Figura 5. Predicción para la serie LYNX usando el modelo SVM-6 de la Tabla 5.
Fuente: Elaboración propia.


Figura 6. Predicción para la serie PAPER usando el modelo SVM-2 de la Tabla 6.
Fuente: Elaboración propia.

REFERENCIAS

[1] H. Tong. "Non-linear time series a dynamical system approach". Claredon Press Oxford. 1990.         [ Links ]

[2] G.E.P. Box and G.M. Jenkins. "Time Series Analysis: Forecasting and Control". Holden–Day Inc. 1970.         [ Links ]

[3] C. Granger and T. Teräsvirta. "Modeling Nonlinear Economic Relationships". Oxford University Press. 1993.         [ Links ]

[4] G. Zhang, B. Patuwo and M. Hu. "Forecasting with artificial neural networks: the state of the art". International Journal of Forecasting. Vol. 14, pp. 35-62. 1998.         [ Links ]

[5] S. Heravi, D. Osborn and C. Birchenhall. "Linear versus neural network forecasts for european industrial production series". International Journal of Forecasting. Vol. 20, pp. 435-446. 2004.         [ Links ]

[6] N. Swanson and H. White. "Forecasting economic time series using adaptive versus nonadaptive and linear versus non-linear econometric models". International Journal of Forecasting, Vol. 13, pp. 439-461. 1997a.         [ Links ]

[7] N. Swanson and H. White. "A model selection approach to real time macroeconomic forecasting using linear models and artificial neural networks". Review of Economics and Statistics. Vol. 39, pp. 540-550. 1997b.         [ Links ]

[8] J. Faraway and C. Chatfield. "Time series forecasting with neural networks: A comparative study using the airline data". Applied Statistics. Vol. 47 Nº 2, pp. 231-250. 1998.         [ Links ]

[9] G. Zhang. "Time Series forecasting using a hybrid ARIMA and neural network model". Neurocomputing. Vol. 50, pp. 159-175. 2003.         [ Links ]

[10] M. Cottrell, B. Girard, Y. Girard, M. Mangeas and C. Muller. "Neural modeling for time series: A statistical stepwise method for weight elimination". IEEE Transactions on Neural Networks. Vol. 6 Nº 6, pp. 1355-1364. 1995.         [ Links ]

[11] C. de Groot and D. Wurtz. "Analysis of univariate time series with connectionist nets: A case study of two classical examples". Neurocomputing. Vol. 3, Issue 4, pp. 177-192. 1991.         [ Links ]

[12] G. Darbellay and M. Slama. "Forecasting the short-term demand for electricity. Do neural networks stand a better chance?". International Journal of Forecasting. Vol. 16, Issue 1, pp. 71-83. 2000.         [ Links ]

[13] C. Kuan and T. Liu. "Forecasting exchange rates using feedforwad and recurrent neural networks". Journal of Applied Econometrics. Vol. 10, pp. 347-364. 1995.         [ Links ]

[14] K. Hornik, M. Stinchcombe and H. White. "Multilayer feedforward networks are universal approximators". Neural Networks. Vol. 2, pp. 359-366. 1989.         [ Links ]

[15] G. Cybenko. "Approximation by superpositions of a sigmoidal function". Mathematics of Control: Signals and Systems. Vol. 2, pp. 202-314. 1989.         [ Links ]

[16] K. Funahashi. "On the approximate realization of continuous mappings by neural networks". Neural Neworks. Vol. 2, pp. 183-192. 1989.         [ Links ]

[17] T. Masters. "Practical Neural Network Recipes in C++". Academic Press, Inc. First edition. 1993.         [ Links ]

[18] T. Masters. "Neural, Novel and Hybrid Algorithms for Time Series Prediction". John Wiley and Sons, Inc. First Edn. 1995.         [ Links ]

[19] I. Kaastra and M. Boyd. "Designing a neural network for forecasting financial and economic series". Neurocomputing. Vol. 10, pp. 215-236. 1996.         [ Links ]

[20] V.N. Vapnik. "The Nature of Statistical Learning Theory". Springer. N.Y. 1995.         [ Links ]

[21] V.N. Vapnik, S.E. Golowich and A.J. Smola. "Support vector method for function approximation, regression estimation, and signal processing". Advances in Neural Information Processing Systems. Vol. 9, pp. 281-287. 1996.         [ Links ]

[22] C.J.C. Burges. "A tutorial on support vector machines for pattern recognition". Data Mining and Knowledge Discovery. Vol. 2 Nº 2, pp. 121-167. 1998.         [ Links ]

[23] A.I. Belousov, S.A. Verzakov and J. Von Frese. "A flexible classification approach with optimal generalisation performance: support vector machines". Chemometrics and Intelligent Laboratory Systems. Vol. 64, pp. 15-25. 2002.         [ Links ]

[24] A.J. Smola and B. Scholkopf. "A tutorial on support vector regression". NeuroCOLT Technical Report NC-TR-98-030. Royal Holloway College, University of London. UK. 1998.         [ Links ]

[25] S. Mukherjee, E. Osuna, and F. Girosi. "Nonlinear prediction of chaotic time series using support vector machines". Proceedings of IEEE NNSP'97. Amelia Island, FL. 1997.         [ Links ]

[26] K.R. Muller, A.J. Smola, G. Rätsch, B. Schölkopf, J. Kohlmorgen, and V. Vapnik. "Predicting time series with support vector machines". In: W. Gerstner, A. Germond, M. Hasler and J.-D. Nicoud (Eds.). Proceedings of ICANN '97. Springer LNCS 1327, pp. 999-1004. Berlin. 1997.         [ Links ]

[27] S. Osowski and K. Garanty. "Forecasting of the daily meteorological pollution using wavelets and support vector machine". Engineering Applications of Artificial Intelligence. Vol. 20, Issue 6, pp. 745-755. September 2007.         [ Links ]

[28] F.E.H Tay and L. Cao. "Application of support vector machines in financial time series forecasting". Omega. Vol. 29 Nº 4, pp. 309–317. 2001.         [ Links ]

[29] U. Thissen, R. Van Brakel, A.P. de Weijer, W.J. Melssen and L.M.C. Buydens. "Using support vector machines for time series prediction". Chemometrics and Intelligent Laboratory Systems. Vol. 69, Issues 1-2, pp. 35-49. 28 November 2003.         [ Links ]

[30] V.N. Vapnik. "Statistical Learning Theory". Wiley. New York, USA. 1998.         [ Links ]

[31] B. Scholkopf and A.J. Smola. "Learning with Kernels". MIT Press. Cambridge, MA. 2002.         [ Links ]

[32] M. Ghiassi, H. Saidane and D.K. Zimbra. "A dynamic artificial neural network model for forecasting time series events". International Journal of Forecasting. Vol. 21, pp. 341-362. 2005.         [ Links ]

[33] S.G. Makridakis, S.C. Wheelwright and R.J. Hyndman. "Forecasting: Methods and applications". John Wiley & Sons. 3rd edition. New York, USA. 1998.         [ Links ]

[34] L. Platt. "Fast training of SVM using sequential optimization". In: B. Scholkopf, B. Burges and A.J. Smola (Eds.), Advances in Kernel Methods-Support Vector Learning. MIT Press, pp. 185-208. Cambridge. 1998.         [ Links ]

[35] S.R. Gunn. "Support vector machines for classification and regression". Technical report, Image speech and intelligent systems research group. University of Southampton. UK. 1997.         [ Links ]

[36] V. Fernández. "Wavelet- and SVM-based forecasts: An analysis of the U.S. metal and materials manufacturing industry". Resources Policy. Vol 32 Nº 1-2, pp. 80-89. March-June 2007.         [ Links ]

[37] P.F. Pai and W.C. Hong. "Forecasting regional electric load based on recurrent support vector machines with genetic algorithms". Electric Power Systems Research. Vol. 74 Nº 3, pp. 417-425. June 2005.         [ Links ]

[38] X. Guo, L. Sun, G. Li and S. Wang. "A hybrid wavelet analysis and support vector machines in forecasting development of manufacturing". Expert Systems with Applications. Vol. 35 N° 1-2, pp. 415-422. July-August 2008.         [ Links ]

[39] A.A. Levis and L.G. Papageorgiou. "Customer Demand Forecasting via Support Vector Regression Analysis". Chemical Engineering Research and Design. Vol. 83, Issue 8, pp. 1009-1018. August 2005.         [ Links ]

[40] P.F. Pai and C.S. Lin. "A hybrid ARIMA and support vector machines model in stock price forecasting". Omega. Vol. 33, Issue 6, pp. 497-505. December 2005.         [ Links ]

[41] K.J. Kim. "Financial time series forecasting using support vector machines". Neurocomputing. Vol. 55 N° 1-2, pp. 307-319. September 2003.         [ Links ]

[42] K.Y. Chen and C.H. Wang. "Support vector regression with genetic algorithms in forecasting tourism demand". Tourism Management. Vol. 28, Issue 1, pp. 215-226. February 2007.        [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons