SciELO - Scientific Electronic Library Online

 
vol.43 número128El Estado de Salud de los Jóvenes UruguayosA Proposal to Obtain a Long Quarterly Chilean GDP Series índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

Compartir


Cuadernos de economía

versión On-line ISSN 0717-6821

Cuad. econ. v.43 n.128 Santiago nov. 2006

http://dx.doi.org/10.4067/S0717-68212006000200002 

 

Cuadernos de Economía, Vol. 43 (Noviembre), pp. 251-284, 2006

 

Modelos de Algoritmos Genéticos y Redes Neuronales en la Predicción de Índices Bursátiles Asiáticos*

 

Antonino Parisi
Universidad de Chile

Franco Parisi
Universidad de Chile

David Díaz
Universidad de Chile


This study analyzes the capacity of multivariated models constructed from genetic algorithms and artificial neural networks to predict the sign of the weekly variations of the Asian stock-market indexes Nikkei225, Hang Seng, Shanghai Composite, Seoul Composite and Taiwan Weighted. The results were compared with those of an ingenuous model or AR(1) and a strategy of buy and hold. The multivariable model from genetic algorithms obtained the best performance in terms of yield corrected by risk, measured by the indexes of Sharpe and Treynor. Although the Ward network obtained a better predictive capacity, this was not reflected in a greater yield corrected by risk. The results were confirmed in the series generated through a bootstrap process. Thus, this study presents evidence that for the Asian market, the genetic models and Ward recursive networks can predict the directional change of the index, along with to generate greater returns than an ingenuous model and a strategy buy and hold. This supports the conclusions of the study of Leung, Daouk and Chen (2000), according to which the prediction of the direction of movement can give greater gains of capital than the forecasts of close values.

Keywords: Genetic Algorithms, Artificial Neural Networks, Forecast Capacity.


Este estudio analiza la capacidad de los modelos construidos a partir de algoritmos genéticos y redes neuronales para predecir el signo de las variaciones semanales de los índices bursátiles Nikkei 225, Hang Seng, Shangai Composite, Seoul Composite y Taiwan Weighted. Se utilizó un modelo multivariado dinámico construido a partir de algoritmos genéticos recursivos y una red neuronal ward. Los resultados fueron comparados con los de un modelo ingenuo o AR(1) y una estrategia buy and hold. El modelo multivariado obtenido a través de algoritmos genéticos obtuvo el mejor desempeño en términos de rentabilidad corregida por riesgo, medida por los índices de Sharpe y Treynor. Si bien la red ward obtuvo una mejor capacidad predictiva, ésta no se vio reflejada en una mayor rentabilidad corregida por riesgo. Los resultados se confirman en las series generadas a través de un proceso bootstrap. De esta manera, se presenta evidencia de que, para el caso asiático, los modelos de algoritmos genéticos y la red ward recursiva pueden predecir el cambio direccional del índice, junto con generar mayores retornos que un modelo ingenuo y una estrategia buy and hold. Lo anterior apoya las conclusiones del estudio de Leung, Daouk y Chen (2000), según el cual la predicción de la dirección del movimiento puede arrojar mayores ganancias de capital que la proyección del valor de cierre.


 

1. Introducción

La aplicación de técnicas de predicción del cambio de signo de los retornos de mercado es un tema de creciente interés por parte de la comunidad financiera, existiendo numerosas evidencias de las bondades de la predicción del signo, en contraste al enfoque tradicional de predicción puntual del nivel de precios. Siguiendo dicha línea de investigación, este estudio presenta una evaluación empírica de tres métodos de proyección para el cambio de signo en índices bursátiles, y se realiza una comparación de las rentabilidades promedio que se obtendrían con una estrategia de inversión activa versus una estrategia pasiva o buy and hold.

Específicamente, en este estudio se analiza la capacidad de los modelos multivariados dinámicos construidos a partir de algoritmos genéticos y de los modelos de redes neuronales para predecir el signo de las variaciones semanales de los índices bursátiles asiáticos: Nikkei225 (N225) de Japón, Hang Seng (HSI) de Hong Kong, Shanghai Composite (SSEC) de China, Seoul Composite (KS11) de Corea del Sur y Taiwan Weighted (TWII) de Taiwán, entre el 4 de agosto de 1997 y el 9 de diciembre de 2002, entendiendo que la predicción de la dirección del movimiento del índice del mercado accionario es relevante para desarrollar estrategias de transacción efectivas, las cuales pueden arrojar mejores resultados que aquéllas basadas en la proyección puntual del nivel de precios (Leung et al., 2000).

La hipótesis de trabajo plantea que predecir el signo de los retornos de los mercados podría generar mejores resultados que los obtenidos por un inversionista pasivo1 debido a dos razones: primero, a que la mayor capacidad predictiva derivada de las técnicas en estudio permitirá que el inversionista tome posiciones en activos más volátiles, de manera de aprovechar la mayor amplitud del ciclo básico de evolución del precio, comprándolos cuando se encuentren en la parte inferior del ciclo y vendiéndolos en la parte superior, obteniendo así una mayor rentabilidad; y segundo, a que posiciones más volátiles no implican necesariamente mayores riesgos, ya que un inversionista que lleve a cabo una estrategia de inversión activa puede liquidar su posición cuando su predicción apunta a una caída futura en los mercados, tomando solamente una parte del riesgo del mismo. En este sentido, la estrategia activa tendría mejores índices riesgo-retorno, como de Treynor o Sharpe, que un inversionista pasivo2 (Brown et al., 1998).

Para el éxito de la estrategia planteada es necesario que se cumplan condiciones adicionales. A saber, no sólo basta contar con capacidad predictiva de activos más volátiles, sino que es necesario que los mercados en que éstos se transan sean líquidos, profundos y con costos de transacción moderados. De acuerdo a lo anterior, buscamos utilizar las técnicas mencionadas en mercados que tengan una alta capitalización, volatilidad y liquidez, de manera de aislar el efecto de la capacidad predictiva en la rentabilidad del inversionista.

La mayoría de los estudios basados en algoritmos genéticos y redes neuronales se han situado en mercados desarrollados como EE.UU. (Bosarge, 1993; Tsibouris y Zeidenberg, 1995; White, 1993), Gran Bretaña (Tsibouris y Zeidenberg, 1995) y Japón (Yoda, 1994). Dichos modelos han sido utilizados para predecir el nivel o el signo de los retornos de índices bursátiles más grandes y estables (Hawley et al., 1990; Refenes, 1995), dejando abierta la posibilidad de que dichos resultados no sean replicables en mercados más volátiles, tales como los de Asia. La creciente importancia de los mercados asiáticos se ve reflejada en cuanto a su capitalización y volatilidad3, como consecuencia del interés cada vez mayor de los inversionistas individuales e institucionales que invierten sus fondos en ellos. De acuerdo a las características expuestas en los Gráficos 1 al 3, creemos que los mercados y el horizonte de tiempo seleccionado permitirán contar con un marco empírico adecuado para conocer el desempeño de las técnicas y estrategias estudiadas, dado que éstos cumplen con las condiciones planteadas en el párrafo anterior: mercados volátiles, líquidos y profundos.

Una parte importante del análisis consistirá en determinar la significancia estadística y económica de la capacidad predictiva de las técnicas de algoritmos genéticos y redes neuronales, destacando el potencial beneficio de usar técnicas de bootstrapping en la modelación. De los resultados encontrados, destaca la capacidad de los modelos para lograr rentabilidades mayores a las alcanzadas por la estrategia pasiva, lo cual se traduce en la relevancia de difundir el uso de dichas herramientas predictivas. Los resultados indican robustamente la conveniencia de usar modelos de algoritmos genéticos y redes neuronales a la hora de tomar decisiones de inversión en índices bursátiles asiáticos, dado que ellos permitirían lograr mejores índices de rentabilidad corregida por riesgo que un modelo ingenuo o una estrategia pasiva.

El documento se divide en cinco secciones: la sección dos presenta una revisión de la literatura relacionada; la sección tres explica la metodología empleada en la investigación; la sección cuatro muestra el análisis de los resultados y, finalmente, la sección cinco presenta las conclusiones.

Los autores han preferido colocar los gráficos y cuadros citados en el texto antes de los anexos que van al final.

2. Marco Teórico

La hipótesis de mercados eficientes (Fama, 1970) plantea que el mercado refleja completa y correctamente toda la información relevante para la determinación de los precios de los activos. Dado que el surgimiento de nueva información es de carácter aleatorio, los cambios registrados por los precios accionarios también lo serían. Esto ha llevado a muchos analistas financieros y académicos a señalar que las fluctuaciones de los precios accionarios siguen un camino aleatorio (random walk), donde el concepto de aleatoriedad se refiere a que las variaciones de precios son generadas a partir de un cierto tipo de proceso estocástico.

Varios estudios han concluido que existe evidencia significativa de que los precios accionarios no siguen un camino aleatorio y muestran que los retornos accionarios son predecibles en algún grado. Por ejemplo, Lo y MacKinlay (1988), empleando datos de EE.UU., Europa Occidental y Japón, para el período comprendido entre 1962 y 1985, registraron una correlación serial positiva entre los retornos semanales para una variedad de índices y portafolios de tamaño medio. Conrad y Kaul (1988) también encontraron evidencia de predictibilidad de los retornos en el corto plazo usando datos semanales y para el mismo período utilizado por Lo y MacKinlay (1988); la metodología usada fue un proceso autorregresivo de primer orden, que permitió las conclusiones ya mencionadas. De Bondt y Thaler (1985), Fama y French (1988), Poterba y Summers (1988) y Chopra et al. (1992) hallaron una correlación serial negativa en los retornos de los activos individuales y varios portfolios sobre intervalos de tres a diez años4. Por su parte, Jegadeesh (1990), ocupando datos de EE.UU., examinó la predictibilidad de los retornos mensuales sobre activos individuales para los años 1934-1987, y encontró una correlación serial negativa de primer orden altamente significativa para rezagos de dos meses, y una correlación serial positiva para rezagos mayores. Blume et al. (1994) presentaron un modelo teórico que sugiere que existe una relación significativa entre los rezagos del volumen transado y los retornos actuales de los activos individuales.

Para explicar la predictibilidad de las variaciones de los retornos accionarios se postulan dos argumentos alternativos: (a) los mercados son ineficientes y los precios de los activos se mueven alrededor de su valor fundamental, y (b) los mercados son eficientes y la predictibilidad de las variaciones puede ser explicada por un equilibrio en los retornos time-varying. Ferson y Harvey (1991) mostraron que la predictibilidad de los retornos accionarios no se debe necesariamente a ineficiencias del mercado o a una sobrerreacción de los inversionistas irracionales, sino que a la predictibilidad que presentan algunas variables agregadas que son parte del set de información que explica la rentabilidad de los activos. Para esto ocuparon un modelo multi-beta tipo APT, para analizar diez portfolios de inversión rankeados por tamaño y otros grupos de activos como bonos gubernamentales de largo plazo. Según Leung et al. (2000), la predicción de los retornos accionarios, dadas las variables agregadas en el set de información de los inversores, es un hecho que es aceptado en la reciente literatura de las finanzas empíricas, y las preguntas apuntan hacia cómo usar la información de una manera óptima para predecir y transar en los mercados.

Sin embargo, Hodgson y Nicholls (1991) sugieren evaluar la significancia económica de predecir la dirección de los cambios en los precios de los activos y no su nivel5. En esta materia, Leung et al. (2000) compararon la capacidad predictiva de los modelos de clasificación6 con los de estimación de nivel7 y concluyeron que los primeros se desempeñan mejor que los segundos en términos de su tasa de acierto (medida por el número de veces en que la dirección pronosticada es correcta) y, además, son capaces de generar beneficios económicos más altos. Wu y Zhang (1997) han sugerido que las estrategias de transacción basadas en la estimación de la dirección del cambio en el nivel de precios son más efectivas y pueden generar beneficios más altos que aquellas basadas en una predicción puntual del nivel de precios de los instrumentos financieros. Los mismos autores investigaron la predictibilidad de la dirección del movimiento en el tipo de cambio spot futuro. O'Connor et al. (1997) apoyan la conveniencia de proyectar la dirección del cambio en el nivel de precios más que el nivel de precios en sí. Esto último resulta relevante para los analistas de mercado y para los traders, ya que apunta a que deben centrar sus esfuerzos en predecir con precisión la dirección de los movimientos en vez de minimizar la desviación de las estimaciones de los valores observados. Este trabajo se sitúa en la literatura financiera en el contexto de la predicción de la dirección de los movimientos de los índices estudiados, escogiéndose, como Parisi et al. (2004), el conteo de aciertos como la forma de evaluar la capacidad predictiva. Para ello se utilizan algoritmos genéticos y redes neuronales, siendo el aporte principal la utilización de la técnica de bootstrapping para la construcción de intervalos de confianza de las proyecciones de signo, y para analizar la robustez de los modelos analizados.

Los algoritmos genéticos son utilizados para encontrar la combinación óptima de variables explicativas para un modelo multivariado tradicional que permita proyectar semanalmente el signo (dirección) de las variaciones experimentadas por los índices en estudio, es decir, que permita predecir si el índice se moverá al alza o a la baja durante la semana siguiente. En términos formales, se utiliza una predicción de signo estática con horizonte de una semana (one step ahead). Por otra parte, las redes neuronales fueron escogidas por su alta capacidad predictiva y de adaptación a los problemas presentados, buscando predecir el signo de la dirección del cambio de los índices analizados en el mismo horizonte de tiempo. El Anexo 1 presenta una descripción detallada de la teoría subyacente a los modelos.

3. Metodología y Datos

Se utilizaron 280 valores de cierre semanales de las variables incluidas en los modelos8, correspondientes al período entre el 4 de agosto de 1997 y el 9 de diciembre de 2002. El Anexo 2 presenta las estadísticas de las series estudiadas.

A. Algoritmo Genético

El objetivo del algoritmo genético es encontrar un modelo multivariado dinámico que maximice el porcentaje de predicción de signo (PPS) de las variaciones semanales de los índices bursátiles asiáticos en estudio. Los modelos multivariados dinámicos utilizados son modelos de series de tiempo que expresan el comportamiento de una variable en función de sus valores rezagados, de rezagos de variables exógenas y de rezagos de los residuos del modelo. Los modelos se basan en un algoritmo genético simple que trabaja con cadenas binarias de largo fijo en representación de las posibles soluciones al problema.

Los modelos multivariados dinámicos usados para predecir el signo de las fluctuaciones semanales de los índices bursátiles N225, HSI, SSEC, KS11 y TWII se presentan a continuación:

Donde εt corresponde al término de error del modelo, DDJI corresponde a la diferencia del Dow Jones Industry y los subíndices AR, MA y X representan el máximo orden de rezagos de las variables independientes. El máximo número de rezagos para los términos AR, MA y X fue 4, por lo que el máximo número de variables para el modelo fue 12. Además, cada variable fue representada con un bit y, por lo tanto, el largo de la cadena binaria resultó ser igual al máximo número de variables del modelo9. De acuerdo a las matemáticas binarias, una cadena de largo "L" permite representar "2L" soluciones posibles. En consecuencia, contamos con un total de 4.096 modelos para predecir la dirección de las fluctuaciones de los índices bursátiles N225, HSI, SSEC, KS11 y TWII, entre los cuales el algoritmo genético realizará la búsqueda de la mejor solución.

Para iniciar el proceso de optimización genética (ver Cuadro 2) el algoritmo generó 100 modelos aleatorios de 12 bits de largo. De acuerdo a Bauer (1994), es importante que la población esté compuesta por un número no tan pequeño de potenciales soluciones, normalmente entre 100 y 200 individuos, de manera de garantizar que sea seleccionado un grupo amplio de individuos representativos de las mejores soluciones. A continuación, el algoritmo procedió a estimar cada uno de los 100 modelos pertenecientes a la primera generación, utilizando para ello un proceso recursivo. El proceso recursivo10 es un proceso iterativo que permite reflejar el hecho de que los agentes irán actualizando el set de información utilizado para realizar proyecciones, ampliándolo a medida que se cuenta con nueva información. En este trabajo el proceso recursivo comienza tomando las primeras 50 semanas de observaciones históricas, y realiza una proyección para la semana 51. En la iteración siguiente, reflejando el hecho de que ha transcurrido una nueva semana y se cuenta con información adicional, se utilizan 51 semanas como datos intramuestrales y se proyecta la variación del índice para la semana 52. El proceso se repite 225 veces, hasta que el conjunto intramuestral corresponde a la totalidad de la muestra en estudio. Así se contará con 225 proyecciones extramuestrales hechas por cada uno de los 100 modelos, los cuales son evaluados en función del PPS alcanzado. Luego los modelos se ordenan de manera descendente, por PPS. A continuación se seleccionan los 30 primeros modelos, correspondientes a los 30 PPS más altos, a los cuales se les llama padres. De estos 30 padres, el 10% superior pasa directamente a la siguiente generación, de manera de asegurar que las mejores soluciones alcanzadas hasta ese momento sobrevivan a través de las generaciones. La combinación de los cromosomas de los 27 padres restantes generan 97 hijos por el método de cruce doble (ver Cuadro 1), con lo cual queda conformada la siguiente generación de 100 modelos (97 hijos más los 3 padres pasados directamente). Se permitió una mutación con una probabilidad de 8,33%, es decir, de manera aleatoria, algunos genes correspondientes a los 100 hijos cambian su posición binaria de 1 a 0 o viceversa. Con esto se permite que el proceso de optimización tenga acceso a potenciales soluciones no cubiertas en la combinación de los padres, pero se hace de manera que su incidencia no sea un factor preponderante, ya que de hacerlo originaría un proceso de evolución aleatorio. Por otra parte, la clonación está implícita en el proceso ya que no se restringió el cruce entre dos modelos iguales. Una vez terminada la nueva generación de modelos, se calculan nuevamente los PPS, continuando con el proceso de selección y generando nuevas descendencias hasta concluir con la generación número 15.

Con respecto a la probabilidad de mutación y al número de generaciones, debemos precisar que en términos generales existe una relación inversa entre estas dos variables, es decir, a medida que aumentamos la probabilidad de mutación disminuye la cantidad de generaciones necesarias para alcanzar el óptimo. Esto porque el aumentar la probabilidad de mutación repercute directamente en la muestra de posibles soluciones a ser probadas por el algoritmo, aumentando también la probabilidad de encontrar el óptimo en menos generaciones. En caso de ocupar una tasa de mutación inferior, sería de esperar que la convergencia al mejor modelo fuera más lenta, por lo que serían necesarias más generaciones. Sin embargo, como se mencionó anteriormente, tasas muy altas de mutación podrían provocar que el proceso de selección se volviera aleatorio, por lo que la tasa usada debe garantizar un proceso evolutivo que mejore las especies a través de las generaciones. Creemos que los parámetros escogidos11 cumplen con lo anterior, dejando abierto el debate con respecto a la combinación óptima de número de generaciones y probabilidad de mutación, así como también el análisis en profundidad de la sensibilidad de la optimización a dichos parámetros. El Gráfico 4 muestra que, por lo general, el algoritmo convergió al modelo óptimo antes de la generación 15 (se encontró siempre antes de la generación 7). Al mismo tiempo, dada la enorme combinatoria y capacidad de cálculo requerida para analizarla, se ha mantenido constante el tamaño inicial del proceso recursivo en 50 datos, centrando la búsqueda sólo en la combinatoria de variables explicativas. Un enfoque más amplio de optimización genética debería tratar de optimizar la búsqueda de variables explicativas y, al mismo tiempo, el tamaño de observaciones óptimas necesarias para un proceso recursivo o rolling, siendo este último un desafío propuesto para nuevas investigaciones.

B. Red Neuronal

En cuanto al modelo de red neuronal, la variable de salida está dada por la variación (o primera diferencia) del índice respectivo en el período "t", mientras que las variables de entrada se refieren a las variaciones rezagadas de los índices bursátiles en estudio y del Dow Jones Industry. La forma funcional de los modelos, para los índices bursátiles N225, HSI, SSEC, KS11 y TWII, se expresa en las siguientes ecuaciones:

La construcción de la red neuronal requiere que la base de datos se divida en dos conjuntos diferentes: (a) conjunto de entrenamiento, porcentaje de datos empleados para que la red aprenda el problema, y (b) conjunto de producción o extramuestral, datos que no han sido incorporados anteriormente, que serán utilizados para probar el rendimiento o la capacidad de predicción de la red ante datos que nunca ha visto. Al igual que en el algoritmo genético, la red fue entrenada a través de un proceso recursivo, el cual comienza con las primeras 50 semanas y realiza una proyección para la semana 51. Así, los primeros 50 datos o semanas corresponderían al conjunto de entrenamiento, mientras que la observación relativa a la semana 51 corresponderá al conjunto de producción o extramuestral. En la iteración siguiente, se utilizan 51 semanas como conjunto de entrenamiento, y se proyecta extramuestralmente la semana 52. El proceso se repite 225 veces añadiendo siempre un dato al conjunto de producción, hasta que su tamaño corresponde a la totalidad de la muestra en estudio. Así, se contarán 225 proyecciones extramuestrales con una semana de anticipación.

Para predecir el signo de las variaciones semanales de los índices asiáticos se utilizó la red ward de tres capas, modelo de red neuronal que usa el algoritmo de aprendizaje supervisado de propagación hacia atrás. El modo de aprendizaje supervisado indica que la variación observada del índice bursátil es usada para supervisar el proceso de entrenamiento12. La utilización de la red ward se basa en su buen desempeño con las series de tiempo, como ha sido evidenciado por Parisi (2002). Este tipo de red se caracteriza porque pueden aplicarse diferentes funciones de activación a los grupos de neuronas (slabs) de la capa oculta, para detectar características distintas en los patrones procesados a través de la red. De esta manera, la capa de salida tendrá diferentes puntos de vista de los datos, lo cual puede conducir a una mejor predicción. El Gráfico 5 resume las características de la arquitectura de la red utilizada.

C. Evaluación de la Capacidad Predictiva y Significancia Estadística de los Modelos

Tanto los modelos generados por algoritmos genéticos como el modelo de redes neuronales fueron estimados a partir de los datos del conjunto intramuestral. Este proceso fue seguido por una evaluación empírica sobre la base de los datos del conjunto extramuestral, el cual se compone de 225 observaciones semanales. Como se mencionó anteriormente, el desempeño relativo de los modelos fue medido por el número de predicciones correctas del signo de la variación del índice. Para ello se comparó el signo de la proyección con el signo de la variación observada en cada i-ésima semana, donde i = 1, 2, …, s, siendo s el número de observaciones del conjunto extramuestral. Si los signos entre la proyección y el observado coinciden, entonces se anota un acierto, aumentando la efectividad del modelo analizado, en caso contrario, el modelo disminuye su capacidad predictiva. Luego, al igual que Kanas (2001), se aplicó el test de acierto direccional de Pesaran y Timmermann (1992), a fin de medir la significancia estadística de la capacidad predictiva de los modelos. No obstante, la sola aplicación del test no permite conocer las características de los momentos de la distribución que sigue dicho estadístico, por lo que podemos estar en presencia de conclusiones sesgadas a las características de la muestra en estudio. Por esta razón, y con el objetivo de evitar el problema anterior13, y de despejar las dudas respecto de si la capacidad predictiva se debe a la bondad del modelo, a las características de la muestra de observaciones sobre la que ha sido aplicado, o simplemente al factor suerte, se utilizó un proceso bootstrap. El bootstrap es un proceso de generación de observaciones ficticias a partir de datos históricos, a fin de contar con suficiente información para elaborar diferentes conjuntos extramuestrales sobre los cuales probar la validez de los modelos y, de esta manera, obtener conclusiones robustas. Específicamente, se realizó un proceso bootstrapping o remuestreo, con el cual se generaron 500 series, de 100 semanas cada una, a partir de la serie histórica original. El bootstrap utilizado fue del tipo por bloques (block-bootstrap), ya que las 500 series fueron construidas a partir de secciones de 4 semanas, escogidas aleatoriamente y con igual probabilidad de selección desde la serie original. Se utilizó el proceso por bloques debido a que estamos trabajando con series de tiempo, en las cuales es necesario mantener aun de manera débil el orden de las series, ya que de lo contrario el proceso de remuestreo formaría series inconexas temporalmente, lo que no tiene sentido en el presente análisis. A continuación se procedió a estimar el PPS del mejor modelo multivariado obtenido desde el proceso de optimización genética, así como de la red neuronal, en cada una de las 500 series bootstrap.

Adicionalmente, los resultados del mejor modelo multivariado dinámico y de la red neuronal de cada uno de los índices bursátiles analizados fueron comparados con los de un modelo ingenuo o AR(1), cuya estructura se presenta en la siguiente ecuación:

donde Δ indica primera diferencia, εt representa el término de error en el momento "t", y α0 y α1 son los coeficientes del modelo. Esta comparación adicional se realizó para probar empíricamente la hipótesis planteada en la introducción, permitiéndonos medir la eficacia de una estrategia activa, la cual es representada por las técnicas de algoritmo genético y redes neuronales, y la eficacia de una estrategia pasiva, representada por el modelo ingenuo y la estrategia de buy and hold. Sin embargo, y de acuerdo a Sharda (1994), es necesario ser cuidadosos al realizar tal comparación ya que, por definición, un modelo ingenuo no utiliza ningún tipo de recomposición de la muestra utilizada en las estimaciones, al contrario del proceso recursivo planteado aquí o a la división de la muestra en subconjuntos, como lo requieren las redes neuronales. Así, dicha comparación está sujeta a una muestra sesgada, ya que el modelo ingenuo utilizará la totalidad de la muestra de tamaño "n" para medir su capacidad predictiva, mientras que el proceso recursivo utilizará "s" observaciones para hacerlo, donde "s" es igual a "n_k" donde "k" es el número de observaciones perteneciente al subconjunto intramuestral o de entrenamiento14. Para solucionar dicho problema el modelo ingenuo utilizará las primeras 50 observaciones para estimar los parámetros, y las restantes 50 (de las 100 observaciones de cada serie bootstrap) para medir su capacidad predictiva, garantizado que el tamaño extramuestral sea igual al del algoritmo genético y la red neuronal.

También se calculó la rentabilidad de seguir las recomendaciones de compra (cuando el valor proyectado para el futuro cercano indicaba un alza en el precio) y venta (en el caso contrario) de los modelos analizados. El cálculo de las rentabilidades de las técnicas consideró un monto de inversión inicial de US$ 10.000, valorándose la estrategia como el valor total de la cartera, es decir, la suma de la posición en el índice, más el dinero en efectivo con el que se contaba. Las señales de compra fueron ejecutadas en la medida que la cartera contaba con dinero en efectivo al momento de la señal, y las recomendaciones de venta fueron ejecutadas en la medida que se contaba con unidades del índice respectivo. No se consideraron ventas cortas, costos de transacción ni de almacenaje.

Finalmente, contando con la rentabilidad promedio anual de cada técnica y con la desviación estándar de ésta, fue posible estimar los índices de Sharpe y Treynor, los cuales permitirán comparar el desempeño de los modelos en el contexto de la teoría moderna de portfolios, ajustando las rentabilidades logradas por los niveles de riesgo asociados a cada técnica.

4. Resultados

Los mejores modelos multivariables dinámicos, obtenidos a través del algoritmo genético (AG) para cada uno de los índices en estudio, presentan la siguiente forma funcional:

El Cuadro 3 muestra que los mejores modelos producidos por el algoritmo genético arrojaron un PPS de 60,0%, 60,4%, 57,8%, 59,6%, y 62.6%, para los índices Nikkei225, HSI, SSEC, TWII y KS11, respectivamente. Esta capacidad predictiva, estimada sobre un conjunto extramuestral de 225 datos semanales, resultó significativa al 5% en cada uno de los índices, de acuerdo al test de acierto direccional. Comparativamente, la capacidad predictiva de la red ward de tres capas resultó ser significativa sólo en dos de los cinco índices analizados: SSEC y KS11. Por su parte, los modelos ingenuos AR(1), cuyas tablas de resultados son entregadas en el Anexo 4, no resultaron ser significativos.

A continuación se calculó la rentabilidad promedio anual (RPA) que hubiera logrado un inversionista de haber seguido las recomendaciones de compra/venta de estos modelos, asumiendo una inversión inicial de US$ 10.000. Los resultados muestran que la mayor capacidad predictiva del modelo de algoritmos genéticos se materializa en una RPA, para cada índice, de: (_8,39%) N225, (6,42%) HSI, (_4,58%) SSEC, (0,04%) TWII y (26,35%) KS11. Por su parte, la red ward registró una RPA mayor en cada uno de los índices y superó ampliamente al modelo AR(1). Así, los resultados destacan a la red ward como el mejor modelo, seguido por los algoritmos genéticos, el modelo ingenuo AR(1) y la estrategia buy and hold.

Luego se analizó la robustez de los resultados a través de un procedimiento de bootstrapping. Después de aplicar estos modelos en las 500 series bootstrap, se obtuvieron PPS promedio similares a los de la etapa anterior (ver Cuadro 4), excepto en el índice TWII, en el cual el modelo de algoritmos genéticos superó a las otras técnicas. Con respecto a la significancia estadística de los PPS, el modelo de algoritmos genéticos (en todos los índices) resulta tener el mayor número de períodos significativos (considerando las 500 series analizadas), seguido por la red ward y el modelo ingenuo. El Anexo 5 contiene las estadísticas descriptivas del PPS alcanzado con la técnica de algoritmo genético en el proceso de bootstrapping en los cinco índices analizados. En él se puede apreciar que las distribuciones poseen características de asimetría hacia la derecha, concentrándose una gran cantidad de escenarios en el rango en que el PPS es de 55% o más. Esto refleja que aun frente a escenarios distintos, generados aleatoriamente, los modelos multivariados construidos a través del algoritmo genético son capaces de obtener capacidades predictivas relativamente altas. Si bien existe una evidente diferencia en términos de la media del PPS alcanzado durante el bootstrap versus los resultados para el período en estudio, ésta es producto del proceso de remuestreo por bloques elegidos, ya que arbitrariamente se tomaron bloques de cuatro semanas.

En cuanto a la RPA, en cuatro de los cinco índices el algoritmo genético superó el desempeño de las redes neuronales, en contraste con lo expuesto en la primera parte de esta sección. Al ajustar la RPA por el nivel de riesgo asociado a cada técnica, el algoritmo genético supera ampliamente el desempeño de las demás técnicas, obteniendo los mejores indicadores de Sharpe y Treynor en cada uno de los índices. Las estrategias pasivas e ingenuas, respectivamente, fueron las que obtuvieron los peores desempeños, siendo superadas por los algoritmos genéticos y la red neuronal, tanto en PPS, como en RPA e índices de riesgo-retorno15.

Los resultados apuntan a que los modelos multivariados obtenidos con los algoritmos genéticos son más robustos y permitirían obtener mejores índices de rentabilidades corregidas por riesgo que las redes neuronales. El cambio en el orden de preferencias se debería a que los resultados iniciales (expuestos en la primera parte de esta sección) estarían siendo afectados por las características temporales de la muestra en estudio, estando posiblemente frente a un problema de sobreajuste de los datos16, el que pudo ser aislado a través de un proceso bootstrap.

5. Conclusiones

Los resultados muestran que el modelo de algoritmos genéticos obtuvo el mejor desempeño en términos de índices de riesgo-retorno, y la mayor RPA en cuatro de los cinco índices analizados. No obstante, dicho modelo fue superado por la red neuronal en términos de capacidad de predicción del signo de las variaciones de los índices.

Los resultados apuntan a la conveniencia de realizar estrategias activas de transacción en los índices estudiados que modelen el cambio de signo esperado de los activos, ya sea con técnicas como algoritmos genéticos o redes neuronales, ya que las estrategias alternativas de inversión, como la modelación ingenua o la estrategia pasiva, no fueron capaces de generar buenos resultados, tanto en términos estadísticos como económicos. Al mismo tiempo, los resultados confirman la importancia de medir no sólo la capacidad predictiva y la rentabilidad acumulada para los activos en el período estudiado, sino que también la posibilidad de equivocarse al determinar las preferencias entre una y otra técnica, dadas las características puntuales de los datos, siendo de gran importancia desarrollar procesos para medir la robustez de los resultados como el bootstrapping.

Finalmente, se pudo mostrar que la mayor capacidad predictiva permitió mayores retornos ajustados por riesgo, incluso en los índices más volátiles, mostrándose que el empleo de algoritmos genéticos podría orientar la conformación de portfolios de inversión y la forma en que éstos podrían ser estructurados, a fin de aprovechar las alzas pronosticadas para el mercado y cubrirse ante las bajas de éste, dadas las expectativas de eventos futuros y la relación riesgo-retorno que se espera obtener.

Notas

*Los autores desean agradecer a un árbitro anónimo, a los profesores Jorge Gregoire, Edinson Cornejo y a Rodrigo Jarpa por sus valiosos comentarios.
E-mail: antonino@parisinet.com, aparisi@unegocios.cl, david@parisinet.com

1Esta estrategia pasiva consiste en comprar el activo al inicio del período en cuestión y mantenerlo hasta el final del mismo período. En la literatura esta estrategia se conoce como buy and hold.

2Por ejemplo, si midiéramos de manera hipotética el riesgo marginal asumido por un inversionista completamente diversificado al comprar un índice de mercado, éste dependería del tipo de estrategia que siga el inversionista: si el inversionista realiza una estrategia pasiva, sin capacidad predictiva alguna, el riesgo marginal asumido correspondería a Beta = 1,0, debido a que durante el horizonte de inversión deberá mantener en su cartera el activo en cuestión, independiente de si el activo aumenta de valor o si lo pierde, asumiendo, por tanto, la totalidad de la volatilidad del mismo; en cambio, un inversionista que realiza estrategia activa, con 100% de capacidad predictiva de la dirección del índice, asumiría un riesgo marginal menor, por ejemplo, correspondiente a Beta = 0,5, debido a que podrá reaccionar vendiendo su posición con anticipación si conoce que el índice irá a la baja y recomprándola cuando sepa que irá al alza. De esta forma, en la estrategia activa el inversionista sólo asumiría la volatilidad del activo cuando su predicción le indique que éste se moverá al alza obteniendo un timming o capacidad de reacción perfecta.

3Para entender la magnitud de las altas volatilidades, basta observar el Gráfico 1. Aquí vemos que las bolsas obtienen grandes aumentos en su nivel de capitalización durante los años 1999 y 2003, mientras que durante el año 2000 y el 2002 este mismo nivel decae fuertemente.

4De Bondt y Thaler (1985) ocuparon retornos mensuales de las acciones comunes del NYSE y calcularon el Retorno Anormal Acumulado (CAR, por sus siglas en inglés) como medida de sobrerreacción del mercado, para el período comprendido entre enero de 1926 y diciembre de 1982. Fama y French (1988) ampliaron la muestra usada por los autores anteriores hasta el año 1985, en busca de los principales componentes de los precios accionarios. Por su parte, Poterba y Summers (1988) usaron datos de EE.UU. (1871-1986) y otros 17 países (1957-1985) para testear la razón entre una varianza mensual y la anual, en busca de autocorrelación. Por último, Chopra et al. (1992) ocuparon datos mensuales del NYSE (1926-1986) y la metodología RATS de Ibbotson (1975).

5Los autores ocuparon datos diarios del mercado accionario australiano.

6Análisis discriminante lineal, modelo logit, modelo probit y red neuronal probabilística.

7Suavizamiento exponencial adaptativo, vector autorregresivo con filtro de Kalman, función de transferencia multivariada y red neuronal multicapas de retroalimentación hacia atrás.

8Dado que se emplearon cuatro rezagos de las variables explicativas en primera diferencia, el tamaño del conjunto final fue de 275 semanas.

9El primer bit de la cadena representará al índice, en primera diferencia y rezagado un período; el bit 2 representará al rezago 2; el bit 5 representará al residuo del modelo rezagado un periodo; el bit 8 representará al cuarto rezago del residuo; el siguiente bit representará el primer rezago del Dow Jones Industry (DJI) en primera diferencia; y, finalmente, el último bit representará al cuarto rezago. Cada bit puede tomar el valor de 0 o 1: cuando tome el valor de 0, la variable que representa no será incluida en el modelo, mientras que cuando tome el valor de 1, la variable representada sí formará parte del modelo. Una vez realizada la codificación de los modelos, se comenzó a trabajar con el algoritmo genético. La primera generación de modelos (o población inicial), de un tamaño de 100, se obtuvo aleatoriamente desde el rango de interés.

10El Anexo 3 presenta una descripción formal y gráfica del proceso de estimación recursivo.

11Población inicial de 100 modelos, 15 generaciones, y tasa de mutación de 8,33%.

12En una red neural hay pares de inputs y outputs que son usados para entrenar la red. Puede haber múltiples inputs (variables explicativas) y múltiples outputs (proyecciones de diferentes variables). Entre los inputs y los outputs hay una capa (o múltiples capas) de procesamiento que imitan el trabajo del cerebro humano. Luego, dado un nuevo conjunto de inputs, la red puede producir un nuevo output (proyección) sobre la base de lo que aprendió de los pares de inputs y outputs que le fueron provistos. El analista puede controlar algunos aspectos del proceso, tales como la tasa de aprendizaje y la precisión deseada del output (Wilson y Keating, 1998). De este modo, la Red aprende un conjunto predefinido de pares de entradas y salidas dadas como ejemplos, empleando un ciclo propagación-adaptación de dos fases: una vez que se han aplicado los datos de entrada a la primera capa de unidades de la Red, ésta se va propagando a través de todas las capas superiores hasta generar una salida, la cual se compara con la salida deseada para estimar el error asociado a la predicción. El error se transmite hacia atrás, desde la capa de salida hacia todas las capas intermedias que contribuyan directamente a ella. Sin embargo, las unidades de la capa intermedia sólo reciben una fracción del error total, basándose en la contribución relativa de la unidad a la salida original. Este proceso se repite, capa por capa. Luego, basándose en el error, se actualizan los pesos de conexión de cada unidad con el objeto de ajustar el modelo y disminuir el error final. Así, a medida que se entrena la Red, las neuronas de las capas intermedias se organizan a sí mismas de tal modo que ellas aprenden a reconocer distintas características del conjunto de entrenamiento, aproximándose de esta manera al pensamiento y al comportamiento de los agentes, en nuestro caso, del mercado bursátil.

13 Este problema es conocido como data snooping.

14Ver Anexo 3.

15Si bien se escogió el conteo de aciertos o PPS como la manera de seleccionar los mejores modelos, también se calcularon para cada una de las técnicas los siguientes estadísticos: R-cuadrado, R-cuadrado Ajustado, Función de Verosimilitud, Akaike Info Criteria y Schwarz Info Criteria y Estadístico F de significancia conjunta, los que se encuentran disponibles por medio de solicitarlos a los autores. Los resultados arrojados por dichos estadísticos son concordantes con los resultados presentados.

16Es decir, data snooping.

17Versus un 11,1% de las restantes cinco bolsas.

18 Para las bolsas asiáticas el promedio es de 4,9%, mientras que para el resto es de _1,5% (1997-2003).

19Al momento de aplicar un modelo de algoritmos genéticos, se debe identificar correctamente el problema de maximización o minimización a tratar. Si el problema en cuestión no es de ese tipo, se deberá buscar otro método para abordarlo.

20Cuentan con una gran cantidad de neuronas o procesadores elementales (PEs), cada uno de los cuales trabaja paralelamente con una pequeña parte de un problema mayor.

21Cuentan con muchas neuronas a través de las cuales distribuyen su memoria

22Tienen la capacidad de adaptarse al entorno modificando sus pesos y sinapsis de manera de encontrar una solución aceptable al problema.

Referencias

Allen, F. y Karjalainen, R. (1999). Using genetic algorithms to find technical trading rules. Journal of Financial Economics 51, pp. 245-271.         [ Links ]

Bauer, J. (1994). Genetic Algorithms and Investment Strategies. John Wiley y Sons, Inc.         [ Links ]

Blume, L., Easley D. y O'Hara, M. (1994). Market statistics and technical analysis: The role of volume. Journal of Finance 49, issue 1, pp. 153-181.         [ Links ]

Bosarge, W.E. (1993). Adaptive processes to exploit the nonlinear structure of financial markets. In R.R. Trippi y E. Turban (eds.), Neural networks in finance and investing. New York, Irwin, pp. 371-402.         [ Links ]

Brown, S., Goetzmann, W., Kumar, A. (1998). The Dow Theory: William Peter Hamilton´s Track Record Reconsidered. The Journal of Finance 53, issue 4, pp. 1311-1333.         [ Links ]

Chopra, N., Lakonishok J. y Ritter J. R. (1992). Measuring abnormal returns: Do stocks overreact? Journal of Financial Economics 31, 235-268.         [ Links ]

Conrad J. y Kaul G. (1988). Time-variation in expected returns. Journal of Business 61, 409-425.         [ Links ]

Conrad J. y Kaul G. (1989). Mean reversion in short-horizon expected returns. Review of Financial Studies 2, 225-240.         [ Links ]

Dasgupta, C. G., Dispensa, G. S. y Ghose, S. (1994). Comparing the predictive performance of a neural network model with some traditional market response models. International Journal of Forecasting (10) 2, pp. 235-244.         [ Links ]

Davis, L. (1994). Genetic Algorithm and Financial Applications, in: Deboeck (ed. 1994), pp. 133, 137.         [ Links ]

De Bondt, W. F. M. y Thaler R. (1985). Does the stock market overreact? Journal of Finance 40, 793-805.         [ Links ]

Estrella, A. y Mishkin, F. S. (1998). Predicting US recessions: Financial variables as leading indicators. The Review of Economics and Statistics 80 (1), pp. 45-61.         [ Links ]

Fama, Eugene (1970). Efficient capital markets: A review of theory and empirical work. Journal of Finance 25, pp. 383-417.         [ Links ]

Fama, E. y French K. R. (1988). Permanent and temporary components of stock prices. Journal of Political Economy 98, 247-273.         [ Links ]

Feldman, K. y Treleaven, P. (1994). Intelligent systems in finance. Appl. Mathematical Finance 1, pp. 195-207, Chapman y Hall, London, UK.         [ Links ]

Ferson, W. y Harvey, C. (1991). The variation of economic risk premiums. Journal of Political Economy 99, pp. 385-415.         [ Links ]

Freeman, J. y Skapura, D. (1993). Redes neuronales: Algoritmos, aplicaciones y técnicas de programación. Primera Edición. Copublicación de Addison-Wesley Iberoamericana, S.A. y Ediciones Díaz de Santos, S.A. Wilmington, Delaware, USA, 431 pp.         [ Links ]

Goldberg, D. E. (1989). Genetic Algorithms in Search, Optimization, and Machine Learning. Addison-Wesley, Reading, Mass.         [ Links ]

Gorr, W. (1994). Research prospective on neural network forecasting. International Journal of Forecasting (10)1, pp. 1-4.         [ Links ]

Hawley, D., Johnson, J. y Raina, D. (1990). Artificial neural systems: A new tool for financial decision-making. Financial Analysts Journal 23, pp. 63-72.         [ Links ]

Herbrich, R., Keilbach, M., Graepel, T., Bollmann-Sdorra, P. y Obermayer K. (2000). "Neural networks in economics: Background, applications and new developments". In: T. Brenner, editor, Advances in Computational Economics: Computational Techniques for Modelling Learning in Economics, volume 11, pages 169-196. Kluwer Academics.         [ Links ]

Hill, T., Marquez, L., O'Connor, M. y Remus, W. (1994). Artificial neural network models for forecasting and decision making. International Journal of Forecasting (10) 1, pp. 5-15.         [ Links ]

Hodgson, A. y Nicholls, D. (1991). The impact of index futures markets on Australian share market volatility. Journal of Business Finance and Accounting 18, pp. 267-280.         [ Links ]

Hornik, K., Stinchcombe M. y White H. (1989). Multilayer feedforward networks are universal approximators. Neural Networks, 2 (5), pp. 359-366.         [ Links ]

Jegadeesh, N. (1990). Evidence of predictable behavior of security returns. The Journal of Finance, Vol. 45 (3), July, pp. 881-898.         [ Links ]

Kanas, A. (2001). "Neural networks linear forecasts for stocks returns". International Journal of Finance and Economics, 6, pp. 245-254.         [ Links ]

Kim, K. y Han, I. (2000). "Genetic algorithms approach to feature discretization in artificial neural networks for the prediction of stock price index". Expert Systems with Applications, Vol. 19, Nº 2, Agosto, pp. 125-132.         [ Links ]

Kuo, C. y Reitsch A. (Winter 1995-96). "Neural networks vs. conventional methods of forecasting", Journal of Business Forecasting 14 (4), pp. 17-22.         [ Links ]

Leung T., Daouk H., Chen An-Sing (2000). "Forecasting stock indices: a comparison of classification and level estimation models". International Journal of Forecasting (16) 2, pp. 173-190.         [ Links ]

Lo, A. y MacKinley A. C. (1988). Stock market price do not follow random walk: Evidence from a simple specification test. Review of Financial Studies 1, pp. 41-66.         [ Links ]

Martín del Brío, B. y Sanz, A. (1997). Redes neuronales y sistemas borrosos: Introducción, teórica y práctica. Primera Edición. Ra - ma. 387 pp.         [ Links ]

O'Connor, M., Remus, W. y Griggs, K. (1997). Going up-going down: How good are people al forecasting trends and changes in trends? Journal of Forecasting 16, pp. 165-176.         [ Links ]

Odom M. D. y Sharda, R. (1990). A neural network model for bankruptcy prediction. Proceedings of the IEEE International Conference on Neural Networks, San Diego II, pp. 163-168.         [ Links ]

Parisi, A. (2002). Evaluación de modelos de Redes neuronales de predicción del signo de la variación del IPSA. Estudios de Administración, Vol. 9, Nº 1, pp. 67- 103. Chile.         [ Links ]

Parisi, A., F. Parisi y E. Cornejo (2004). Algoritmos genéticos y modelos multivariados recursivos en la predicción de índices bursátiles de América del Norte: IPC, TSE, Nasdaq y DJI. El Trimestre Económico, Nº 284, Vol. LXXI (4), pp. 789-809. México.         [ Links ]

Pereira, R. (1996). Selecting parameters for technical trading rules using genetic algorithm. Journal of Applied Finance and Investment 1, issue 3, pp. 27-34.         [ Links ]

Pesaran, M.H. y Timmermann A. (1992). A simple nonparametric test of predictive performance. Journal of Business and Economic Statistics 10, pp. 461-465.         [ Links ]

Poterba, J. M. y Summers L. H. (1988). Mean reversion in stock prices: Evidence and implications. Journal of Financial Economics 22, 27-59.         [ Links ]

Qi, Min (2001). Predicting US recessions with leading indicators via neural network models. International Journal of Forecasting (17)3, pp. 383-401.         [ Links ]

Rahimian E., Singh S., Thammachote T. y Virmani R. (1993). Bankruptcy prediction by neural network. In: R. R. Trippi y E. Turban (eds.): Neural networks in finance and investing. Probus Publishing, pp. 159-171.         [ Links ]

Refenes, A. P. (1995). Neural networks in the capital markets, Wiley, New York.         [ Links ]

Rumelhart, D., Hinton, G. y Williams, J. (1986). Learning representations by back-propagating errors. Nature, 323 (Oct. 9), pp. 533-536.         [ Links ]

Sharda, R. (1994). Neural networks for the MS/OR analysis: An application bibliography. Interfaces, 24, pp. 116-130.         [ Links ]

Tsibouris, G. y Zeidenberg, M. (1995). Testing the efficient markets hypothesis with gradient descent algorithms. In A.P. Refenes (ed.). Neural networks in the capital markets. Chichester, UK, Wiley, pp. 127-136.         [ Links ]

White, H. (1993). Economic prediction using neural networks: the case of IBM daily stock returns. In R.R. Trippi y E. Turban (eds.). Neural networks in finance and investing. New York, Irwin, pp. 315-328.         [ Links ]

Widrow, B., Rumelhart, D.E. y Lehr, M.A. (1994). Neural networks: Applications in industry, business and science. Communications of the ACM, 37, 3 (March), 93-105.         [ Links ]

Wilson, J. H. y Keating, B. (1998). Business Forecasting. Third Edition, U.Irwin/McGraw-Hill, U.S.A.         [ Links ]

Wu, Y. y Zhang, H. (1997). Forward premiums as unbiased predictors of future currency depreciation: A non-parametric analysis. Journal of International Money and Finance 16, pp. 609-623.         [ Links ]

Yoda, M. (1994). Predicting the Tokyo stock market. In G.J. Deboeck (ed.), Trading on the edge: Neural, genetic, and the fuzzy systems for chaotic financial markets. New York, Wiley, pp. 66-67.         [ Links ]

 

Gráficos, Cuadros y Tablas

En el Gráfico 1 se aprecia que para el período 1997-2002 las cinco bolsas estudiadas tuvieron un crecimiento promedio superior a las demás bolsas (promedio de crecimiento del 16.5% anual)17, sobresaliendo el de Corea, Hong Kong, Tokio y Taiwán durante el año 1999.

Otro punto sensible para el análisis, dado que nos permite apreciar la profundidad del mercado, es el número de compañías listadas. En los Gráficos 2 y 3 se puede observar que las bolsas asiáticas analizadas obtienen un crecimiento promedio anual del número de compañías listadas mayor que el resto de las bolsas no asiáticas18. Aquí es incluso más marcada la superioridad de los mercados analizados por sobre el resto, destacándose las bolsas de Hong Kong y Taiwán.








Anexo 1

A. Algoritmos Genéticos

Los algoritmos genéticos consisten en una función matemática o una rutina que simula el proceso evolutivo de las especies, teniendo como objetivo encontrar soluciones a problemas específicos de maximización o minimización19. Otra definición es la entregada por Goldberg (1989), "algoritmo de búsqueda basado en la mecánica de la selección natural y de la genética natural. Combina la supervivencia del más apto entre estructuras de secuencia con un intercambio de información estructurado, aunque aleatorizado, para construir así un algoritmo de búsqueda que tenga algo de las genialidades de las búsquedas humanas". Así, un algoritmo genético recibe como entrada una generación de posibles soluciones para el problema en cuestión, y arroja como salida los especímenes más aptos por generación (es decir, las mejores soluciones), para que estos se reproduzcan y generen mejores descendientes, los que a su vez deberían tener características superiores que las generaciones pasadas.

Los algoritmos genéticos trabajan con códigos que representan las posibles soluciones al problema. Por ello, es necesario establecer una codificación para todo el rango de posibles soluciones antes de comenzar a trabajar con el algoritmo. Al respecto, Davis (1994) señala que la codificación más utilizada es la representación de las soluciones por medio de cadenas binarias (conjuntos de ceros y unos).

Según Bauer (1994), este método puede ser utilizado fácilmente en aplicaciones financieras. Davis (1994) muestra una aplicación de algoritmos genéticos en la calificación de créditos bancarios, resultando mejor que otros métodos como las redes neuronales, debido a la transparencia de los resultados obtenidos. Bauer (1994) utilizó algoritmos genéticos para desarrollar técnicas de transacción que indicaran la asignación mensual de montos de inversión en dólares y marcos; Pereira (1996) los utilizó para encontrar los valores óptimos de los parámetros usados por tres reglas de transacción distintas para el tipo de cambio dólar americano/dólar australiano: los parámetros obtenidos mostraron resultados intramuestrales positivos, los cuales disminuyeron al aplicar las reglas fuera de la muestra, aun cuando siguieron siendo rentables. Allen y Karjalainen (1999) usaron algoritmos genéticos para aprender reglas de transacción para el índice SyP 500 y emplearlas como un criterio de análisis técnico y, una vez cubiertos los costos de transacción, encontraron que el exceso de retorno calculado sobre una estrategia Buy and Hold, durante el período de prueba extramuestral, no era consistente. No obstante, y a diferencia de Allen y Karjalainen, en este estudio se analiza la capacidad de los modelos construidos por medio de algoritmos genéticos para proyectar el signo de las variaciones semanales de los índices bursátiles asiáticos N225, HSI, SSEC, KS11 y TWII; luego, en función de estas proyecciones, desarrollar estrategias de transacción. Kim y Han (2000), mostraron que los algoritmos genéticos pueden ser usados para reducir la complejidad y eliminar factores irrelevantes, lo que resultó mejor que los métodos convencionales para predecir un índice de precios.

Por otra parte, Feldman y Treleaven (1994) señalaron que la mayor desventaja de los algoritmos genéticos es la dificultad que presentan para escoger una técnica de codificación manejable, y para determinar el tipo de selección y las probabilidades de los operadores genéticos, ya que no hay reglas fijas en esta materia.

B. Redes Neuronales

De acuerdo a Martín del Brío y Sanz (1997), las redes neuronales artificiales (R.N.A.) "son sistemas de procesamiento que copian esquemáticamente la estructura neuronal del cerebro para tratar de reproducir sus capacidades". En consecuencia, son una clase de modelos no lineales flexibles que se caracterizan por ser sistemas paralelos20, distribuidos21 y adaptativos22, todo lo cual se traduce en un mejor rendimiento y en una mayor velocidad de procesamiento.

Las neuronas de la red o procesadores elementales (PEs) son dispositivos simples de cálculo que, a partir de un vector de entrada procedente del exterior o de otras neuronas, proporciona una única respuesta o salida, la que se puede conectar a otros PEs de la red. Los PEs se agrupan formando capas, las que, a su vez, conforman las llamadas redes neuronales (Freeman y Skapura, 1993). Los componentes de una red neuronal son: (a) unidades de entrada, las cuales reciben información proveniente de otras neuronas o desde el exterior, para luego traspasarla a la capa siguiente sin realizar procesamiento alguno; (b) unidades de salida, las cuales corresponden al resultado de la red neuronal; y (c) unidades ocultas, que son aquellas en donde se lleva a cabo el procesamiento de los datos. Luego, el problema se centra en determinar los parámetros adecuados de las redes neuronales que contengan la combinación correcta de elementos de procesamiento, tasas de aprendizaje, arquitectura y número de capas con tiempos de entrenamientos aceptables y que posean un buen rendimiento.

Las redes neuronales pueden entenderse como modelos multiecuacionales o multietapas, en que el output de unas constituye el input de otras. En el caso de las redes multicapas, existen etapas en las cuales las ecuaciones operan en forma paralela. Los modelos de redes neuronales, al igual que, por ejemplo, los modelos de suavizamiento exponencial y de análisis de regresión, utilizan inputs para generar un output en la forma de una proyección. La diferencia radica en que las redes neuronales incorporan inteligencia artificial en el proceso que conecta los inputs con los outputs (Kuo y Reitsch, invierno 1995-96).

Por su parte, Herbrich et al. (2000) señalan que la característica más importante de las redes neuronales es su capacidad para aprender dependencias basadas en un número finito de observaciones, donde el término aprendizaje significa que el conocimiento adquirido a partir de las muestras puede ser empleado para proporcionar una respuesta correcta ante datos no utilizados en el entrenamiento de la red. La literatura sugiere que las redes neuronales poseen varias ventajas potenciales sobre los métodos estadísticos tradicionales, destacándose el que éstas pueden ser aproximadoras de funciones universales aún para funciones no lineales (Hornik et al., 1989), lo que significa que ellas pueden aproximar automáticamente cualquier forma funcional (lineal o no lineal), que mejor caracterice los datos, permitiéndole a la red extraer más señales a partir de formas funcionales subyacentes complejas (Hill et al., 1994). Cabe señalar que algunos investigadores han encontrado que, en general, los mercados financieros se comportan de una forma no lineal (Bosarge, 1993), cuestión que ha favorecido el empleo de modelos de redes neuronales.

Cabe destacar que el propósito de un modelo de predicción es capturar patrones de comportamiento en datos multivariados que distingan varios resultados, cosa que es bien realizada por los modelos no paramétricos de redes neuronales (Gorr, 1994), los cuales han sido desarrollados para predecir valores de índices bursátiles y de activos individuales, situándose la mayoría de las primeras investigaciones y aplicaciones en mercados establecidos en EE.UU. (Bosarge, 1993; Tsibouris y Zeidenberg, 1995; White, 1993), Gran Bretaña (Tsibouris y Zeidenberg, 1995) y Japón (Yoda, 1994). Dichos modelos han sido empleados para predecir el nivel o el signo de los retornos de índices bursátiles, entre otras aplicaciones relacionadas a la toma de decisiones en las áreas de finanzas e inversión (Hawley et al., 1995; Refenes, 1995).


Anexo 3

Funcionamiento Rolling y Recursivo en modelos de prediccion

3.1. Funcionamiento Recursivo

Esta metodología ha sido empleada anteriormente para medir el desempeño de modelos de redes neuronales que buscan predecir períodos de recesión en los Estados Unidos (Qi, 2001; Estrella y Mishkin, 1998) y para proyectar el signo de la variación de índices bursátiles internacionales (Parisi et al., 2003). El funcionamiento recursivo consiste en agregar, mediante un algoritmo iterativo, nueva información a la ya estudiada por el modelo de predicción. Desde el punto de vista financiero, esto nos permite reflejar que es necesario que los agentes ajusten sus expectativas frente a la nueva información obtenida, pero sin dejar de considerar la totalidad de la información pasada, pues si razonan utilizando toda la información disponible sus predicciones serán más completas y, por lo tanto, probablemente más acertadas. De esta forma, si consideramos que inicialmente el conjunto extramuestral tiene "m_n" datos, al evaluar el funcionamiento del modelo de predicción se consideró sólo la proyección del valor inmediatamente cercano al último dato intramuestral. Posteriormente, el dato analizado sale del conjunto extramuestral (quedando éste con "m_n_1" datos) y pasa a formar parte del conjunto intramuestral, por lo que la muestra de "n" datos que contiene los valores de entrada se incrementa a "n+1". Luego se realizó una nueva iteración, lo que implicó reestimar los pesos del modelo para cada una de las "m_n" proyecciones. Este proceso se repitió hasta que en el conjunto extramuestral quedó sólo un dato, es decir, hasta el momento en que la última observación (correspondiente al período "m_1") es utilizada para proyectar el valor que la variable de salida podría alcanzar en el momento "m", el cual representa el futuro inmediato. En la página siguiente se presenta un esquema del proceso recursivo.

3.2. Funcionamiento Rolling

El funcionamiento rolling pretende capturar el proceso de adaptación de expectativas, de manera tal que se le otorgue una mayor importancia a aquella información recientemente agregada y descartando la más antigua, simulando el hecho de que los agentes ajustan sus expectativas dando una mayor ponderación a la información más reciente. Específicamente, éste mantiene constante el tamaño del conjunto intramuestral "p", pero varía desde el punto de vista de su composición, pues para cada iteración éste se va desplazando a través del conjunto total de datos, de manera que incluye la próxima observación pero a la vez elimina la más antigua (_1+p+1=p). Como en el caso recursivo, el proceso se repite "m_n" veces, permitiéndole al modelo de estimación incorporar la nueva información a medida que se encuentra disponible. Más adelante se presenta un esquema del proceso rolling.

Esquema del Proceso Recursivo

Fuente: Elaboración propia. En el proceso recursivo el conjunto intramuestral aumenta su tamaño a través de las iteraciones, de manera de reflejar que los agentes van incorporando la nueva información a medida que esta está disponible en el mercado.

 

Esquema del Proceso Rolling

Fuente: Elaboración propia. En el proceso rolling el conjunto intramuestral mantiene su tamaño constante a través de las iteraciones, de manera de reflejar que los agentes incorporan nueva información, pero no son capaces de manejar toda la información existente desechando la más antigua, ya que ésta va perdiendo validez a través del tiempo.


 

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons