SciELO - Scientific Electronic Library Online

 
vol.23 issue2Coefficient of Performance of a System Composed by a Domestic Refrigerator Coupled to a Thermal Storage for Energy RecoveryTransmission Line Method applied to vocal tract acoustics through a 3D reconstructed model author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

Share


Información tecnológica

On-line version ISSN 0718-0764

Inf. tecnol. vol.23 no.2 La Serena  2012

http://dx.doi.org/10.4067/S0718-07642012000200017 

Información Tecnológica, Vol. 23, N° 2, 2012, pp. 151-166.

ARTÍCULOS VARIOS

 

Metodología bayesiana para la optimización simultánea de múltiples respuestas

Bayesian methodology for simultaneous optimization of multiple responses

 

Jorge Limón(1), Manuel A. Rodriguez(2), Jaime Sánchez(2), Diego A. Tlapa(1)

(1) Universidad Autónoma de Baja California, Facultad de Ingeniería, Arquitectura y Diseño Ensenada, Km. 103 Carretera Tijuana-Ensenada, Baja California-México. (e-mail jorge.limon@uabc.edu.mx)

(2) Instituto Tecnológico de Ciudad Juárez, Blvd. Tecnológico No. 1340, Ciudad Juárez, Chihuahua-México.


Resumen

Se muestra la aplicación de una metodología bayesiana para la optimización simultánea de múltiples respuestas. Se modifica una propuesta anterior, introduciendo una modificación que la hace más flexible, ya que permite trabajar con el caso en que no todas las variables consideradas en el estudio son igualmente importantes. Para incorporar estas diferencias en cuanto a la relevancia de las variables de respuesta analizadas se utiliza la media geométrica ponderada de las probabilidades de que cada variable cumpla con su especificación. Con esto, las múltiples variables a optimizar se convierten en una sola. Mediante un ejemplo se muestra como la modificación propuesta ayuda a obtener distintos escenarios óptimos para considerar en la toma de decisiones.

Palabras clave: múltiples respuestas, optimización, metodología bayesiana, media geométrica ponderada


Abstract

The application of a bayesian methodology for simultaneous optimization of multiple responses is presented. A previous proposal is modified by introducing a modification that makes it more flexible, allowing working with the case in which not all the variables considered in the study are equally important. To incorporate in the methodology these differences related to the analyzed response variables the weighted geometric mean of the probabilities that each variable meets its own specification is used. With this change, the multiple optimization variables are converted into only one. An example to show how the proposed modification helps in achieving different optimal scenarios to consider in making decisions is discussed.

Keywords: multiple responses, optimization, bayesian methodology, weighted geometric mean


 

INTRODUCCIÓN

Un problema común en el diseño de productos o procesos es la selección de niveles de los parámetros de un proceso para optimizar múltiples respuestas simultáneamente, a lo que se le conoce como problema de multirespuestas (Myers y Montgomery, 1995). A este respecto Noorossana y Ardakani (2010), mencionan que debido a que la calidad de los productos o procesos usualmente es evaluada mediante varias características de calidad o respuestas, se debiera de poner más atención en el diseño de parámetros con múltiples respuestas, para mejorar la calidad de estas simultáneamente. A este respecto Limón et al., (2011) mencionan que las técnicas y métodos utilizados para la optimización y análisis de variables han tenido un comportamiento creciente durante las últimas décadas con la aplicación y adaptación de principios estadísticos, enfocados al análisis de datos con comportamiento multivariante.

Cuando se trabaja con múltiples respuestas, una alternativa es analizar cada respuesta de manera separada, pero como mencionan Chiao y Hamada (2001), esto no es muy satisfactorio, especialmente cuando las respuestas están correlacionadas, ya que por ejemplo, análisis por separado pueden llevar a distintas recomendaciones en cuanto a los niveles de los factores importantes, aún más, cuando se ignoran las correlaciones ente las respuestas se puede perder la oportunidad de encontrar niveles de los factores que simultáneamente mejoren la calidad de todas las respuestas. Para abordar esta situación de la optimización simultánea de las respuestas se han propuesto varias técnicas con diferentes niveles de complejidad y algunas más completas respecto a los aspectos importantes que se deben considerar, entre las cuales se pueden encontrar las siguientes: función de deseabilidad, función de pérdida, e índices de capacidad.

Función de deseabilidad: Derringer y Suich (1980) proponen utilizar funciones de deseabilidad las cuales convierten el problema de múltiples respuestas, en un problema de una sola respuesta; esto es, la respuesta que se analiza es la deseabilidad total (D). Sin embargo este enfoque según Chiao y Hamada (2001) tiene dos desventajas: primero, D puede ser difícil de modelar ya que es una función compleja de las p respuestas; segundo, es difícil decir que es lo que significa la diferencia entre valores esperados de D, excepto que el mayor es el mejor. Otra desventaja de este enfoque es según Ko et al., (2005) el que no considera la estructura de varianzas-covarianzas de las respuestas y según ellos ignorar esta información puede llevar a una solución no real, si en realidad las respuestas tienen varianzas significativamente diferentes o si están altamente correlacionadas. Se han propuesto otros enfoques basados en la deseabilidad para corregir algunos detalles de la propuesta original, como en Ch'ng et al., (2005) y Del Castillo et al., (1996).

Función de pérdida: Ames et al., (1997) proponen las funciones de pérdida para optimizar múltiples características de calidad. Mencionan que las funciones de pérdida proveen un marco conceptual que permite combinar criterios diferentes en una función objetivo única. Una función de pérdida describe la pérdida económica de la sociedad, provocada por las desviaciones de las características con respecto a su valor objetivo, debida a variaciones aleatorias y errores sistemáticos. La pérdida total a la sociedad debida a las desviaciones en todas las características del producto se puede tomar como la suma de las pérdidas debidas a las características individuales. Estas funciones de pérdida se deben minimizar para obtener las mejores condiciones de operación del proceso ya que esto minimizaría la pérdida del cliente o de la sociedad. Según Ames et al., (1997), al minimizar la función de pérdida además de la calidad más alta, también se produce la mayor estabilidad o robustez en el proceso contra las variaciones en la calidad debida a las variables de entrada.

Peterson (2004) menciona que actualmente existen enfoques basados en la función cuadrática de pérdida que consideran la estructura de correlaciones entre los diferentes tipos de respuestas, sin embargo, también menciona que esta técnica tiene dos inconvenientes serios, primero, no considera la incertidumbre de la matriz de varianzas-covarianzas de los errores en los modelos de regresión y segundo, en algunas ocasiones la función cuadrática de pérdida, especialmente alguna que se base en una forma cuadrática multivariada puede ser difícil de entender para algunos investigadores.

Índices de capacidad: En estas técnicas se utiliza también la reducción de dimensionalidad por pasar el problema de optimizar múltiples respuestas, al problema de optimizar una sola, la cual involucra alguna operación con los índices de capacidad individuales calculados para cada respuesta en cada condición de operación del proceso

Entre los autores que sugieren las técnicas que utilizan estos índices de capacidad, se encuentran Ch'ng et al., (2005) que proponen utilizar el Cpm Total. Para optimizar el proceso de acuerdo a este índice propuesto se evalúan diferentes opciones de operación del proceso mediante el método del gradiente reducido generalizado a partir de un vector de valores iniciales, buscando maximizar el Cpm total según reportan en su trabajo. Otra alternativa es hacer programas que busquen en todas las combinaciones posibles de las variables la que sería la óptima con la desventaja de que el tiempo de procesamiento sería más lento, pero con la ventaja de que no arrojaría óptimos locales. Esta técnica además de que no considera la correlación entre las variables de respuesta, ni la incertidumbre en los parámetros de los modelos construidos, puede llevar a seleccionar como la condición de operación del proceso óptima alguna en la que uno o unos de los índices sean demasiado grandes para algunas respuestas, sin importar que las otras tomen valores demasiado bajos o inclusive que su media caiga fuera de especificaciones.

Plante (2001) propone los índices de capacidad del proceso MCpk y MCpm como criterios de optimización múltiple. Empezando por el índice de capacidad del proceso MCpk, este es igual a la media geométrica de las medidas de comportamiento Cpk individuales y según el autor, la filosofía fundamental detrás del índice MCpk tiene profundas implicaciones en la calidad, esto es, si una o más de las medidas de desempeño es inadecuada (índice cercano a cero), entonces el producto completo se vuelve inaceptable, sin importar los índices de capacidad de las restantes medidas de desempeño. De hecho el índice MCpk es fuertemente influenciado por las características de calidad que tienen una capacidad baja. Además este criterio es más universalmente aplicable, puesto que no requiere de un valor objetivo para cada medida de desempeño. El índice MCpk es una variable del tipo lo mayor es lo mejor, por lo que debe maximizarse, lo cual puede lograrse con el uso de métodos numéricos, por ejemplo el método del gradiente reducido generalizado que es el que utiliza el autor.

Similar al índice MCpk, el índice MCpm se calcula como la media geométrica de las medidas de desempeño Cpm individuales. La optimización es similar a la del MCpk, sin embargo el índice MCpm, como el índice Cpm, requiere de valores objetivo para cada característica de calidad, por lo que no es tan flexible con el índice MCpk. Plante (2001), reconoce que en algunas ocasiones no todas las características de calidad son igual de importantes, por lo que según dice puede ser más importante lograr mayores índices de capacidad en una o más características a expensas de algunas otras. Es por esto que en su enfoque se considera la posibilidad de considerar la importancia relativa de las diferentes características de calidad.

Estos dos enfoques tampoco consideran la correlación entre las variables de respuesta, ni la incertidumbre en los parámetros de los modelos construidos, y un inconveniente al utilizar el MCpk es que si en alguna condición de operación del proceso la media de alguna de las variables de respuesta cae fuera de sus especificaciones su Cpk será negativo y si la cantidad de variables a optimizar es p, donde p es par no será posible calcular su MCpk, lo que provoca una inconsistencia en el método.

Métodos que Maximizan la Probabilidad de Conformancia

Según mencionan Chiao y Hamada (2001), cuando se analizan datos de múltiples respuestas, analizarlas por separado no ofrece resultados satisfactorios, especialmente cuando estas variables están correlacionadas. El realizar análisis separados puede llevar a conclusiones contradictorias respecto a los niveles de los factores importantes, ya que ciertos niveles de las variables pueden mejorar la calidad de alguna respuesta, pero empeorar la de otras. En el método que proponen se considera la matriz de varianzas-covarianzas dependiente de los factores experimentales y el criterio de decisión es la probabilidad de que todas las respuestas satisfagan simultáneamente sus respectivas especificaciones, por lo que la configuración óptima del proceso

será aquella que maximice la probabilidad de que las variables de respuesta estén en la región A, lo cual se representa en la ecuación (1):

Según estos autores la proporción de conformancia se determina por las medias, varianzas y correlaciones (p) de la distribución multivariada de las respuestas, proponen construir modelos para estos parámetros, con los cuales se obtienen diferentes valores de los parámetros para diferentes niveles de los factores de interés, los cuales se sustituyen en la función de densidad de probabilidad conjunta Y, la cual se considera una normal multivariada p dimensional con media

μ = (μχ2,...,μ)T y matriz de varianza-covarianza Σ. La función de densidad de probabilidad conjunta Y, f (Y; μ, Σ) está dada por la ecuación (2).

Asumiendo que la distribución normal multivariada para Y de la ecuación (2) es correcta, es posible evaluar la proporción de conformancia de la ecuación (1), para una Σ y μ dadas, las cuales pueden ser estimadas con los modelos construidos previamente. Este enfoque no considera la incertidumbre en los parámetros estimados.

El enfoque Bayesiano para Optimización de Respuestas Múltiples

En el presente trabajo se utiliza un enfoque bayesiano propuesto por Peterson (2004), en el que también se considera la probabilidad de que el proceso cumpla con los requisitos de calidad de las características del producto a optimizar consideradas en el análisis y toma en cuenta la estructura de correlación y la incertidumbre en los parámetros de los modelos.

Miró-Quesada et al. (2004), mencionan que el problema de la optimización de respuestas múltiples consiste en escoger los valores de los k factores controlables xi, tal que el vector de respuestas y tenga ciertas propiedades deseadas. Frecuentemente se presenta el caso en que estas propiedades son que el vector de respuestas y satisfaga las especificaciones. Digamos que A representa la región del espacio de respuestas definido por estas especificaciones. La región A puede tener una forma arbitraria. Entonces la optimización de respuestas múltiples se puede resumir en un simple objetivo, el cual consiste en maximizar la probabilidad de tener el vector de respuestas dentro de la región de especificación A, por ejemplo, maximizar la siguiente probabilidad de conformancia:

Donde y = B'z(x) + ε y R es la región en donde el modelo es válido, la cual normalmente se toma como la región experimental definida por la matriz de diseño X.

Según Peterson (2004) partiendo del modelo típico de regresión multivariada:

Donde B es una matriz pxq de los coeficientes de regresión y z(x) es el vector qx1 de valores x en los que se evalúa la ecuación (4). Además el vector e tiene una distribución normal multivariada con vector de medias igual a 0 y matriz de varianzas-covarianzas Σ. Para considerar la incertidumbre en los parámetros del modelo B y Σ se puede usar la densidad posterior predictiva f (y | x, datos). Utilizando la distribución previa conjunta no informativa clásica para B y Σ y el modelo de la ecuación (4), la densidad predictiva bayesiana para y se puede obtener en forma cerrada. La densidad predictiva bayesiana para el vector de valores x en los que se evaluará la función, está dada por una distribución t multivariada con ν grados de libertad (gl), de la siguiente manera:

Donde:

Aquí p es la cantidad de respuestas a optimizar, X es la matriz de qxN formada por los N z(x) vectores de covariables, es la estimación por mínimos cuadrados de B, Y(.) se refiere a la función gamma, Σ es el estimador usual de Σ calculado con los residuales del ajuste de la regresión multivariada, ν = N - p - q + 1y N es el tamaño de muestra.

Según Peterson (2004), debido a que la ecuación (5), sigue una distribución t multivariada, es fácil simular valores para y de esta densidad predictiva. Johnson (1987) en su libro Multivariate statistical simulation menciona que se puede simular una variable aleatoria t - variada y, mediante la simulación de una variable aleatoria normal multivariada y una variable aleatoria chi-cuadrada independiente (Peterson, 2004). Si W es una variable aleatoria normal con vector de medias igual a cero y una matriz de varianzas-covarianzas igual a H1 y además U es una variable aleatoria chi-cuadrada que es independiente de W, entonces:

Entonces la idea es generar una gran cantidad de valores de las respuestas utilizando la ecuación (6) y compararlos contra sus respectivas especificaciones para poder determinar la probabilidad de conformancia de cada una de las variables en cada condición de operación del proceso z(x), para lo que se generó un programa en matlab, en el cual se incluyó un contador que se incrementa cada vez que el vector de las p variables generadas cumplen con sus respectivas especificaciones, posteriormente este contador se divide entre la cantidad de iteraciones realizadas y así se obtienen las probabilidades para cada condición z(x).

Mientras que Peterson (2004) y Miró-Quesada et al., (2004) consideran como requisito que todas las variables cumplan con sus especificaciones de manera conjunta en cada iteración para incrementar el contador, en este trabajo lo que se propone es llevar contadores independientes para cada una de las respuestas de tal forma que al generar un vector de valores en cada iteración, cada respuesta es comparada con su respectiva especificación con lo que algunos

contadores podrán incrementarse, mientras que otros no, dependiendo de si se cumple con los requisitos y de esta manera es posible calcular probabilidades de conformancia independientes dividiendo cada contador entre el número de iteraciones realizadas. Son estas probabilidades individuales las que permiten introducir diferentes ponderaciones o pesos para cada variable, de acuerdo con la importancia que tienen en el estudio mediante el cálculo de la media geométrica ponderada, con lo que la metodología se vuelve más flexible ya que permite abordar tanto el caso en el que todas las variables de respuesta son igual de importantes, como el caso en que existen diferencias entre ellas. Adicionalmente el llevar a cabo la optimización utilizando diferentes combinaciones de pesos en las variables de respuesta, permite generar diferentes escenarios que le den una visión más amplia a quien esté llevando a cabo la mejora a la hora de tomar una decisión.

METODOLOGÍA

A continuación se ilustra la metodología con las modificaciones propuestas y sus efectos en los resultados obtenidos mediante un ejemplo. La metodología propuesta, consta de las siguientes etapas:

Etapa I: Identificar las variables de control y de ruido, así como las variables de respuesta que se considerarán en el estudio.

Etapa II: Planear y realizar el experimento de tal forma que permita ajustar modelos para las diferentes variables de respuesta a optimizar.

Etapa III: Ajustar modelos de regresión multivariada utilizando mínimos cuadrados ordinarios y verificar que tengan un ajuste adecuado (R2> 70%). Si alguna variable de respuesta no cumple con este requisito se saca del estudio.

Etapa IV: Determinar la cantidad de combinaciones de los factores de control a simularse, de tal forma que resulte una malla lo suficientemente fina que permita ajustar el modelo logístico y generar las iteraciones necesarias para cada corrida.

Etapa V: Cálculo de las probabilidades individuales y de la Mgp con las ponderaciones que se consideren adecuadas.

Etapa VI: Ajustar el modelo logístico para la Mgp. En este caso se utilizó minitab 15.

Etapa VII: Construir gráficos para comparar los resultados según la simulación y según el modelo logit. En este caso esto se hizo con la ayuda de Excel 2007. Si el modelo ajusta de manera adecuada a los datos simulados, el comportamiento de ambas gráficas debiera ser muy parecido. Previamente se verifica la significancia de los términos incluidos en el modelo según el software utilizado.

Etapa VIII: Optimizar (maximizar) el modelo logístico resultante utilizando el paquete Solver de Excel, iniciando la búsqueda en diferentes valores.

Etapa IX: Una vez que se ha seleccionado la condición óptima de operación del proceso según el paquete Solver, realizar una simulación lo suficientemente grande con el programa de matlab y calcular según el modelo logístico en esa condición la media geométrica ponderada de las probabilidades y comparar.

Etapa X: Concluir.

CASO DE ESTUDIO

Fases I y II: Para ilustrar la metodología anterior se toman los datos del problema propuesto por Myers y Montgomery (1995), en el cual se consideran tres variables de diseño, tiempo de reacción (x1), temperatura (x2) y porcentaje de catalizador (x3) y dos variables de respuesta, porcentaje de

conversión (y1) y actividad térmica (y2) y se utiliza un diseño central compuesto con seis corridas centrales. En este caso se consideró a x1 como variable de ruido (xr), por lo que la optimización se realizará con respecto a las variables de control (xc) x2 y x3. Los datos se muestran en la tabla 1 .

Fase III: Con los datos de este experimento el modelo de segundo orden ajustado para la variable conversión es el siguiente:

Con R2 = 92.0%.

Mientras que el modelo de segundo orden ajustado para la variable actividad es el siguiente:

Con R2 = 89.2%

Tabla 1: Datos tomados para ilustrar la metodología

Debido a que en ambos modelos sus coeficientes de determinación fueron mayores a 70%, la metodología de optimización puede ser aplicada a ambas variables de respuesta utilizando los modelos (7) y (8) en la ecuación (6) para la generación de valores.

Fase IV: En cuanto a la cantidad de combinaciones a simular, en este caso fue un arreglo 112, es decir, se trabajó con 121 combinaciones diferentes de los factores de control x2 y x3, utilizando los siguientes niveles para cada variable:

{-1.682 -1.345 -1.009 -0.672 -0.336 0 0.336 0.672 1.009 1.345 1.682}

Es decir se consideró desde el nivel más pequeño para cada variable según se puede observar en la tabla 1 , hasta su nivel más grande, con saltos de 0.3364 para que quedaran espacios de la misma dimensión entre cada nivel de las variables.

Una vez que se determinó la cantidad de combinaciones, se requiere determinar la cantidad de corridas a simularse en cada una de ellas utilizando la ecuación (6). En este caso se utilizaron 5000 corridas en cada una de las 121 combinaciones, es decir, 5000 vectores de dos respuestas cada uno y y y2), con las cuales se calculó la probabilidad de que cada respuesta cumpliera con su respectiva especificación, dividiendo la cantidad de variables simuladas que tomaron un valor aceptable entre el número de variables generadas. Es en este punto también en el que se atiende la robustez, debido a para cada una de las 121 combinaciones de x2 y x3, mientras estas permanecen fijas en la simulación de los 5000 vectores de respuestas, la variable X1 toma un valor diferente en cada iteración, el cual se genera de una distribución normal (0,0.1), con lo que se forma el vector de covariables X1, x2 y x3, de tal forma que si de entre las 121 combinaciones existe alguna que de una probabilidad alta de conformancia, también se está asegurando de que esta combinación será robusta a cambios en la variable x1.

Fase V: Cuando se han generado las iteraciones necesarias se procede a hacer los cálculos de la media geométrica con las ponderaciones que se crean convenientes de acuerdo a la relevancia en la funcionalidad o costos del producto final de cada una de las variables de respuesta analizadas. En este ejemplo se consideraron cuatro escenarios distintos, en cada uno de los cuales las medias geométricas se calcularon con las ponderaciones que se indican en la tabla 2 .

Tabla 2: Ponderaciones consideradas para las variables de respuesta

En la Tabla 3 se muestran los resultados obtenidos para las últimas combinaciones simuladas, desde la 89 hasta la 121, es decir, desde x2=1.0092 hasta x2=1.682 con los once niveles de x3 ya que fue en esta zona en donde en todos los casos se encontraron los resultados óptimos. Los mejores resultados obtenidos en esta malla, así como sus condiciones de operación correspondientes se encuentran resumidos en la tabla 4. Posteriormente se mostrarán gráficamente los 121 resultados completos.

Para realizar los cálculos de las columnas p1 y p2 se consideraron las siguientes especificaciones para cada característica de calidad: {Y1 >80 y 55< y2 <60}.

Por lo que cada vector generado se compara contra estos valores, para calcular las probabilidades de conformancia. En este punto también debe mencionarse que esta metodología de optimización funciona adecuadamente tanto para especificaciones bilaterales como unilaterales.

Fase VI: Toda vez que se ha simulado la malla con las diferentes combinaciones de los factores de interés, lo siguiente es ajustar un modelo logístico para Mgp. En las ecuaciones (9), (10), (11) y (12), se muestran los modelos ajustados para la Mgp1, Mgp2, Mgp3 y Mgp4 respectivamente considerando las variables de control, todos construidos utilizando el software minitab 15.

Tabla 3: Resultados obtenidos para las últimas combinaciones de la malla simulada

Tabla 4: Mejores resultados obtenidos en la malla simulada para cada ponderación

Fase VII: Para apreciar el ajuste de los modelos a cada una de las medias geométricas para la que fue ajustado, se procedió a construir gráficos en Excel en donde se representaran al mismo tiempo las medias geométricas de las probabilidades de conformancia según las 5000 simulaciones hechas con matlab para cada una de las 121 combinaciones de los factores de interés según la ecuación (6) y las medias geométricas pronosticadas por los modelos anteriores en estas mismas combinaciones. Las comparaciones de los resultados simulados contra los pronosticados por el modelo para la Mgp1, Mgp2, Mgp3 y Mgp4 se muestran en 1as figuras 1 , 2 , 3 y 4 , respectivamente. Como puede verse los modelos pronostican con mucha exactitud lo obtenido mediante la simulación ya que el valor pronosticado prácticamente se sobrepone al valor simulado, por lo cual estos modelos pueden utilizarse para la optimización mediante métodos numéricos. En estas figuras también puede apreciarse en donde se encuentran los valores más altos para cada una de las medias geométricas ponderadas y por lo tanto dan una aproximación de en donde se ubicarán las zonas óptimas.

Fig. 1: Comparación de los resultados simulados contra los pronosticados para Mgp1. En la figura: ♦ son los resultados del modelo y ■ los resultados de la simulación.

Fig. 2: Comparación de los resultados simulados contra los pronosticados para Mgp2. En la figura: ♦ son los resultados del modelo y ■ los resultados de la simulación.

Fig. 3: Comparación de los resultados simulados contra los pronosticados para Mgp3. En la figura: ♦ son los resultados del modelo y ■ los resultados de la simulación.

Fig. 4: Comparación de los resultados simulados contra los pronosticados para Mgp4. En la figura: ♦ son los resultados del modelo y ■ los resultados de la simulación.

RESULTADOS

Fase VIII: Después de verificar gráficamente que los modelos realmente representen los resultados simulados, así como su significancia, se puede proceder a la fase de optimización con ellos, para la cual se utilizó el método del gradiente reducido generalizado, el cual se puede encontrar en el paquete Solver de Excel, lo que lo hace muy accesible a quien desee utilizarlo. Este algoritmo de optimización permite incorporar restricciones en las zonas de búsqueda, lo que proporciona una ventaja, ya que de esta manera podremos asegurarnos de que la solución propuesta estará dentro de la región en la que se diseñó el experimento.

A la hora de utilizar el Solver de Excel, es necesario empezar el algoritmo con valores iniciales para las variables de interés. Se sugiere que se inicie el algoritmo en varias ocasiones con distintos valores para evaluar la consistencia de la solución alcanzada. En este caso se utilizaron 15 valores iniciales diferentes para la búsqueda de los valores óptimos, estos valores de partida fueron los mismos para los cuatro modelos logísticos. Los resultados obtenidos muestran que en los cuatro casos siempre hubo convergencia hacia el mismo resultado, independientemente de los valores iniciales, lo que puede apreciarse en la Tabla 5.

Tabla 5: Resultados de la optimización

Fase IX: Una vez obtenidas las condiciones óptimas de operación para el proceso, se procede a hacer en cada condición de operación propuesta para cada una de las medias geométricas ponderadas analizadas, una evaluación de los resultados, primeramente sustituyendo estos valores en sus respectivos modelos logísticos y posteriormente haciendo una simulación como corrida de confirmación de 100000 nuevos vectores de respuestas. Si la metodología propuesta trabaja de forma adecuada los valores alcanzados en la evaluación tanto por el modelo como por la simulación deberán ser similares y deberán también ser valores similares en magnitud o más altos al compararlos con los obtenidos al realizar la malla en las 121 combinaciones. Esta comparación entre las mayores medias geométricas ponderadas obtenidas en la malla realizada con 5000 simulaciones (véase tabla 4 ), las obtenidas en la simulación con 100000 valores y las pronosticadas según el modelo logístico, estas dos últimas para validar las condiciones óptimas

propuestas en la optimización, se muestran en la tabla 6 , en la cual puede apreciarse que los resultados obtenidos en las condiciones óptimas propuestas, según los modelos y la simulación son muy similares a las ya obtenidas en la malla simulada al inicio, lo que indica que los resultados obtenidos desde el principio ya eran los suficientemente buenos y quedaba poco espacio para la mejora, lo que pudiera no siempre suceder.

La tabla 7 muestra desglosados los resultados obtenidos con los 100000 vectores simulados como validación para Mgp1, Mgp2, Mgp3y Mgp4, en la cual, la columna Mgp se refiere a las medias geométricas ponderadas calculadas utilizando las ponderaciones descritas en la tabla 2 partiendo de los valores p1 y p2 de las columnas anteriores. En cuanto a las columnas Media y1 y Media y2 estas se refieren a las medias calculadas con los 100000 valores generados durante la validación para y y2 respectivamente.

Tabla 6: Medias geométricas ponderadas más altas obtenidas según el modelo y las simulaciones

Tabla 7: Resultados de la evaluación por simulación de las condiciones óptimas encontradas

Conforme a los valores de la tabla 7 , se puede observar que los resultados de Mgp2 referentes a y1 son mejores que los reportados en Mgp1 para esta misma variable de respuesta, contrario a lo que sucede con y2 que son peores, es decir, p1 de Mgp2 es mayor que p1 de Mgp1, mientras que con p2 sucede lo inverso, así también, si se revisan sus medias calculadas se puede ver que la media para y1 de Mgp2 se aleja más de 80 que es su límite inferior de especificación con respecto a su media en Mgp1 y por otra parte la media para y2 de Mgp2 se aleja más de su valor objetivo, o centro de la especificación que es 57.5 comparada con la media para y2 de Mgp1. Esto se debe a que en Mgp2 se le da un mayor peso a y1 (0.6) que a y2 (0.4), lo que provoca que la solución óptima se desplace hacia donde se comporte mejor y1 a expensas del resultado de y2. Continuando con el análisis de la tabla 7 , si se observan los resultados de Mgp3 se pueden ver aun más marcados los cambios a favor de y1 y en contra de y2 si se compara con Mgp1, esto debido a que se le da un peso aun mayor a y1 (0.8) contra el que se le da a y2 (0.2), por lo que cuando se observan los valores promedios se puede ver que y1 se aleja más de 80, lo que es deseable, mientras que y2 también se aleja más de su valor objetivo, lo que no es deseable, pero se puede permitir, porque según las ponderaciones empleadas esta variable es menos importante. El efecto contrario respecto a y1 y y2 puede observarse cuando se revisan los resultados de Mgp4, ya que en este caso se busca un mejor resultado en y2 a expensas de y1, lo que queda de manifiesto en las ponderaciones otorgadas de 0.8 y 0.2 respectivamente, con lo cual se beneficia a p2 mostrando su valor más alto de los cuatro casos analizados, y se castiga a p1 que muestra su valor más bajo, de igual forma se aprecia que la media de y2 se acerca más a su valor objetivo, mientras que la media de y1 se acerca más a su límite inferior de especificación.

CONCLUSIONES

Como ya se mencionó anteriormente, un hecho que puede presentarse cuando se trabaja con la optimización simultánea de múltiples respuestas, es que en algunas ocasiones pudiera pretenderse llegar a resultados que cuiden más los valores de algunas variables sin importar que se relajen un poco en algunas otras, es decir, no siempre todas las variables consideradas serán igualmente importantes. En este trabajo se utilizó la metodología propuesta por Miró-Quesada et al.,(2004) por ser una de las más completas en el campo de la optimización de múltiples respuestas, ya que considera las correlaciones entre los datos, la incertidumbre en los parámetros de los modelos y la robustez a factores de ruido y además, la variable a optimizar es la probabilidad de conformancia, la cual es fácilmente entendida por los ingenieros a cargo de los procesos, solo que esta metodología fue modificada en los dos aspectos que a continuación se mencionan.

En primer lugar para incorporar las diferentes ponderaciones para las variables de respuesta de acuerdo a su importancia, se sustituyó la probabilidad de conformancia simultánea de todas las variables de respuesta, por la media geométrica ponderada de las probabilidades de conformancia individuales de cada una de las respuestas y en segundo lugar se utilizó el método del gradiente reducido generalizado en la fase de optimización, que permite la búsqueda restringida y que además se encuentra disponible en el paquete Solver de Excel, lo que lo hace bastante accesible para cualquier usuario.

Fase X: En los resultados que se muestran en el ejemplo para ilustrar la metodología con las modificaciones planteadas, se puede ver primeramente que esta funciona adecuadamente, ya que lleva a resultados que son coherentes con la información que se tiene. Por otra parte en lo que se refiere a las diferentes ponderaciones posibles a las variables de respuesta, se puede ver que estas realmente pueden afectar los resultados obtenidos. En la tabla 7 puede apreciarse que los resultados respecto a los valores de x2 y x3 en Mgp1, Mgp2 y Mgp3 son similares, sin embargo, también se observa que si se compara Mgp2 con Mgp1, el procedimiento por si solo busca condiciones en donde se comporte de mejor manera y1 sin afectar demasiado a y2, debido a que sus respectivas ponderaciones no son tan diferentes, pero si se compara Mgp3 con Mgp1 las modificaciones a favor de y1 y en contra de y2 se empiezan a hacer más evidentes, esto debido a que las diferencias en las ponderaciones se hacen más grandes a favor de y1. Continuando con las comparaciones, al considerar a Mpg4, se puede observar que los valores óptimos propuestos tanto para x2 como para x3, ahora sí son bastante diferentes a los anteriores, sobre todo en x2, esto es debido a que en esta ocasión se le dio una ponderación de 0.2 a y1 y de 0.8 a y2, por lo que la metodología busca la zona en donde y2 tuvo su mejor desempeño castigando a y1, lo cual puede apreciarse en las probabilidades y las medias de la tabla 7 .

Adicionalmente en la tabla 3 puede observarse que Mgp4 tiene su resultado más alto en x2=1.3456 y x3=-0.6728 por lo que el resultado óptimo alcanzado es muy similar a este según la tabla 7 . Respecto a Mgp1 también tiene su mejor resultado en x2=1.3456 y x3=-0.6728 de acuerdo con la tabla 3 , sin embargo su resultado óptimo se encontró en x2=1.6630 y x3=-0.7670, esto fue debido a que Mgp1 también se comporta de buena manera en x2=1.682, de hecho su segundo y tercer resultados más altos se encuentran en esta zona con valores muy cercanos al primero. Es importante señalar también que al resolver el problema presentado como ejemplo en este trabajo, Myers y Montgomery (1995) encuentran como mejor propuesta para solución óptima x2=1.682 y x3=-0.5955, la cual es similar a las encontradas utilizando Mgp1 y Mgp2 y es casi idéntica a la obtenida con Mgp3.

Con lo anterior entonces se puede concluir que la metodología funciona adecuadamente con las modificaciones propuestas y que dar ponderaciones diferentes a las variables de respuesta, sí puede modificar los resultados óptimos alcanzados, buscando configuraciones del proceso con mejores comportamientos en las variables con los mayores pesos. Esto último hace posible analizar casos en los que no todas las respuestas son igualmente importantes, con lo que la metodología se vuelve más flexible y atractiva en muchos casos prácticos, ya que en su diseño original no permitía incorporar estas consideraciones. Una ventaja adicional es que con la

modificación propuesta acerca del uso de ponderaciones, el problema se puede resolver utilizando diferentes combinaciones de pesos, lo que proporcionaría a los ingenieros o a los investigadores diferentes alternativas óptimas de operación del proceso para escoger, tomando en consideración algunos otros aspectos prácticos del propio proceso, lo que puede facilitar y enriquecer la toma de decisiones.

REFERENCIAS

Ames, A. E., y otros cuatro autores, Quality Loss Function for optimization across multiple response surface, Journal of Quality Technology, 29(3), 339-346, (1997).

Ch'ng, C. K., Quah S. H. y Low H. C., Index C*pm in multiple response optimization, Quality Engineering, 17(1), 165-171, (2005).

Chiao, C. H. y Hamada, M., Analyzing experiments with correlated multiple responses, Journal of Quality Technology, 33(4), 451-465, (2001).

Del Castillo, E., Montgomery, D. C. y McCarville, D. R., Modified desirability functions for multiple response optimization, Journal of quality technology, 28(3), 337-345, (1996).

Derringer, G. y Suich, R., Simultaneous optimization of several response variables, Journal of Quality Technology, 12, 214-219, (1980).

Ko, Y. H., Kim, K. J. y Jun, C. H., A new loss function-based method for multiresponse optimization, Journal of Quality Technology, 37(1), 50-59, (2005).

Limón, J., y otros tres autores, Evaluación de la robustez del sistema Mahalanobis-Taguchi a diferentes arreglos factoriales, Información Tecnológica, 22(4), 85-96, (2011).

Miró-Quesada, G., Del Castillo, E. y Peterson, J. J., A Bayesian approach for multiple response surface optimization in the presence of noise variables, Journal of Applied Statistics, 3(3), 251-270, (2004).

Myers, R.H. y Montgomery, D. C., Response Surface Methodology Process and Product Optimization Using Designed Experiments, 1a edición, 244-265, Wiley Series in Probability and Statistics, New York, Estados Unidos de America, (1995).

Noorossana, R. y Ardakani, M. K., A weighted metric method to optimize multi-response robust problems, Journal of Industrial Engineering International, 5(8), 10-19, (2010).

Peterson, J. J., A posterior predictive approach to multiple response surface optimization, Journal of Quality Technology, 36(2), 139-153, (2004).

Plante, R. D., Process capability: a criterion for optimizing multiple response product and process design, IIE Transactions, 33, 497-509, (2001).


Recibido Jul. 12, 2011; Aceptado Ago. 22, 2011; Versión Final recibida Sep. 16, 2011

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License