Centro de Investigaci´on y de Estudios Avanzados
del Instituto Polit´ecnico Nacional
Unidad Zacatenco
Departamento de Computaci´on
Optimizaci´on Evolutiva Multiobjetivo basada en el
Algoritmo de Kuhn-Munkres
Tesis que presenta
Jos´e Antonio Molinet Berenguer
para obtener el Grado de
Maestro en Ciencias en Computaci´on
Director de la Tesis
Dr. Carlos Artemio Coello Coello
M´exico, Distrito Federal Octubre, 2014
ii
Resumen
Un gran n´umero de problemas presentes en diversas ´areas del conocimiento re-
quieren la optimizaci´on simult´anea de varios objetivos en conflicto. Estos problemas,
denominados Problemas de Optimizaci´on Multiobjetivo (POMs), no poseen una solu-
ci´on ´unica, sino un conjunto de soluciones que representan los distintos compromisos
entre los objetivos. Los Algoritmos Evolutivos Multiobjetivo (AEMOs) se han conver-
tido en una de las t´ecnicas m´as utilizadas para lidiar con POMs, pues han mostrado
gran efectividad al solucionar problemas con dos y tres objetivos. Sin embargo, a me-
dida que aumenta el n´umero de objetivos en conflicto, el desempe˜no de la mayor´ıa de
los AEMOs se deteriora dr´asticamente. Esto ha provocado un creciente inter´es en el
desarrollo de AEMOs que puedan solucionar POMs con m´as de tres objetivos, debido
a la frecuencia con que surge este tipo de problemas en la ciencia y la ingenier´ıa.
En esta tesis se propone un nuevo algoritmo evolutivo multiobjetivo para resolver
problemas con m´as de tres objetivos. Nuestra propuesta transforma el proceso de
selecci´on de un AEMO en un problema de asignaci´on lineal utilizando un conjunto
de vectores de pesos uniformemente distribuidos y una funci´on de costo. El problema
de asignaci´on obtenido se soluciona mediante el algoritmo de Kuhn-Munkres (cono-
cido tambi´en como m´etodo h´ungaro). Para construir el conjunto de vectores de pesos
proponemos un algoritmo basado en el dise˜no uniforme que evita las deficiencias del
m´etodo simplex-lattice, el cual es com´unmente utilizado en los AEMOs basados en
descomposici´on. En nuestra propuesta se generan las soluciones utilizando los opera-
dores de recombinaci´on de la evoluci´on diferencial, debido a lo cual denominamos al
AEMO propuesto evoluci´on diferencial h´ungara (EDH).
EDH se compar´o con respecto a tres de los AEMOs con mejor desempe˜no registra-
do en la literatura especializada, dos de ellos basados en descomposici´on (MOEA/D y
MOEA/D-DE) y uno basado en el hipervolumen (SMS-EMOA). Los resultados obte-
nidos en 16 problemas de prueba con 144 instancias de entre 2 y 10 objetivos, indican
que nuestra propuesta supera a MOEA/D y MOEA/D-DE tanto en convergencia
como en diversidad de las soluciones. Adem´as, EDH obtiene resultados competitivos
con respecto a SMS-EMOA y en varias instancias supera a ´este en cuanto a diver-
sidad de las soluciones. Asimismo, el costo computacional de EDH no depende del
n´umero de funciones objetivo, mientras que el tiempo de ejecuci´on de SMS-EMOA
crece exponencialmente con el n´umero de objetivos.
iii
iv
Abstract
A large number of problems in a wide variety of domains involve simultaneous
optimization of several conflicting objectives. These problems, called Multi-objective
Optimization Problems (MOPs), do not have a single optimal solution, but rather
a set of solution that represent the best trade-offs among all the objectives. Among
the different techniques available to solve MOPs, Multi-objective Evolutionary Al-
gorithms (MOEAs) have become very popular, mainly because of their effectiveness
in problems with two and three objectives. However, as the number of conflicting
objectives increases, the performance of most MOEAs severely deteriorates. This has
motivated a growing interest for developing MOEAs for handling four or more objec-
tives, due to the frequency with such problems arise in science and engineering.
In this work, we propose a new multi-objective evolutionary algorithm to solve
optimization problems having four or more objectives. Our proposal transforms the
selection process of a MOEA into a linear assignment problem using a set of weight
vectors uniformly scattered and a cost function. The Kuhn-Munkres or Hungarian
algorithm is used to solve the resulting assignment problem. We propose an algorithm
based on uniform design to obtain the set of weights and avoid the shortcomings of
the simplex-lattice design method, which is the approach most commonly adopted
in decomposition-based MOEAs. Differential evolution is used as our search engine
giving rise to the so-called hungarian differential evolution (HDE) algorithm.
Our proposed approach is compared with respect to three well-known MOEAs,
two of them based on decomposition (MOEA/D and MOEA/D-DE) and one based
on hypervolume (SMS-EMOA). The results obtained in 16 test problems with 144
instances having 2 to 10 objectives, indicate that HDE outperforms MOEA/D and
MOEA/D-DE both in terms of convergence and diversity of the solutions obtained.
Furthermore, our approach obtains competitive results with respect to SMS-EMOA
and, in several instances, outperforms it in terms of the diversity of solutions. Addi-
tionally, the computational cost of EDH does not depend on the number of objective
functions, whereas SMS-EMOA has an execution time which grows exponentially on
the number of objectives.
v
vi
Dedicatoria
A mis padres y a mi hermano, por ser el faro que descifra mi destino
A mi novia Carolina, eterna brisa encantadora que logra lo mejor de m´ı
A Luis Manuel, esta tambi´en es tu tesis de maestr´ıa, seguiremos
A la Dra. Aurora Pons Porrata, ejemplo de mujer investigadora y proa de muchas
generaciones.
vii
viii
Agradecimientos
Esta tesis y el programa de maestr´ıa que con ella culmino han sido realizados con
el apoyo de una gran familia, que re´une personas excepcionales de Cuba y de M´exico.
A mis padres y a mi hermano agradezco enormemente la confianza y el apoyo
que me han brindado durante estos dos a˜nos. A pesar de la gran distancia que nos
separa, sus palabras y ejemplo iluminaron mis decisiones. Ha sido muy dif´ıcil estar
tanto tiempo alejado de seres tan especiales en mi vida, espero que el resultado est´e a
la altura de la nostalgia que han sentido mis padres.
A mi novia Carolina, su hermana y sus padres les estar´e eternamente agradecido
por considerarme parte de su familia, por dejarme conocer un maravilloso hogar
mexicano, por cuidarme como un hijo y protegerme en todo momento. El cari˜no que
me han brindado me uni´o mucho m´as con M´exico, su cultura y su gente.
Este trabajo de tesis se deriv´o del proyecto CONACyT titulado Nuevos Para-
digmas Algor´ıtmicos en Optimizaci´on Evolutiva Multi-Objetivo (Ref. 221551), cuyo
responsable es el Dr. Carlos A. Coello Coello y a quien deseo agradecer la oportunidad
de trabajar bajo su supervisi´on. Su gu´ıa, sus comentarios y su apoyo en los momentos
m´as dif´ıciles reflejan su grandeza como investigador y como ser humano.
Agradezco la beca terminal de maestr´ıa de un mes otorgada por el Dr. Oliver
Sch¨utze, quien adem´as de ser un excelente profesor e investigador, es un ejemplo de
valent´ıa y empe˜no.
Mis agradecimientos a los sinodales Dr. Luis Gerardo de la Fraga y Dr. Gregorio
Toscano Pulido por sus observaciones y oportunos comentarios.
Quiero darle las gracias a un gran n´umero de amigos, todos atentos a mis progre-
sos en los estudios y en la salud. A Erick y Day, por mantenerse a mi lado y al de
mi familia. A Adanay y Yiny por compartir tantos desvelos en la maestr´ıa y tanta
alegr´ıa de conocer a M´exico. A Napole´on por brindarme su conocimiento y su con-
fianza. A la Sra. Franca por recibirme en su casa y hacerme sentir como en la m´ıa. A
Vicente, Esthela, Edgar, Luis, Petlachi e Imanti por darme la bienvenida y conservar
la curiosidad. A Mireya, Hugo, Tania, Hegel, Alejandro, M´onica y Ana, quienes junto
a todos los dem´as amigos mencionados, permanecieron a mi lado durante mi cirug´ıa y
posterior recuperaci´on. Gracias a todos por ser mi familia en M´exico, por su amistad
incondicional y su sonrisa inmensa.
Agradezco a CONACyT la beca de maestr´ıa que me otorg´o durante dos a˜nos para
cursar estudios en el CINVESTAV-IPN. Ambas instituciones hacen realidad los sue˜nos
de muchos j´ovenes mexicanos y extranjeros. El apoyo y consideraci´on del personal que
trabaja en el departamento de computaci´on es fundamental para nuestro desempe˜no.
Gracias Sofi por siempre ayudarnos a todos. Gracias a Felipa, a Erika y a Santiago.
ix
x
´Indice general
´Indice de figuras XII
´Indice de tablas XIII
1. Introducci´on 1
1.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Descripci´on del problema . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Estructura del documento . . . . . . . . . . . . . . . . . . . . . . . . 4
2. Fundamentos Te´oricos 5
2.1. Optimizaci´on multiobjetivo . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1. Problemas de prueba . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.2. Indicadores de desempe˜no . . . . . . . . . . . . . . . . . . . . 9
2.2. Computaci´on evolutiva . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1. Programaci´on evolutiva . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2. Estrategias evolutivas . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.3. Algoritmos gen´eticos . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.4. Ventajas de los algoritmos evolutivos . . . . . . . . . . . . . . 15
2.3. Metaheur´ısticas Alternativas . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.1. Evoluci´on diferencial . . . . . . . . . . . . . . . . . . . . . . . 17
3. Optimizaci´on Evolutiva de Muchos Objetivos 19
3.1. Dificultades en el manejo de muchos objetivos . . . . . . . . . . . . . 20
3.1.1. Deterioro de la capacidad de b´usqueda . . . . . . . . . . . . . 20
3.1.2. Representaci´on del frente de Pareto . . . . . . . . . . . . . . . 22
3.1.3. Visualizaci´on del frente de Pareto . . . . . . . . . . . . . . . . 22
3.2. Algoritmos Evolutivos para la optimizaci´on de muchos objetivos . . . 23
3.2.1. Relaciones de preferencia alternativas . . . . . . . . . . . . . . 24
3.2.2. Reducci´on de la dimensi´on del espacio objetivo . . . . . . . . 26
3.2.3. Basados en informaci´on de preferencia . . . . . . . . . . . . . 29
3.2.4. Basados en indicadores . . . . . . . . . . . . . . . . . . . . . . 32
3.2.5. Basados en descomposici´on . . . . . . . . . . . . . . . . . . . 36
xi
xii ´INDICE GENERAL
4. Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-
Munkres 39
4.1. Evoluci´on diferencial h´ungara . . . . . . . . . . . . . . . . . . . . . . 39
4.2. Algoritmo de Kuhn-Munkres . . . . . . . . . . . . . . . . . . . . . . . 45
4.3. Generaci´on de vectores de pesos . . . . . . . . . . . . . . . . . . . . . 48
5. Estudio Experimental 55
5.1. Dise˜no experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2. Estudio de los componentes del algoritmo propuesto . . . . . . . . . . 58
5.3. Comparaci´on de la propuesta con otros algoritmos . . . . . . . . . . . 66
6. Conclusiones 79
6.1. Trabajo futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Bibliograf´ıa 82
´Indice de figuras
2.1. Caracter´ısticas del conjunto de soluciones que aproximan a un frente
de Pareto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.1. Deficiencia del algoritmo MOEA/D en su proceso de actualizaci´on de
las soluciones vecinas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2. Proceso de actualizaci´on de las soluciones de una vecindad en los al-
goritmos basados en descomposici´on. . . . . . . . . . . . . . . . . . . 42
4.3. Soluci´on de un problema de asignaci´on lineal (PAL). . . . . . . . . . 46
4.4. Ejemplo de la ejecuci´on del algoritmo de Kuhn-Munkres. . . . . . . . 48
4.5. Deficiencias del m´etodo simplex-lattice. . . . . . . . . . . . . . . . . . 50
4.6. Vectores de pesos obtenidos en los s´ımplex de 3 y 4 dimensiones por
los m´etodos simplex-lattice, dise˜no uniforme y Monte Carlo. . . . . . 52
5.1. Soluciones obtenidas por las distintas variantes de EDH en el problema
DTLZ2 con 6 objetivos. . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2. Soluciones obtenidas por las distintas variantes de EDH en problemas
con 3 objetivos de los conjuntos DTLZ y WFG. . . . . . . . . . . . . 61
5.3. Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA
en los problemas DTLZ1 a 4 con 3 objetivos. . . . . . . . . . . . . . . 68
5.4. Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA
en los problemas DTLZ5 a 7 con 3 objetivos. . . . . . . . . . . . . . . 70
5.5. Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA
en los problemas WFG1 a 5 con 3 objetivos. . . . . . . . . . . . . . . 74
5.6. Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA
en los problemas WFG6 a 9 con 3 objetivos. . . . . . . . . . . . . . . 75
5.7. Tiempo de ejecuci´on promedio considerando 30 corridas independientes
de EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas
DTLZ y WFG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
xiii
xiv ´INDICE DE FIGURAS
´Indice de tablas
2.1. Propiedades de los problemas de prueba DTLZ y WFG. . . . . . . . . 8
4.1. Uniformidad de los conjuntos de vectores de pesos generados con el
m´etodo simplex-lattice, dise˜no uniforme y Monte Carlo. . . . . . . . . 53
5.1. Puntos de referencia seleccionados para calcular el hipervolumen de las
soluciones de cada problema con m objetivos. . . . . . . . . . . . . . 56
5.2. Valores asignados a los par´ametros de los AEMOs. . . . . . . . . . . 56
5.3. Tama˜no de la poblaci´on y n´umero m´aximo de generaciones utilizados
en la ejecuci´on de cada algoritmo. . . . . . . . . . . . . . . . . . . . . 57
5.4. Hipervolumen obtenido por las variantes de EDH en los problemas
DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones
independientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.5. Distancia Generacional Invertida de las variantes de EDH en los pro-
blemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30
ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . 60
5.6. Hipervolumen obtenido por las variantes de EDH en los problemas
WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones
independientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.7. Distancia Generacional Invertida de cada variante de EDH en los pro-
blemas WFG. Se muestra la media y la desviaci´on est´andar de 30
ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . 64
5.8. Hipervolumen obtenido por cada AEMO en los problemas DTLZ. Se
muestra la media y la desviaci´on est´andar de 30 ejecuciones indepen-
dientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.9. Distancia Generacional Invertida obtenida por cada AEMO en los pro-
blemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30
ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . 69
5.10. Hipervolumen obtenido por cada AEMO en los problemas WFG. Se
muestra la media y la desviaci´on est´andar de 30 ejecuciones indepen-
dientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.11. Distancia Generacional Invertida obtenida por cada AEMO en los pro-
blemas WFG. Se muestra la media y la desviaci´on est´andar de 30
ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . 76
xv
xvi ´INDICE DE TABLAS
Cap´ıtulo 1
Introducci´on
La optimizaci´on simult´anea de varios objetivos en conflicto es uno de los proble-
mas m´as frecuentes en la ciencia y la ingenier´ıa [1], al cual se le conoce como Problema
de Optimizaci´on Multiobjetivo (POM). A diferencia de los problemas donde se opti-
miza un solo objetivo, los POMs no poseen una soluci´on ´unica, sino un conjunto de
soluciones que representan los diferentes compromisos entre los objetivos. La noci´on
de ´optimo m´as com´unmente empleada en este tipo de problemas es la optimalidad
de Pareto, la cual considera como soluciones ´optimas a las no dominadas. Se dice que
una soluci´on domina a otra si no es peor en ninguno de los objetivos y es mejor en
al menos uno. El conjunto de soluciones no dominadas se conoce como conjunto de
´optimos de Pareto y su proyecci´on en el espacio de los objetivos se denomina frente
de Pareto (FP).
Los Algoritmos Evolutivos Multiobjetivo (AEMOs) se han convertido en una de
las t´ecnicas m´as populares para solucionar POMs, debido fundamentalmente a su
flexibilidad y f´acil uso [1, 2]. Los AEMOs simulan los principios b´asicos de la evo-
luci´on natural planteados en el Neo-Darwinismo. Estos algoritmos aplican sobre una
poblaci´on de individuos (soluciones) operadores de selecci´on, asignaci´on de aptitud,
mutaci´on, reproducci´on y elitismo, con el fin de lograr la mejor aproximaci´on posible
del frente de Pareto. Para determinar la calidad de una aproximaci´on del frente de
Pareto se consideran dos criterios b´asicos [3]: el primero es la cercan´ıa entre las solu-
ciones encontradas y el frente de Pareto verdadero; el segundo es la diversidad de las
soluciones, que comprende tanto la uniformidad de su distribuci´on como su extensi´on
por todo el frente de Pareto.
Durante varios a˜nos, el mecanismo de selecci´on de los AEMOs estuvo mayormente
basado en la dominancia de Pareto, pues permite diferenciar soluciones en problemas
con dos o tres objetivos. Sin embargo, en a˜nos recientes, diversos estudios han com-
probado que al incrementarse el n´umero de funciones objetivo a optimizar, resulta
ineficaz el uso de la dominancia de Pareto para lograr convergencia y buena distri-
buci´on de las soluciones [4, 5, 6]. Esto ocurre porque a medida que el n´umero de
objetivos aumenta, la proporci´on de individuos no dominados en la poblaci´on cre-
ce, lo cual deteriora la capacidad de la dominancia de Pareto para discriminar entre
soluciones [7].
1
2 Cap´ıtulo 1
1.1. Antecedentes
El buen desempe˜no de los algoritmos evolutivos al solucionar problemas de opti-
mizaci´on con dos y tres objetivos ha provocado un creciente inter´es en su aplicaci´on
en problemas con cuatro o m´as objetivos. Para extender el uso de los AEMOs a este
tipo de problema ha sido necesario el desarrollo de criterios de selecci´on distintos a la
dominancia de Pareto, que puedan ser capaces de diferenciar soluciones con un gran
n´umero de objetivos [6, 8].
Dentro de estas nuevas propuestas, los m´etodos de escalarizaci´on se han hecho
populares debido al surgimiento del algoritmo evolutivo multiobjetivo basado en des-
composici´on (MOEA/D) [9]. Este algoritmo utiliza una funci´on de escalarizaci´on para
transformar un POM en varios subproblemas de un solo objetivo, los cuales se op-
timizan simult´aneamente mediante la evoluci´on de una poblaci´on de soluciones. El
buen desempe˜no de MOEA/D ha generado cada vez m´as atenci´on y se han propues-
to varios AEMOs inspirados en su funcionamiento [10]. Algunas de las propuestas
se han enfocado en mejorar la uniformidad de los vectores de pesos utilizados por
MOEA/D [11, 12, 13, 14]. Otras emplean funciones de escalarizaci´on alternativas
para construir los subproblemas [14, 15]. Recientemente, se ha empleado la descom-
posici´on en un esquema basado en dominancia de Pareto para diferenciar soluciones
no dominadas [16] y en un mecanismo de selecci´on basados en puntos de referencia
para guiar la b´usqueda en regiones espec´ıficas del frente de Pareto [17].
Pero, sin duda, son los AEMOs basados en indicadores los que m´as han llamado la
atenci´on de los investigadores del ´area [18, 19]. Estos algoritmos utilizan un indicador
de calidad para asignar la aptitud de cada individuo en la poblaci´on, transformando
as´ı el problema original en el de maximizar el valor del indicador. Entre los indicadores
existentes, el hipervolumen ha sido el m´as empleado [19], debido principalmente a
que es compatible con la dominancia de Pareto y a que se ha podido demostrar que
su maximizaci´on es equivalente a encontrar el frente de Pareto ´optimo [20, 21]. La
desventaja de emplear el hipervolumen radica en su alto costo computacional, el cual
crece exponencialmente con el n´umero de objetivos [18, 22]. Algunas propuestas han
tratado de reducir el costo computacional del c´alculo del hipervolumen [22, 23, 24]. Sin
embargo, al aumentar el n´umero de objetivos, la calidad de las soluciones obtenidas
con este tipo de m´etodos se ve afectada en gran medida.
En los ´ultimos a˜nos, los indicadores de desempe˜no ∆p [25] y R2 [26] se han uti-
lizado dentro de esquemas de selecci´on de AEMOs como alternativas al hipervolu-
men [27, 28, 29, 30], debido principalmente a sus bajos costos computacionales. ∆p
puede ser visto como la distancia Hausdorff promedio entre un conjunto de soluciones
y el frente de Pareto. Este indicador est´a constituido por la modificaci´on de otros
dos indicadores de desempe˜no: la distancia generacional y la distancia generacional
invertida. Por su parte, el indicador R2 fue propuesto inicialmente para comparar
aproximaciones del frente de Pareto con base en un conjunto de funciones de uti-
lidad [31]. Su caracter´ıstica m´as relevante es ser d´ebilmente mon´otono, adem´as de
poseer cierta correlaci´on con el hipervolumen [31].
CINVESTAV-IPN Departamento de Computaci´on
Introducci´on 3
1.2. Descripci´on del problema
En la actualidad, existe un gran n´umero de problemas con varios objetivos en
conflicto que deben ser optimizados. En muchos de ellos, son m´as de tres las funciones
objetivo que deben optimizarse simult´aneamente. Sin embargo, la dominancia de
Pareto ha demostrado ser insuficiente para diferenciar los individuos en espacios de
soluci´on con alta dimensionalidad.
Varios mecanismos de selecci´on han sido desarrollados para enfrentar esta dificul-
tad. Se han propuesto formas relajadas de la dominancia de Pareto, reducir el n´umero
de objetivos, enfocarse en ´areas espec´ıficas del espacio de los objetivos o utilizar fun-
ciones de escalarizaci´on. Sin embargo, son los AEMOs basados en el hipervolumen
los que han mostrado el mejor desempe˜no. No obstante, los algoritmos basados en
el hipervolumen o bien poseen un costo computacional muy elevado, o la calidad de
las soluciones que producen se degrada r´apidamente seg´un aumenta el n´umero de ob-
jetivos. Otros indicadores poseen menor complejidad computacional, pero la calidad
de sus soluciones no iguala la obtenida con el hipervolumen. Debido a esto, persiste
la necesidad de buscar esquemas de selecci´on escalables con el n´umero de objetivos.
Esto es, se requieren mecanismos de selecci´on tales que al aumentar el n´umero de
objetivos, tengan un costo computacional bajo y sean capaces de obtener una buena
aproximaci´on del frente de Pareto.
1.3. Objetivos
En este trabajo se pretende desarrollar un algoritmo evolutivo multiobjetivo capaz
de solucionar problemas con m´as de tres objetivos. Nos enfocaremos principalmente en
el mecanismo de selecci´on, pues se desea que este escale correctamente con el n´umero
de objetivos. La idea principal radica en transformar el problema de seleccionar los
individuos m´as aptos en un problema de asignaci´on lineal, el cual pueda ser resuelto
mediante el algoritmo de Kuhn-Munkres.
General
Proponer un algoritmo evolutivo multiobjetivo basado en un nuevo esquema de
selecci´on que mejore el desempe˜no de los algoritmos representativos del estado del
arte en la optimizaci´on de muchas funciones objetivo.
Particulares
1. Estudio de los algoritmos evolutivos para la optimizaci´on de muchos objetivos.
2. Adaptar el problema de la selecci´on de individuos en una poblaci´on para ser
resuelto con el algoritmo de asignaci´on lineal de Kuhn-Munkres.
CINVESTAV-IPN Departamento de Computaci´on
4 Cap´ıtulo 1
3. Implementar un m´etodo de dise˜no uniforme para generar conjuntos de vectores
de pesos uniformemente espaciados.
4. Implementar un algoritmo evolutivo multiobjetivo con un esquema de selecci´on
basado en el algoritmo de Kuhn-Munkres.
5. Comparar el algoritmo propuesto con otros representativos del estado del arte,
utilizando diversos problemas de prueba.
1.4. Estructura del documento
El presente documento consta de seis cap´ıtulos que describen el trabajo realizado
y los resultados experimentales obtenidos. A continuaci´on, se describe de forma breve
el contenido de los siguientes cap´ıtulos.
En el Cap´ıtulo 2, se especifican formalmente los problemas de optimizaci´on mul-
tiobjetivo sobre los que trabajaremos, se describen las caracter´ısticas principales de la
computaci´on evolutiva, as´ı como los distintos paradigmas que la componen. Adem´as,
se presentan otras metaheur´ısticas que han sido empleadas con ´exito en la optimiza-
ci´on multiobjetivo.
El Cap´ıtulo 3 contiene una revisi´on de las principales t´ecnicas inspiradas en los
algoritmos evolutivos y otras metaheur´ısticas para solucionar problemas con m´as de
tres funciones objetivo. Estas t´ecnicas se dividen en distintas categor´ıas seg´un las
caracter´ısticas de su mecanismo de selecci´on.
Nuestra propuesta se introduce en el Cap´ıtulo 4, donde se describen cada uno
de los componentes de nuestro algoritmo, as´ı como los conceptos fundamentales en
los que se basa su funcionamiento.
En el Cap´ıtulo 5 se explican los problemas utilizados para evaluar el desempe˜no
de nuestra propuesta con respecto a otros algoritmos evolutivos del estado del arte
y se presentan las medidas de desempe˜no utilizadas en la comparaci´on. Adem´as, se
muestran los resultados experimentales obtenidos y se realiza un an´alisis de sensibi-
lidad de nuestro algoritmo con respecto a cada una de sus componentes.
Finalmente, en el Cap´ıtulo 6, se discuten los principales resultados obtenidos
y su relevancia, as´ı como los trabajos futuros a desarrollar como consecuencia de la
investigaci´on presente.
CINVESTAV-IPN Departamento de Computaci´on
Cap´ıtulo 2
Fundamentos Te´oricos
En este cap´ıtulo se presentan los conceptos b´asicos necesarios para comprender el
resto del documento. La secci´on 2.1 contiene una serie de definiciones matem´aticas
relacionadas con la optimizaci´on multiobjetivo. En esta secci´on tambi´en se describen
las principales caracter´ısticas de los problemas de prueba utilizados para evaluar
los algoritmos de optimizaci´on multiobjetivo. Adem´as, se explican las propiedades
deseables en el conjunto de soluciones de un problema de optimizaci´on multiobjetivo y
se especifican algunos de los indicadores m´as utilizados para medir estas propiedades.
En la secci´on 2.2 se realiza una breve descripci´on de las caracter´ısticas fundamentales
de la computaci´on evolutiva y sus paradigmas m´as representativos. Finalmente, en la
secci´on 2.3 se comentan diversas metaheur´ısticas recientes que han sido aplicadas en
la optimizaci´on multiobjetivo.
2.1. Optimizaci´on multiobjetivo
Un problema de optimizaci´on consiste en seleccionar el mejor elemento de un con-
junto con base en alg´un criterio, i.e., encontrar un vector de variables de decisi´on que
satisfaga un conjunto de restricciones y maximice (o minimice) una o m´as funciones
objetivo. Los problemas de optimizaci´on que poseen una ´unica funci´on objetivo se
denominan problemas de optimizaci´on mono-objetivo y aquellos con dos o m´as fun-
ciones objetivo se conocen como problemas de optimizaci´on multiobjetivo (POMs).
En la mayor´ıa de las ocasiones, las funciones objetivo de un POM se expresan en
unidades diferentes y se encuentran en conflicto entre s´ı. A continuaci´on se presenta
una definici´on formal de los POMs.
Definici´on 1 (Problema de optimizaci´on multiobjetivo) Sea Ω el espacio de
definici´on de las variables de decisi´on, encontrar un vector x∗
= [x∗
1, x∗
2, . . . , x∗
n]T
∈ Ω
que satisfaga las m restricciones de desigualdad gi (x) ≤ 0, i = 1, 2, . . . , m, las p res-
tricciones de igualdad hj (x) = 0, j = 1, 2, . . . , p y maximice (o minimice) el vector de
funciones objetivo f(x) = [f1(x), f2(x), . . . , fk(x)]T
, donde x = [x1, x2, . . . , xn]T
∈ Ω.
5
6 Cap´ıtulo 2
Definici´on 2 (Regi´on factible) Es el conjunto F de todos los vectores de variables
de decisi´on x = [x1, x2, . . . , xn]T
∈ Ω que satisfacen las m restricciones de desigualdad
gi (x) ≤ 0, i = 1, 2, . . . , m y las p restricciones de igualdad hj (x) = 0, j = 1, 2, . . . , p.
En los problemas de optimizaci´on mono-objetivo el espacio de definici´on de la
funci´on objetivo posee un orden total, permitiendo la comparaci´on de todo par de
valores. Debido a lo anterior, este tipo de problemas tiene generalmente una ´unica
soluci´on. Sin embargo, en los POMs los objetivos pueden estar en conflicto, haciendo
incomparables a las soluciones. En este caso, la noci´on de ´optimo m´as aceptada es
la propuesta originalmente por Francis Ysidro Edgeworth en 1881 y generalizada
posteriormente por Vilfredo Pareto en 1896, m´as conocida por el nombre de ´optimo
de Pareto. Seg´un este criterio, la soluci´on de un POM no es ´unica, sino un conjunto
de soluciones que representa los mejores compromisos posibles entre las funciones
objetivo. Este conjunto de soluciones se denomina conjunto de ´optimos de Pareto y
su imagen en el espacio de los objetivos se nombra frente de Pareto.
A continuaci´on, se presentar´an varias definiciones relacionadas con el concepto de
´optimo de Pareto, en las cuales se asume (sin perder generalidad) solo problemas de
minimizaci´on y que el vector de funciones objetivo es f : Rn
→ Rk
.
Definici´on 3 (Dominancia de Pareto) Dados dos vectores x, y ∈ Rk
, se dice que
x domina a y (denotado por x y) si y solo si xi ≤ yi, i = 1, ..., k y x = y.
Definici´on 4 (Vector no dominado) Se dice que un vector de variables de deci-
si´on x ∈ X ⊂ Rn
es no dominado con respecto a X, si no existe otro x ∈ X tal que
f(x ) f(x).
Definici´on 5 (´Optimo de Pareto) Un vector de variables de decisi´on x∗
∈ F ⊂
Rn
(F es la regi´on factible) se dice que es un ´optimo de Pareto, si es no dominado
con respecto a F.
Definici´on 6 (Conjunto de ´optimos de Pareto) Sea F la regi´on factible de un
problema de optimizaci´on multiobjetivo, el conjunto de ´optimos de Pareto P∗
se
define como:
P∗
= {x ∈ F | x es un ´optimo de Pareto}
Definici´on 7 (Frente de Pareto) Sea P∗
el conjunto de ´optimos de Pareto de un
problema de optimizaci´on multiobjetivo, el frente de Pareto PF∗
se define como:
PF∗
= {f(x) ∈ Rk
| x ∈ P∗
}
De acuerdo con las condiciones de Karush-Kuhn-Tucker [32, 33], en los problemas
de optimizaci´on continuos con k objetivos, el frente de Pareto es una variedad continua
a trozos de dimensi´on k − 1. Por ejemplo, en el caso m´as simple de dos objetivos, el
frente de Pareto ser´a una curva (o un conjunto de segmentos de curva). En general, no
es f´acil encontrar una expresi´on anal´ıtica de la curva, superficie o variedad de mayor
CINVESTAV-IPN Departamento de Computaci´on
Fundamentos Te´oricos 7
dimensi´on que corresponda al frente de Pareto de un POM y, de hecho, en la mayor´ıa
de los casos resulta imposible. El procedimiento usual para generar el frente de Pareto
es encontrar un gran n´umero de soluciones no dominadas y evaluarlas en las funciones
objetivo [1]. El frente de Pareto as´ı obtenido estar´a conformado por un n´umero finito
de soluciones computacionalmente representables y a las que denominaremos en esta
tesis como frente de Pareto aproximado.
2.1.1. Problemas de prueba
En la literatura especializada se han propuesto varios problemas que permiten
evaluar el desempe˜no de los algoritmos de optimizaci´on multiobjetivo. Entre los m´as
representativos y de mayor uso se encuentran los conjuntos de prueba Deb-Thiele-
Laumanns-Zitzler (DTLZ) [128] y Walking-Fish-Group (WFG) [129]. Estos conjun-
tos contienen 16 problemas artificiales que son escalables con respecto al n´umero de
variables de decisi´on y al n´umero de objetivos. Adem´as, a estos problemas se les co-
noce el conjunto de soluciones ´optimas de Pareto y la geometr´ıa del frente de Pareto.
Tanto los problemas DTLZ como los WFG permiten analizar la capacidad que tiene
un algoritmo de converger hacia el frente de Pareto y mantener una buena diversi-
dad de las soluciones, al mismo tiempo que enfrenta una serie de dificultades. Estas
dificultades est´an relacionadas con las propiedades de cada problema, tales como la
geometr´ıa del frente de Pareto, la presencia de varios ´optimos locales, la variaci´on de
la distribuci´on de las soluciones en el espacio objetivo y la existencia de vectores de
variables que corresponden a un mismo vector soluci´on. En la tabla 2.1 se presenta
un resumen de estas caracter´ısticas para cada problema.
Los problemas clasificados como separables se pueden optimizar considerando una
sola variable a la vez, de manera independiente al resto de las variables. Los problemas
DTLZ1 a 4 no son estrictamente separables, pues no se puede garantizar que al
optimizarlos de esta manera se obtengan todas las soluciones ´optimas. En cuanto a los
problemas que poseen varios ´optimos locales, ´estos representan un verdadero reto para
los algoritmos de optimizaci´on. Por ejemplo, DTLZ1 tiene 11k
− 1 frentes de Pareto
locales (k es un par´ametro), en los cuales puede quedar atrapado un algoritmo de
optimizaci´on antes de alcanzar el verdadero frente de Pareto. En el caso de DTLZ3 el
n´umero de frentes de Pareto locales es 3k
−1. Un caso especial dentro de los problemas
con m´ultiples ´optimos locales son los problemas deceptivos. Estos problemas est´an
compuestos por una o m´as funciones objetivo que tienen al menos dos ´optimos, el
´optimo verdadero y un ´optimo falso, siendo este ´ultimo el m´as f´acil de localizar en el
espacio de b´usqueda.
En la tabla 2.1 se puede observar la diversidad que presentan los conjuntos de
prueba DTLZ y WFG en cuanto a la geometr´ıa del frente de Pareto. Algunos de estos
frentes de Pareto se consideran mixtos porque tienen secciones de distintas geometr´ıas.
En problemas como DTLZ7 y WFG2 el frente de Pareto no es una variedad continua,
sino que est´a constituido por secciones desconectadas entre s´ı. En el caso de DTLZ7,
el n´umero de regiones desconectadas es 2m−1
, donde m es el n´umero de objetivos.
CINVESTAV-IPN Departamento de Computaci´on
8 Cap´ıtulo 2
Tabla 2.1: Propiedades de los problemas de prueba DTLZ y WFG.
Problema Separable
M´ultiples ´optimos
locales
Geometr´ıa del
frente de Pareto
Distribuci´on de
las soluciones
DTLZ1 si∗
si lineal uniforme
DTLZ2 si∗
no c´oncavo uniforme
DTLZ3 si∗
si c´oncavo uniforme
DTLZ4 si∗
no c´oncavo polinomial
DTLZ5 desconocido no
degenerado,
arco
uniforme
DTLZ6 desconocido no
degenerado,
arco
dependiente de
par´ametro
DTLZ7 fm si f1:m−1 no, fm si
desconectado,
mixto
uniforme
WFG1 si no
f1:m−1 convexo,
fm mixto
polinomial,
regiones planas
WFG2 no f1:m−1 no, fm si
desconectado,
convexo
uniforme
WFG3 no no
degenerado,
lineal
uniforme
WFG4 si si c´oncavo uniforme
WFG5 si deceptivo c´oncavo uniforme
WFG6 no no c´oncavo uniforme
WFG7 si no c´oncavo
dependiente de
par´ametro
WFG8 no no c´oncavo
dependiente de
par´ametro
WFG9 no si, deceptivo c´oncavo
dependiente de
par´ametro
En DTLZ5, DTLZ6 y WFG3, el frente de Pareto es degenerado, debido a que su
dimensi´on es inferior a m − 1 en un espacio objetivo de dimensi´on m.
Una de las propiedades que influye directamente en el proceso de b´usqueda de
un algoritmo de optimizaci´on multiobjetivo es la distribuci´on de las soluciones en
el espacio objetivo. Este impacto es m´as negativo mientras mayor sea el grado de
variaci´on de la densidad de las soluciones. En varios de los problemas de la tabla 2.1,
las soluciones uniformemente dispersas en el espacio de las variables no se distribuyen
de manera uniforme en el espacio objetivo. Un caso especial se presenta en problemas
CINVESTAV-IPN Departamento de Computaci´on
Fundamentos Te´oricos 9
que poseen un conjunto de vectores de variables a los cuales les corresponde la misma
soluci´on en el espacio objetivo; esto se conoce como regi´on plana.
En los problemas DTLZ la relaci´on entre el n´umero de variables (n) y el n´umero
de objetivos (m) est´a dada por la expresi´on n = m + k − 1, donde k es un par´ametro
definido por el usuario y determina el grado de dificultad del problema. El dominio de
las variables en estos problemas est´a acotado entre 0 y 1 (xi ∈ [0, 1], ∀i ∈ {1 . . . n}).
El valor de los objetivos en las soluciones del frente de Pareto se encuentra en [0, 0.5]
para DTLZ1 y en [0, 1] para DTLZ2 a 7. Dado que el valor de todos los objetivos
se encuentra en un mismo rango, estos problemas se consideran normalizados. Por el
contrario, los problemas WFG tienen un rango distinto para el valor de cada objetivo
(fj(x) ∈ [0, 2j], ∀j ∈ {1, . . . , m}) y para el dominio de cada variable (xi ∈ [0, 2i], ∀i ∈
{1 . . . n}). Adem´as, el n´umero de variables lo determinan los par´ametros k y l (n =
k + l), que representan el grado de dificultad del problema en cuanto a convergencia
y distribuci´on de las soluciones, respectivamente.
2.1.2. Indicadores de desempe˜no
Cuando se utiliza un algoritmo evolutivo multiobjetivo (AEMO) para solucionar
un problema de optimizaci´on multiobjetivo se obtiene un conjunto de vectores no
dominados entre s´ı, los cuales se espera que aproximen lo mejor posible el frente de
Pareto. Generalmente, para evaluar la calidad de esta aproximaci´on se consideran
tres aspectos [3, 130]:
1. Convergencia de las soluciones, de tal forma que la distancia entre el conjunto
obtenido y el verdadero frente de Pareto sea m´ınima.
2. Buena distribuci´on de las soluciones en el espacio objetivo, es decir, una distri-
buci´on de las soluciones lo m´as uniforme posible.
3. La extensi´on del conjunto de soluciones en el espacio objetivo debe cubrir la
mayor regi´on posible.
En la figura 2.1.2 (a) se presenta un conjunto de soluciones que cumplen con los
criterios 1 y 3, pero no poseen una distribuci´on uniforme. El ejemplo mostrado en
(b) posee buena extensi´on y distribuci´on, pero no una buena convergencia. En (c),
los criterios 1 y 2 se satisfacen, siendo la extensi´on la caracter´ıstica deficiente de este
conjunto. La aproximaci´on deseada del frente de Pareto es la mostrada en (d), pues
satisface los tres criterios simult´aneamente. Para referirse tanto a la extensi´on como
a la buena distribuci´on de un conjunto de soluciones es com´un utilizar el t´ermino
diversidad. De esta manera, las caracter´ısticas deseadas en una aproximaci´on del
frente de Pareto se reducen a dos: la convergencia y la diversidad de las soluciones.
A continuaci´on, se describen dos indicadores de desempe˜no utilizados frecuen-
temente para evaluar la calidad de las soluciones obtenidas con los AEMOs y que
cuentan con una amplia aceptaci´on en la literatura especializada [3, 19, 25]. Es-
tos indicadores son el Hipervolumen (IHV ) y la Distancia Generacional Invertida
CINVESTAV-IPN Departamento de Computaci´on
10 Cap´ıtulo 2
f2
f1
(a)
f2
f1
(b)
f2
f1
(c)
f2
f1
(d)
Figura 2.1: Caracter´ısticas del conjunto de soluciones que aproximan a un frente de Pareto.
En (a) las soluciones no poseen una distribuci´on uniforme, en (b) las soluciones no convergen
al frente de Pareto verdadero y en (c) las soluciones no se extienden por todo el frente. Las
soluciones presentadas en (d) si poseen al mismo tiempo las tres propiedades deseables en
una aproximaci´on del frente de Pareto: distribuci´on uniforme, convergencia y extensi´on.
(IIGD). Cada una de estas medidas refleja en un ´unico valor la convergencia y la
diversidad de un conjunto de soluciones no dominadas. El hipervolumen es el vo-
lumen del espacio objetivo dominado por las soluciones que aproximan el frente de
Pareto P = f(x∗
1 ), . . . , f(x∗
N ) y acotado por un punto de referencia r, tal que
∀i ∈ [1, N], f(x∗
i ) r. Por tanto, se puede expresar matem´aticamente el hipervolu-
men como
IHV (P , r) = volumen
N
i=1
vi , (2.1)
donde vi representa el hiper-rect´angulo que se forma entre el punto de referencia r y la
soluci´on no dominada f(x∗
i ). Entre dos conjuntos que aproximen un frente de Pareto,
se considera mejor aquel con mayor hipervolumen. Por su parte, el indicador IIGD
es una distancia promedio entre las soluciones aproximadas P y el verdadero frente
de Pareto, siendo mejor el conjunto de soluciones que posea el menor valor de IIGD.
Sin embargo, para la mayor´ıa de los problemas de prueba no es pr´actico calcular el
frente de Pareto en su totalidad. Debido a esto, el valor de IIGD se obtiene utilizando
un conjunto ˜P representativo del verdadero frente de Pareto. Es importante resaltar
que ˜P debe cumplir con los tres criterios mencionados al inicio de esta secci´on. La
expresi´on matem´atica que define a IIGD es
IIGD(P , ˜P) = ν∈ ˜P d(ν, P )
| ˜P |
, (2.2)
donde d(ν, P ) es la m´ınima distancia euclidiana entre ν ∈ ˜P y las soluciones en P . La
precisi´on con que IIGD puede medir la uniformidad y la convergencia de las soluciones
en P depende del conjunto ˜P. Por tanto, ˜P debe ser lo suficientemente grande para
representar el verdadero frente de Pareto en toda su extensi´on y con distribuci´on
uniforme.
CINVESTAV-IPN Departamento de Computaci´on
Fundamentos Te´oricos 11
2.2. Computaci´on evolutiva
La Computaci´on Evolutiva es la rama de la Inteligencia Artificial que re´une las
t´ecnicas inspiradas en los mecanismos de la evoluci´on y la selecci´on natural. A estas
t´ecnicas se les conoce como Algoritmos Evolutivos (AEs) y simulan los procesos evo-
lutivos enunciados en el Neo-Darwinismo. El t´ermino Neo-Darwinismo representa la
uni´on de tres teor´ıas principales: la teor´ıa de la selecci´on natural de Charles Darwin,
la gen´etica de Gregor Mendel y la teor´ıa del plasma germinal de August Weismann.
La teor´ıa de la evoluci´on por selecci´on natural planteada por Darwin considera
que toda poblaci´on se compone de individuos ligeramente distintos entre s´ı y, debido
a estas peque˜nas variaciones, cada uno tiene distintas capacidades para adaptarse a
su medio ambiente. Los individuos con mayor aptitud para adaptarse son selecciona-
dos con mayor probabilidad para reproducirse y transmitir sus rasgos a la pr´oxima
generaci´on. De esta forma, las caracter´ısticas necesarias para sobrevivir se vuelven
m´as comunes, haciendo que la poblaci´on, en su conjunto, evolucione.
La gen´etica de Mendel consiste en tres leyes que explican c´omo se heredan y
expresan en los descendientes las caracter´ısticas de sus progenitores. La Ley de la
Segregaci´on establece que durante la formaci´on de los gametos se separan los dos
alelos que codifican cada caracter´ıstica y se combina un alelo materno con uno paterno
para formar el par descendiente, asegurando la variaci´on. La Ley de la Independencia
plantea que diferentes rasgos son heredados independientemente unos de otros y no
existe relaci´on entre ellos. Por lo tanto, el patr´on de herencia de un rasgo no afectar´a al
patr´on de herencia de otro. Por ´ultimo, la Ley de la Uniformidad manifiesta que al
cruzar dos individuos con caracter´ısticas puras y distintas entre s´ı, los descendientes de
la primera generaci´on ser´an todos iguales entre s´ı, e iguales a uno de los progenitores.
La teor´ıa del plasma germinal de August Weismann expresa que los organismos
pluricelulares est´an constituidos por c´elulas germinales, encargadas de transmitir la
informaci´on hereditaria a la descendencia, y c´elulas som´aticas, responsables de las
dem´as funciones en el organismo. Las c´elulas germinales producen c´elulas som´aticas,
pero estas ´ultimas no pueden transmitir informaci´on a las c´elulas germinales, lo cual
se conoce como la barrera de Weismann. Por tanto, las habilidades aprendidas por el
individuo durante su vida no pueden ser heredadas a la siguiente generaci´on.
Las tres teor´ıas anteriores forman las bases del Neo-Darwinismo, el cual establece
a manera de s´ıntesis que la diversidad de la vida en el planeta se puede explicar
mediante cuatro procesos estoc´asticos:
Reproducci´on: es el proceso mediante el cual se producen nuevos individuos,
asegurando la permanencia del material gen´etico de la especie en las futuras
generaciones y el surgimiento de nuevas caracter´ısticas, debido a la combinaci´on
de los individuos progenitores.
Mutaci´on: se produce durante la reproducci´on, debido a un error en la copia
del material gen´etico, alterando as´ı la informaci´on transmitida al individuo.
Las nuevas caracter´ısticas surgidas por la mutaci´on pueden ser heredadas a
CINVESTAV-IPN Departamento de Computaci´on
12 Cap´ıtulo 2
la descendencia y en algunas ocasiones, estas caracter´ısticas incrementan la
aptitud del individuo para adaptarse a su medio ambiente.
Competencia: es la rivalidad entre los individuos que comparten un h´abitat,
debido a la limitada disponibilidad de los recursos necesarios para sobrevivir.
Selecci´on: es el proceso que otorga mayor oportunidad de reproducirse a los
individuos m´as aptos para sobrevivir, transmitiendo su informaci´on gen´etica a
una mayor proporci´on de la poblaci´on.
La idea de aplicar los procesos de la evoluci´on natural en la computaci´on tiene uno
de sus primeros antecedentes en el trabajo de Alan M. Turing de 1950 [34]. Pero no
es sino hasta finales de los 1950s cuando se publican una serie de estudios que sirven
de inspiraci´on para el posterior desarrollo de lo que hoy se conoce como la Compu-
taci´on Evolutiva. Entre ellos se destacan los del bi´ologo Alexander S. Fraser [35]. Una
de las primeras aplicaciones en la soluci´on de un problema pr´actico fue el enfoque
evolutivo propuesto por George E. P. Box [36] para la optimizaci´on de la producci´on
industrial. Desde entonces, la optimizaci´on ha sido uno de los objetivos principales
de los Algoritmos Evolutivos.
La simulaci´on en una computadora de los procesos evolutivos planteados por el
Neo-Darwinismo requiere de cuatro aspectos b´asicos:
Codificar las estructuras que se replicar´an. Esto se logra utilizando estructuras
de datos para representar las posibles soluciones del problema, tambi´en conoci-
das como individuos.
Operaciones que afecten a los individuos. Se deben crear operadores de variaci´on
basados en los principios de la reproducci´on y la mutaci´on, los cuales puedan
generar nuevos individuos.
Una funci´on de aptitud. Esta funci´on se encarga de evaluar la calidad de la
soluci´on y, a la vez, permite establecer la competencia entre individuos.
Un mecanismo de selecci´on. Se basa en la funci´on de aptitud para decidir los
individuos con m´as probabilidad de transmitir sus caracter´ısticas.
En sus inicios, desde los a˜nos 1960s, los algoritmos inspirados en el Neo-Darwinismo
se desarrollaron bajo tres paradigmas principales, que se originaron de manera in-
dependiente y con motivaciones distintas. Estos son: Programaci´on Evolutiva, Es-
trategias Evolutivas y Algoritmos Gen´eticos. Posteriormente, se agruparon bajo el
nombre de Algoritmos Evolutivos y, en la actualidad, las algoritmos propuestos usan
indistintamente caracter´ısticas de uno y otro paradigma. Los tres paradigmas poseen
elementos comunes en su funcionamiento, los cuales se presentan en el Algoritmo 1.
En las secciones siguientes se destacan las caracter´ısticas espec´ıficas de cada tipo de
algoritmo evolutivo.
CINVESTAV-IPN Departamento de Computaci´on
Fundamentos Te´oricos 13
Algoritmo 1 Esquema general de un algoritmo evolutivo
1: Generar una poblaci´on inicial con soluciones candidatas aleatorias
2: Calcular la aptitud de cada soluci´on candidata
3: while no se satisfaga la condici´on de terminaci´on do
4: Seleccionar los individuos padres
5: Aplicar operadores de variaci´on a los padres y obtener los hijos
6: Calcular la aptitud de cada hijo
7: Determinar los individuos que pasan a la pr´oxima generaci´on
8: end while
2.2.1. Programaci´on evolutiva
La Programaci´on Evolutiva (PE) fue propuesta por Lawrence J. Fogel en los
a˜nos 1960s [37], quien entend´ıa la inteligencia como un comportamiento adaptativo.
Seg´un Fogel, el comportamiento inteligente requiere de dos habilidades: 1) la habilidad
de un organismo para hacer predicciones correctas dentro de su ambiente y 2) la
capacidad de traducir estas predicciones en una respuesta adecuada para una meta
dada. Los aut´omatas de estado finito fueron la representaci´on ideal para modelar este
comportamiento.
La PE enfatiza los nexos de comportamiento entre padres e hijos y se inspira en la
evoluci´on al nivel de las especies, por lo que no utiliza un operador de recombinaci´on
(diferentes especies no se pueden cruzar entre s´ı). El ´unico operador de variaci´on que
incorpora es la mutaci´on. La selecci´on en la PE se realiza normalmente mediante
un torneo estoc´astico, que consiste en comparar un n´umero de individuos entre s´ı y
seleccionar, con determinada probabilidad, el de mayor aptitud.
2.2.2. Estrategias evolutivas
Las Estrategias Evolutivas (EEs) tienen su origen en 1964, con los trabajos de
los alemanes Peter Bienert, Ingo Rechenberg y Hans-Paul Schwefel [38]. Este modelo
fue inicialmente concebido para resolver problemas hidrodin´amicos de alto grado de
complejidad. La representaci´on de cada individuo fue un vector de valores reales, el
cual era manipulado, principalmente, por operadores de mutaci´on que perturbaban
los valores reales.
La versi´on original, denotada por (1+1)-EE, usa un solo padre y produce en cada
iteraci´on un solo hijo, mediante un operador de mutaci´on. Si el hijo obtenido tiene
mayor aptitud que el padre (i.e., representa una mejor soluci´on) es seleccionado para
ser el padre de la pr´oxima generaci´on. En caso contrario, es eliminado y se conserva
el mismo padre. Este tipo de selecci´on se llama extintiva porque los peores individuos
no tienen oportunidad de ser seleccionados.
En la (1+1)-EE, a partir de un padre x(t)
= (x
(t)
1 , x
(t)
2 , . . . , x
(t)
n ), se genera al hijo
mediante la expresi´on:
x
(t+1)
i = x
(t)
i + Ni(0, σi)
CINVESTAV-IPN Departamento de Computaci´on
14 Cap´ıtulo 2
donde t es la generaci´on a la que pertenece el individuo padre y corresponde al n´umero
de iteraciones realizadas por el algoritmo. El valor de Ni(0, σi) es un n´umero aleatorio,
generado con una distribuci´on normal de media cero y desviaci´on est´andar σi
En trabajos posteriores, se desarrollaron distintas variantes de la (1+1)-EE. Re-
chenberg propuso en [39] la estrategia evolutiva (µ+1)-EE, en donde los padres se
seleccionan de entre µ individuos para generar un solo hijo. De esta forma se introdu-
ce el concepto de poblaci´on en las EEs, pues en cada generaci´on se tiene un conjunto
de µ individuos. En la (µ+1)-EE, el hijo reemplaza al peor individuo de la poblaci´on,
lo cual coincide con la selecci´on extintiva de la (1+1)-EE. Sin embargo, es en los
trabajos de Schwefel [40] que aparece el uso de m´ultiples hijos, con las estrategias
evolutivas (µ,λ)-EE y (µ+λ)-EE. En la primera estrategia se producen λ hijos, de
los cuales los µ mejores pasan a la siguiente generaci´on como ´unicos sobrevivientes.
En cambio, la estrategia (µ+λ)-EE selecciona como sobrevivientes a los µ mejores
individuos de la combinaci´on entre padres e hijos.
Una caracter´ıstica relevante de las estrategias evolutivas, conocida con el nom-
bre de autoadaptaci´on, es que evoluciona no solo a las variables del problema, sino
tambi´en a los par´ametros mismos de la t´ecnica (las desviaciones est´andar). La adap-
taci´on autom´atica de la desviaci´on est´andar fue propuesta Schwefel [40] y consiste en
representar cada individuo con la tupla (x(t)
, σ(t)
).
2.2.3. Algoritmos gen´eticos
Los Algoritmos Gen´eticos (AGs) fueron propuestos por John H. Holland a princi-
pios de los 1960s [41], motivado por su inter´es en resolver problemas de aprendizaje
de m´aquina, y se han convertido en la t´ecnica evolutiva m´as popular. El desarrollo
de los AGs estuvo influenciado por el estudio formal de los procesos de adaptaci´on
natural y el traslado de estos mecanismos a la computaci´on. Por lo cual, en los AGs
se utilizan conceptos gen´eticos que no aparecen en los otros dos paradigmas, tales
como: genotipo y fenotipo. En la evoluci´on natural, el genotipo representa la infor-
maci´on gen´etica de un individuo, que ha sido heredada de sus antepasados y puede
transmitir a sus descendientes. En cuanto al fenotipo, son las caracter´ısticas que se
manifiestan en un individuo por la expresi´on de su genotipo.
Una de las particularidades de los AGs es la codificaci´on del fenotipo (soluciones
potenciales del problema) en el genotipo (generalmente una cadena binaria). Por
tanto, los individuos se representan con una secuencia de ceros y unos, a la cual se
le llama cromosoma. A cada posici´on del cromosoma se le denomina gene y al valor
dentro de esta posici´on se le llama alelo.
La representaci´on empleada en los AGs hace que los operadores de variaci´on act´uen
directamente sobre el genotipo, a diferencia de lo que ocurre en las EEs y la PE,
donde estos operadores act´uan sobre el fenotipo. Adem´as, los algoritmos gen´eticos
reconocen la importancia de la cruza sexual (la cual es su operador principal) sobre
la mutaci´on. La cruza sexual utilizada en los AGs tiene su inspiraci´on en las Leyes
de Mendel. Este operador de reproducci´on se aplica sobre dos padres y genera dos
CINVESTAV-IPN Departamento de Computaci´on
Fundamentos Te´oricos 15
hijos, los cuales poseen genes heredados de ambos padres. Por su parte, el operador
de mutaci´on puede modificar uno o m´as genes de cada cromosoma hijo.
El mecanismo de selecci´on utilizado en los AGs permite elegir a los individuos
de acuerdo a su aptitud. Generalmente la selecci´on es proporcional al valor de la
aptitud y se aplica de manera estoc´astica (otorga a los menos aptos cierta probabilidad
de reproducirse). Otro mecanismo importante dentro de los AGs es el elitismo. Se
ha demostrado [42] que los AGs requieren de elitismo, i.e., retener intacto al mejor
individuo de cada generaci´on para poder converger a la soluci´on ´optima del problema.
2.2.4. Ventajas de los algoritmos evolutivos
El uso de las algoritmos evolutivos para resolver problemas de b´usqueda y op-
timizaci´on presenta diversas ventajas, lo que ha motivado su aplicaci´on en diversas
´areas [1]. Estas t´ecnicas han mostrado, en varios tipos de problemas, mejores desem-
pe˜nos que las t´ecnicas tradicionales [43]. A continuaci´on, se presentan algunas de estas
ventajas.
Simplicidad conceptual y amplia aplicabilidad.
Usan una poblaci´on de soluciones potenciales en vez de un solo individuo, lo
cual las hace menos susceptibles a quedar atrapadas en ´optimos locales.
No necesitan conocimientos espec´ıficos sobre el problema que intentan resolver.
Pueden explotar f´acilmente las arquitecturas en paralelo.
Son robustas a los cambios din´amicos y generalmente pueden auto-adaptar sus
par´ametros.
Tienen el potencial para incorporar conocimiento sobre el dominio del problema
y formar h´ıbridos con otras t´ecnicas de optimizaci´on.
2.3. Metaheur´ısticas Alternativas
Los Algoritmos Evolutivos se han utilizado con ´exito para resolver un gran n´ume-
ro de problemas de b´usqueda y optimizaci´on, pero no han sido las ´unicas t´ecnicas
desarrolladas para enfrentar esos problemas. Otras metaheur´ısticas propuestas, en su
mayor´ıa en a˜nos posteriores al surgimiento de los AEs, se han inspirado en diversos
fen´omenos que ocurren en la naturaleza. Entre las que han generado mayor atenci´on
se encuentran: Recocido Simulado, B´usqueda Tab´u, Optimizaci´on por Enjambre de
Part´ıculas y Evoluci´on Diferencial.
El Recocido Simulado (RS) es un algoritmo de b´usqueda estoc´astica basado en
la evoluci´on de un s´olido desde una temperatura inicial hasta alcanzar su equilibrio
t´ermico. Fue propuesto por Kirkpatrick et al. (1983) [44] y ˇCerny (1985) [45], quienes
CINVESTAV-IPN Departamento de Computaci´on
16 Cap´ıtulo 2
de forma independiente observaron la relaci´on entre el proceso de recocido y la opti-
mizaci´on combinatoria. En el RS, el estado del s´olido es an´alogo a una soluci´on del
problema. En cada iteraci´on se genera una nueva soluci´on mediante cambios locales
y es aceptada en funci´on de su calidad y de la temperatura, la cual disminuye al
acercarse al equilibrio t´ermico (equivalente al ´optimo). El RS se ha adaptado para
problemas de optimizaci´on en espacios continuos y con varios objetivos [1, 46].
La B´usqueda Tab´u (BT) fue propuesta por Fred Glover [47] a mediados de los
1980s y se basa en la informaci´on hist´orica del proceso de b´usqueda. La BT posee
tres componentes principales que gu´ıan la b´usqueda. El primero es una memoria
de corto plazo que contiene las soluciones exploradas recientemente y las declara
tab´u para no volver a visitarlas (evita los ciclos). El segundo componente es una
memoria que almacena las mejores soluciones encontradas y las utiliza como semillas
para intensificar la b´usqueda. El ´ultimo componente es una memoria de largo plazo
que almacena las regiones exploradas y se usa para diversificar la b´usqueda. La BT
se concibi´o inicialmente para problemas de optimizaci´on combinatoria, pero se han
propuesto variantes para espacios continuos y problemas multiobjetivo [1, 48].
La Optimizaci´on por Enjambre de Part´ıculas fue propuesta en 1995 por James
Kennedy y Russell Eberhart [49], inspirados en el comportamiento social de las aves
durante el vuelo. En esta t´ecnica, la b´usqueda se realiza utilizando un enjambre
de part´ıculas, cada una de las cuales representa una posible soluci´on del problema.
El movimiento a realizar por cada part´ıcula es determinado por su velocidad, una
componente social y una componente cognitiva. La velocidad de la part´ıcula indica
la direcci´on actual de su desplazamiento. La componente social se refiere a la mejor
soluci´on alcanzada entre todo el enjambre (o parte de ´el) y la cognitiva a la mejor
soluci´on explorada por la part´ıcula. Esta heur´ıstica fue desarrollada para la b´usqueda
en espacios continuos, pero tambi´en se ha utilizado con ´exito en espacios discretos y
problemas multiobjetivo [1, 50].
La Evoluci´on Diferencial (ED) fue propuesta a mediados de 1990s por Rainer
Storn y Kenneth Price [51] y su origen estuvo motivado por la optimizaci´on en espacios
continuos. Esta metaheur´ıstica evoluciona una poblaci´on de individuos, sobre los que
se aplican operadores de variaci´on. En ese sentido, posee una serie de similitudes
con los Algoritmos Evolutivos tradicionales, pero la representaci´on de los individuos
y los operadores que los modifican, la distinguen de los dem´as paradigmas. En la
ED, cada una de las posibles soluciones del problema se representa mediante un
vector de n´umeros reales; de esta forma, el algoritmo opera a nivel de fenotipo. La
exploraci´on de nuevas soluciones se realiza perturbando cada vector con la diferencia
de otros vectores. Debido a que la evoluci´on diferencial es la heur´ıstica utilizada en el
algoritmo propuesto en este trabajo, sus caracter´ısticas ser´an explicadas con mayor
detalle en la siguiente secci´on.
CINVESTAV-IPN Departamento de Computaci´on
Fundamentos Te´oricos 17
2.3.1. Evoluci´on diferencial
Los operadores de la evoluci´on diferencial pueden adoptar diferentes estrategias,
bas´andose en la selecci´on del vector que ser´a perturbado, el n´umero de padres a utilizar
y el tipo de cruza. Las combinaciones de estos elementos generan distintas variantes
de la ED, debido a lo cual, se ha desarrollado una nomenclatura para identificar a cada
variante. La m´as popular se denomina DE/rand/1/bin, donde DE significa evoluci´on
diferencial, rand indica que los individuos a utilizar en la mutaci´on son seleccionados
de forma aleatoria, 1 es el n´umero de pares de soluciones a emplear en la mutaci´on
y bin representa el uso de la recombinaci´on binaria. En el Algoritmo 2 se muestra el
pseudoc´odigo de DE/rand/1/bin.
Algoritmo 2 Evoluci´on Diferencial (DE/rand/1/bin)
1: Generar una poblaci´on inicial aleatoria: P(1)
= (x
(1)
1 , x
(1)
2 , . . . , x
(1)
N )
2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , N
3: for g = 1 to gmax do
4: for i = 1 to N do
5: Seleccionar de forma aleatoria r1, r2, r3 ∈ [1, 2, . . . , N], r1 = r2 = r3
6: Seleccionar de forma aleatoria jrand ∈ [1, 2, . . . , n]
7: for j = 1 to n do
8: if rand[0, 1) < CR or j = jrand then
9: u
(g+1)
i,j = x
(g)
r3,j + F(x
(g)
r1,j − x
(g)
r2,j)
10: else
11: u
(g+1)
i,j = x
(g)
i,j
12: end if
13: end for
14: if f(u
(g+1)
i ) ≤ f(x
(g)
i ) then
15: x
(g+1)
i = u
(g+1)
i
16: else
17: x
(g+1)
i = x
(g)
i
18: end if
19: end for
20: end for
En la variante DE/rand/1/bin, la poblaci´on inicial se genera de manera aleatoria,
aunque se usan reglas de reparaci´on para asegurar que cada variable pertenezca al
dominio. Posteriormente, se selecciona un individuo para reemplazo y tres individuos
aleatorios como padres (uno de los cuales es el padre principal). Los individuos se-
leccionados se utilizar´an para generar un hijo. Con una probabilidad CR, se cambia
cada variable del padre principal, de tal forma que al menos una de sus variables
sea modificada. El cambio se efect´ua agregando al valor de la variable una raz´on F
de la diferencia entre los valores de esta variable en los otros dos padres. De esta
forma, el hijo tendr´a valores del vector perturbado del padre principal y valores del
individuo para reemplazo. El hijo sustituye al individuo elegido para reemplazo solo
CINVESTAV-IPN Departamento de Computaci´on
18 Cap´ıtulo 2
si representa una mejor soluci´on. De lo contrario, se retiene el vector elegido para
reemplazo.
El par´ametro CR controla la influencia de los padres en la descendencia, los valores
m´as altos significan mayor influencia de los padres. Por su parte, el par´ametro F
escala la influencia del conjunto de pares de soluciones seleccionados para el c´alculo
del valor de mutaci´on. Un aumento del tama˜no de la poblaci´on o del n´umero de
pares de soluciones involucrados en la mutaci´on puede incrementar la diversidad de
las nuevas soluciones y permitir una mayor exploraci´on del espacio. Sin embargo, esto
disminuye la probabilidad de encontrar una buena direcci´on de b´usqueda. Por tanto,
el balance entre el tama˜no de la poblaci´on y el n´umero de diferencias utilizadas en la
mutaci´on determinan la eficiencia del algoritmo.
CINVESTAV-IPN Departamento de Computaci´on
Cap´ıtulo 3
Optimizaci´on Evolutiva de Muchos
Objetivos
Los algoritmos evolutivos se han utilizado con ´exito en una amplia variedad de pro-
blemas de optimizaci´on multiobjetivo. En 1984, David Schaffer [52] propuso el Vector
Evaluated Genetic Algorithm (VEGA), que es considerado como el primer algoritmo
evolutivo multiobjetivo (AEMO) capaz de aproximar varias soluciones del conjunto
de ´optimos de Pareto en una sola ejecuci´on. Sin embargo, este algoritmo es incapaz
de obtener soluciones ´optimas en regiones no convexas del frente de Pareto [53]. Con
el fin de evitar los problemas presentados por VEGA, Goldberg [43] propuso en 1989
utilizar la dominancia de Pareto para asignar la aptitud de los individuos de una
poblaci´on.
En 1993, Fonseca y Fleming [54] presentaron una variaci´on de la idea propuesta
por Goldberg, a la que llamaron Multiobjective Genetic Algorithm (MOGA). ´Este fue
uno de los primeros algoritmos con un esquema de selecci´on basado en la dominancia
de Pareto. Posteriormente, se desarrollaron varios AEMOs con selecci´on basada en
la dominancia de Pareto, entre los que destacan el Niched Pareto Genetic Algorithm
(NPGA) [55] y el Nondominated Sorting Genetic Algorithm (NSGA) [56]. Estos algo-
ritmos incorporaron en su mecanismo de selecci´on un segundo criterio, el cual estaba
generalmente relacionado con el mantenimiento de la diversidad en la poblaci´on. De
esta forma, trataban de evitar la convergencia prematura y, a la vez, generar la mayor
porci´on posible del frente de Pareto.
A finales de los a˜nos 1990s se introduce el concepto de elitismo en los AEMOs
y se hace popular el uso de poblaciones secundarias. Entre las propuestas m´as re-
presentativas de esos a˜nos se encuentran el Strength Pareto Evolutionary Algorithm
(SPEA) [57], la Pareto Archived Evolution Strategy (PAES) [58], el Pareto Envelope
based Selection Algorithm (PESA) [59] y el Micro Genetic Algorithm (µGA) para la
optimizaci´on multiobjetivo [60]. Posteriormente, se desarrollaron versiones mejoradas
de algunos de los AEMOs propuestos haste ese momento, dando origen a una nueva
generaci´on. Entre estos AEMOs se destacaron el NSGA-II [61], el SPEA2 [62] y el
µGA2 [63].
19
20 Cap´ıtulo 3
Los AEMOs mencionados han mostrado un buen desempe˜no en problemas de dos y
tres objetivos [1, 2]. Sin embargo, estudios reciente han mostrado que la dominancia
de Pareto no es efectiva como criterio de selecci´on en problemas de cuatro o m´as
objetivos [4, 6]. Esto ha motivado un gran n´umero de investigaciones para mejorar el
rendimiento de los AEMOs en este tipo de problemas. Las principales propuestas se
han enfocado en el desarrollo de mecanismos de selecci´on alternativos, la reducci´on
del n´umero de objetivos y la exploraci´on de s´olo algunas regiones del espacio de
soluciones.
En la primera secci´on de este cap´ıtulo se presentar´an los principales desaf´ıos que
debe enfrentar un AEMO para solucionar problemas de optimizaci´on con m´as de tres
objetivos. A continuaci´on, se describir´an las t´ecnicas m´as representativas que se han
propuesto para la optimizaci´on de este tipo de problemas, haciendo ´enfasis en sus
ventajas y limitaciones.
3.1. Dificultades en el manejo de muchos objetivos
Los problemas de optimizaci´on con cuatro o m´as funciones objetivo presentan
una serie de retos que hacen dif´ıcil su soluci´on. Algunas de estas dificultades son
propias de los mecanismos de selecci´on que poseen los AEMOs, las cuales deterioran
su capacidad de b´usqueda. Otras son inherentes al problema de optimizaci´on, tales
como la aproximaci´on del frente de Pareto en su totalidad o la visualizaci´on misma
de las soluciones.
3.1.1. Deterioro de la capacidad de b´usqueda
Desde principios de los 1990s, la dominacia de Pareto se hizo popular como cri-
terio de selecci´on en los algoritmos evolutivos multiobjetivo. Estudios realizados en
a˜nos posteriores han mostrado que la proporci´on de soluciones no dominadas en una
poblaci´on aumenta de manera exponencial con el n´umero de objetivos. Esto limita la
capacidad de la dominancia de Pareto para discriminar entre soluciones en problemas
con muchos objetivos.
En 1978, Bentley et al. [64] determinaron que en un conjunto de N vectores
k−dimensionales, generados de manera aleatoria, el n´umero esperado de vectores no
dominados es de orden O(logk−1
N). Sin embargo, no es sino hasta con los traba-
jos de Deb [2] y Farina et al. [7] que este tipo de an´alisis se extiende al ´area de la
optimizaci´on multiobjetivo. Deb [2] present´o un estudio experimental donde calcula-
ba el n´umero de soluciones no dominadas que exist´ıan en poblaciones aleatorias con
distintos tama˜nos y n´umero de objetivos. Los resultados obtenidos mostraron que el
aumento del n´umero de objetivos causa un mayor n´umero de soluciones no domina-
das en la poblaci´on. Seg´un [2], esto provoca que la presi´on de selecci´on disminuya
considerablemente, lo cual reduce la posibilidad de aplicar el elitismo y deteriora la
capacidad de b´usqueda de los AEMOs basados en la dominancia de Pareto.
CINVESTAV-IPN Departamento de Computaci´on
Optimizaci´on Evolutiva de Muchos Objetivos 21
Por su parte, Farina y Amato [7] proponen la expresi´on 3.1 para determinar, en
un espacio de dimensi´on k, la proporci´on e de vectores no comparables (seg´un la
dominancia de Pareto) con respecto a un vector dado. De acuerdo a 3.1, a medida
que aumenta el n´umero de objetivos, la proporci´on de soluciones no comparables con
respecto a una soluci´on determinada crece de manera exponencial. De esta forma,
Farina y Amato explican c´omo la dominancia de Pareto puede resultar inadecuada
para discriminar entre soluciones en espacios de b´usqueda con muchos objetivos.
e =
2k
− 2
2k
(3.1)
La expresi´on 3.1 tambi´en representa la forma en que se reduce la proporci´on de
soluciones que pueden dominar a una soluci´on determinada. Debido a esta reducci´on,
la probabilidad de generar descendientes que dominen a sus ancestros disminuye de
manera exponencial. Este problema tiene una relaci´on directa con el fen´omeno cono-
cido como resistencia a la dominancia [65, 66, 67]. Este fen´omeno se manifiesta en
aquellas soluciones que poseen un valor deficiente en al menos uno de los objetivos,
pero en las cuales, en el resto de los objetivos tienen valores cercanos al ´optimo. Este
tipo de soluciones se encuentran distantes del frente de Pareto, pero generalmente
son no dominadas y resulta dif´ıcil generar soluciones que las dominen [4].
Cuando la dominancia de Pareto es insuficiente para identificar a los sobrevivientes
en una poblaci´on, el operador de diversidad se convierte en el mecanismo principal
dentro del esquema de selecci´on [4]. Esto puede provocar que se deteriore la capacidad
de b´usqueda de los AEMOs y, en algunos casos, que las soluciones diverjan, alej´andose
del verdadero frente de Pareto [68]. Varios algoritmos representativos del estado del
arte presentan este problema. Por ejemplo, los operadores de diversidad en NSGA-
II [61] y SPEA2 [62] otorgan mayor preferencia a las soluciones no dominadas que
sean aisladas y fronterizas. Debido a esto, los puntos con mayor diversidad resultan
ser las soluciones con peor convergencia [69].
Diversos estudios experimentales [5, 6, 70] han comprobado el pobre desempe˜no
de los AEMOs basados en la dominancia de Pareto cuando optimizan problemas con
cuatro o m´as objetivos. Estos resultados han sido respaldados por el trabajo te´orico
de Teytau [71], seg´un el cual, comparar las soluciones utilizando s´olo la dominancia
de Pareto provoca que la velocidad de convergencia de los AEMOs no sea mucho
mejor que la de una b´usqueda aleatoria. Friedrich et al. [72] tambi´en demuestran la
deficiencia de la dominancia de Pareto para guiar la b´usqueda de los AEMOs en cierto
tipo de problemas, aunque sean relativamente sencillos y con pocos objetivos.
Sin embargo, en a˜nos recientes, algunos autores han manifestado que aumentar el
n´umero de objetivos de un problema no necesariamente lo hace m´as dif´ıcil. Brockhoff
et al. [73] realizaron un an´alisis te´orico del tiempo de ejecuci´on de un AEMO en
un problema espec´ıfico y mostraron c´omo, al aumentar el n´umero de objetivos, el
problema puede volverse m´as o menos complejo. En tanto, Sch¨utze et al. [74] llevaron
a cabo un estudio te´orico sobre la influencia del n´umero de objetivos en la convergencia
de un AEMO, concluyendo que agregar m´as objetivos a un problema puede hacerlo
m´as dif´ıcil, pero no en una medida significativa.
CINVESTAV-IPN Departamento de Computaci´on
22 Cap´ıtulo 3
3.1.2. Representaci´on del frente de Pareto
En los problemas de optimizaci´on continuos con k objetivos en conflicto, el frente
de Pareto es una variedad de dimensi´on k − 1 [33]. Debido a esto, el n´umero de solu-
ciones necesarias para aproximar el frente de Pareto aumenta de manera exponencial
con el n´umero de objetivos. Formalmente, el n´umero de soluciones requeridas es de
orden O(krk−1
), donde r es la resoluci´on por cada dimensi´on [75]. Por ejemplo, cuan-
do se aproxima el FP de un problema de 2 objetivos es com´un utilizar 100 soluciones
(r = 50). Sin embargo, para mantener la misma precisi´on al aproximar el FP de un
problema de 5 objetivos ser´ıan necesarias m´as de 3 · 107
soluciones.
Este crecimiento exponencial del n´umero de soluciones necesarias para aproximar
el FP provoca dos dificultades principales. La primera se produce por el aumento
del n´umero de evaluaciones de las funciones objetivo, ya que en varios problemas
reales estas evaluaciones tienen un elevado costo computacional [1]. En segundo lugar,
aunque se pueda obtener una aproximaci´on precisa de todo el FP, el gran n´umero
de soluciones har´ıa dif´ıcil la selecci´on de un subconjunto por parte del tomador de
decisiones. Esto ha motivado el desarrollo de AEMOs basados en preferencias [76], los
cuales puedan aproximar regiones espec´ıficas del frente de Pareto que sean de inter´es
para el tomador de decisiones.
3.1.3. Visualizaci´on del frente de Pareto
Los algoritmos evolutivos multiobjetivos por lo general producen un conjunto de
soluciones como aproximaci´on del frente de Pareto. Este conjunto es analizado por
un tomador de decisiones para seleccionar una soluci´on particular entre las distintas
alternativas. La visualizaci´on del FP es fundamental para el proceso de toma de deci-
siones. Sin embargo, a medida que el n´umero de objetivos aumenta, la visualizaci´on
de las soluciones no dominadas se hace m´as dif´ıcil.
Actualmente, existen diversos m´etodos para visualizar el conjunto de soluciones
de un problema de cuatro o m´as objetivos, los cuales se pueden agrupar en tres clases
principales. En la primera clase, los objetivos se muestran en grupos de dos y tres a
la vez. Un ejemplo de estos m´etodos es la matriz de diagramas de dispersi´on [2], que
visualiza los compromisos entre los distintos pares de objetivos. Sin embargo, mostrar
todos los pares de objetivos no resulta pr´actico cuando el n´umero de objetivos es
elevado. Adem´as, puede limitar el an´alisis de las relaciones existentes entre el conjunto
total de objetivos.
En la segunda clase se encuentran los m´etodos que visualizan todos los objetivos
al mismo tiempo. Algunos de los m´as representativos en esta categor´ıa son: los dia-
gramas de coordenadas paralelas, las gr´aficas de barras, los diagramas de p´etalos y la
representaci´on pentagonal [77]. Entre estos m´etodos, los diagramas de coordenadas
paralelas han sido los m´as populares [8]. Esta t´ecnica de visualizaci´on produce un
gr´afico de dos dimensiones que contiene el nombre de cada objetivo en el eje horizon-
tal y los valores normalizados de cada objetivo en el eje vertical. Recientemente, se
ha propuesto utilizar mapas de calor para visualizar el conjunto de soluciones consi-
CINVESTAV-IPN Departamento de Computaci´on
Optimizaci´on Evolutiva de Muchos Objetivos 23
derando todos los objetivos simult´aneamente [78]. Un mapa de calor es una matriz
donde cada fila representa una soluci´on, cada columna representa un objetivo y el
color de una celda corresponde al valor en ella. Pryke et al. [78] proponen utilizar
t´ecnicas de agrupamiento jer´arquico para mantener en filas vecinas las soluciones con
valores similares en las funciones objetivo. Por su parte, Walker et al. [79] presentaron
un m´etodo para ordenar las filas utilizando una medida de similitud que se basa en
un an´alisis espectral.
Por ´ultimo, existen varias t´ecnicas de visualizaci´on que reducen el n´umero de obje-
tivos con base en las caracter´ısticas del conjunto de soluciones. En [80] se propone un
m´etodo que consta de dos etapas; primero se utiliza un modelo de red neuronal arti-
ficial para proyectar las soluciones en un espacio de menor dimensi´on y en la segunda
etapa se aplica un algoritmo de agrupamiento jer´arquico para facilitar el an´alisis. Una
idea distinta fue presentada por K¨oppen y Yoshida [81], quienes proponen transfor-
mar el conjunto de soluciones en un conjunto de Pareto de dos dimensiones, tratando
de conservar las relaciones de dominancia.
3.2. Algoritmos Evolutivos para la optimizaci´on
de muchos objetivos
Desde mediados de los a˜nos 1990s, los AEMOs basados en la dominancia de Pareto
han sido una de las t´ecnicas m´as utilizadas en la optimizaci´on de problemas con
dos y tres objetivos [1]. Sin embargo, se ha comprobado que el desempe˜no de estos
algoritmos se deteriora a medida que aumenta el n´umero de objetivos en conflicto.
Esto ha motivado el desarrollo de nuevos AEMOs que sean capaces de lidiar con
problemas de m´as de tres objetivos, pues estos problemas son muy frecuentes en la
ciencia y la ingenier´ıa [82]. En esta secci´on se estudiar´an algunas de las metodolog´ıas
m´as populares que han sido propuestas para mejorar el desempe˜no de los AEMOs.
Por cada metodolog´ıa (ser´an cinco en total), se analizar´an varios de sus algoritmos
m´as representativos, as´ı como sus ventajas y deficiencias.
En primer lugar, se presentar´an los AEMOs basados en relaciones de preferencia,
los cuales comparan las soluciones considerando alguna informaci´on adicional. Por
ejemplo, el n´umero de objetivos en los cuales una soluci´on es mejor que otra [7, 83],
la magnitud de la mejora [7, 84] o el n´umero de subespacios en los que una soluci´on
permanece no dominada [85]. Este grupo tambi´en incluye los algoritmos que usan
funciones de pertenencia difusa para representar las preferencias [7]. En segundo lugar,
se analizar´an las propuestas que reducen la dimensi´on del espacio objetivo y as´ı evitan
las deficiencias de la dominancia de Pareto al comparar las soluciones [86, 87, 88]. A
continuaci´on, se estudiar´an los AEMOs que utilizan la informaci´on sobre el inter´es
del tomador de decisiones por determinadas regiones del frente de Pareto [89, 90, 16].
Posteriormente, se analizar´an los AEMOs que eval´uan las soluciones utilizando un
indicador de desempe˜no, transformando as´ı el problema original en la optimizaci´on
de un solo objetivo (el indicador) [91, 18, 30]. Finalmente, se presentar´an los AEMOs
CINVESTAV-IPN Departamento de Computaci´on
24 Cap´ıtulo 3
basados en descomposici´on, los cuales dividen el problema original en una colecci´on
de funciones escalares que deben ser optimizadas simult´aneamente [9, 10, 13].
3.2.1. Relaciones de preferencia alternativas
La selecci´on de los individuos que pasar´an a la siguiente generaci´on es una etapa
fundamental en los algoritmos evolutivos multiobjetivo, pues permite conservar las
mejores soluciones encontradas y guiar la b´usqueda hacia el frente de Pareto. Un
gran n´umero de AEMOs han utilizado la dominancia de Pareto para comparar las
soluciones y poder efectuar la selecci´on. Sin embargo, la dominancia de Pareto solo
define un orden parcial en el espacio k−dimensional de los objetivos y a medida
que aumenta el valor de k, disminuye su capacidad de diferenciar entre las distintas
soluciones. Debido a esto, se han propuesto modificaciones de la dominancia de Pareto
y otras relaciones de preferencia que permiten discriminar entre los individuos de
manera m´as efectiva.
La dominancia-α [65] es una de las primeras variantes de la dominancia de Pareto
que fue propuesta para aumentar la presi´on de selecci´on en un AEMO. La idea prin-
cipal de la dominancia-α es fijar un l´ımite superior (αji) y un l´ımite inferior (1/αij)
para la raz´on del compromiso entre cada par de objetivos fi y fj. Seg´un este criterio,
sean ∆fi y ∆fj variaciones equivalentes de fi y fj, se considera que
αji ≤
∆fi
∆fj
≤
1
αij
, αij, αji ≥ 0, i, j = 1 . . . k, (3.2)
donde k es el n´umero de funciones objetivo en el problema. La dominancia-α considera
la soluci´on x mejor que la soluci´on y (denotado por x
α
y) si y s´olo si gi(x, y) ≤ 0, i =
1 . . . k y g(x, y) = 0, donde
gi(x, y) =
k
j=1
αij (fj(x) − fj(y)), αii = 1, i = 1 . . . k. (3.3)
Esta relaci´on de preferencia aumenta la regi´on de dominancia de cada soluci´on, fa-
cilitando la convergencia del algoritmo hacia el frente de Pareto. Sin embargo, las
soluciones ´optimas seg´un la dominancia-α son un subconjunto del conjunto de ´opti-
mos de Pareto. Debido a ello, esta relaci´on de preferencia no permite descubrir ciertas
regiones del frente de Pareto [65].
Sato et al. [92] mostraron que al utilizar en NSGA-II una modificaci´on de la do-
minancia de Pareto, en lugar de la dominancia de Pareto est´andar, se mejoraba su
desempe˜no en problemas con m´as de tres objetivos. La relaci´on de preferencia pro-
puesta en [92] es una modificaci´on de la dominancia de Pareto que permite variar el
´area de dominancia de cada soluci´on. Para controlar el grado de expansi´on o contrac-
ci´on del ´area de dominancia, se transforma el valor de cada funci´on objetivo de la
CINVESTAV-IPN Departamento de Computaci´on
Optimizaci´on Evolutiva de Muchos Objetivos 25
siguiente manera:
fi(x) =
f(x) · sin(wi + si · π)
sin(si · π)
, i = 1 . . . k, (3.4)
donde si ∈ [0.25, 0.75], i = 1 . . . k, son par´ametros definidos por los usuarios y wi es el
´angulo entre el vector de funciones objetivo f(x) y el eje de la funci´on objetivo fi. Un
valor de si < 0.5 (∀i = 1 . . . k) aumenta el ´area de dominancia de las soluciones, lo
cual produce mayor presi´on de selecci´on en la poblaci´on y posibilita la convergencia
del AEMO hacia el frente de Pareto. Esta relaci´on de preferencia no s´olo ha mostrado
su efectividad al ser utilizada en algoritmos evolutivos [92, 93], sino tambi´en en otras
metaheur´ısticas como los algoritmos de optimizaci´on por enjambre de part´ıculas [94].
Sin embargo, esta relaci´on de preferencia, al igual que la α-dominancia, no permite
descubrir el frente de Pareto en su totalidad [92, 93].
Farina y Amato [7] proponen la dominancia-(k − 1) como alternativa de la do-
minancia de Pareto. Esta relaci´on se basa en el n´umero de objetivos para los cuales
una soluci´on x es mejor, igual o peor que otra soluci´on y; estos valores se representan
como nb(x, y), ne(x, y) y nw(x, y), respectivamente. Se dice entonces que una soluci´on
x es mejor que otra soluci´on y seg´un la dominancia-(k −1) (denotado por x (k−1) y)
si y s´olo si
ne(x, y) < M y nb(x, y) ≥
M − ne
k + 1
, (3.5)
donde M es el n´umero de objetivos del problema. Cuando k = 0, esta relaci´on de
preferencia es equivalente a la dominancia de Pareto y los distintos valores de k co-
rresponden a diferentes subconjuntos de las soluciones ´optimas de Pareto. En [95]
se comprueba la capacidad de esta relaci´on para discriminar entre soluciones no do-
minadas tanto en problemas discretos como continuos, aumentando de esta forma
la presi´on de selecci´on en los AEMOs. En [7] se propone una segunda relaci´on de
dominancia, la cual considera no s´olo el n´umero de objetivos para los que una solu-
ci´on es mejor que otra, sino tambi´en la diferencia entre esos valores objetivos. Esta
relaci´on de preferencia se basa en reglas difusas para establecer la dominancia entre
las soluciones.
Otras relaciones de preferencia se diferencian un poco m´as de la definici´on est´andar
de la dominancia de Pareto. Es el caso de la relaci´on favour propuesta por Drechsler
et al. [83], la cual se basa en el n´umero de objetivos para los que una soluci´on es
mejor que otra. Esta relaci´on considera que una soluci´on x es mejor que otra soluci´on
y (denotado por x favour y) si y s´olo si ne(x, y) > nw(x, y). La relaci´on favour puede
ser vista como un caso particular de la dominancia-(k − 1) donde k = 1. Una de las
principales deficiencias de la relaci´on favour es que no puede lidiar con el fen´omeno
de resistencia a la dominancia. Esto provoca que las soluciones se concentren en los
extremos del frente de Pareto [93, 96].
S¨ulflow et al. [84] proponen la relaci´on de preferencia- como una extensi´on de
la relaci´on favour. La principal diferencia es que considera el n´umero de objetivos
CINVESTAV-IPN Departamento de Computaci´on
26 Cap´ıtulo 3
para los cuales una soluci´on excede por un umbral a la otra soluci´on. En caso de
empate, la relaci´on favour es utilizada para determinar la mejor soluci´on. La relaci´on
de preferencia- se utiliz´o en el NSGA-II y mostr´o mejor desempe˜no que la relaci´on
favour [84].
Las relaciones de preferencia mencionadas comparan las soluciones considerando
simult´aneamente el valor de todos los objetivos. En cambio, di Pierro et al. [85]
proponen utilizar subconjuntos de objetivos al comparar las soluciones. La relaci´on
presentada en [85] se basa en el concepto de orden de eficiencia. Una soluci´on x es
eficiente de orden r si no es dominada por ninguna otra soluci´on considerando todos
los k
r
subconjuntos de objetivos, donde k representa el n´umero total de objetivos.
Se considera entonces que el orden de eficiencia de una soluci´on x es el m´ınimo valor
de r para el cual x es eficiente. Esta relaci´on se incorpor´o a NSGA-II para diferenciar
entre las soluciones no dominadas, lo cual mejor´o la convergencia del algoritmo en
problemas de hasta ocho objetivos [85]. Sin embargo, esta relaci´on de preferencia
causa p´erdida de diversidad en las soluciones encontradas.
Bentley y Wakefield [97] proponen las relaciones de preferencia average ranking
(AR) y maximum ranking (MR). AR ordena los valores de cada objetivo indepen-
dientemente; de esta manera, obtiene, por cada objetivo, la posici´on que ocupa una
soluci´on con respecto a las dem´as. La posici´on general de una soluci´on se obtiene
al promediar las posiciones asignadas por cada objetivo. En el caso de MR, no se
promedian las posiciones, sino que se asigna el mejor valor. La principal deficien-
cia de MR es que favorece las soluciones extremas, limitando la convergencia de los
AEMOs y deteriorando la diversidad de las soluciones [93]. El estudio realizado por
Corne y Knowles [96] mostr´o que la relaci´on AR obten´ıa mejores resultados que otras
relaciones de preferencia.
Diversos estudios [93, 94, 96] han comprobado que las relaciones de preferencia
mencionadas anteriormente mejoran la convergencia de los AEMOs cuando rempla-
zan a la dominancia de Pareto. Sin embargo, varias de estas relaciones [65, 92, 7, 84]
necesitan par´ametros adicionales, lo cual puede limitar su aplicaci´on en ciertos proble-
mas reales. Adem´as, el conjunto de soluciones ´optimas que producen estas relaciones
de preferencia es un subconjunto del conjunto de ´optimos de Pareto. Esto puede pro-
vocar que los AEMOs s´olo converjan a regiones espec´ıficas del frente de Pareto y se
pierda diversidad en las soluciones.
3.2.2. Reducci´on de la dimensi´on del espacio objetivo
Un gran n´umero de los AEMOs propuestos para lidiar con muchos objetivos in-
tentan convertir el problema original en instancias de menor dimensi´on (n´umero de
objetivos) que puedan solucionarse con t´ecnicas ya existentes. Una etapa fundamen-
tal de estos AEMOs consiste en determinar el grado de conflicto entre los objetivos
y as´ı conservar lo m´as posible la relaci´on de dominancia inducida por el problema
original. Estos algoritmos se pueden agrupar en dos clases principales. La primera
re´une los m´etodos de partici´on del espacio, los cuales dividen el espacio objetivo del
CINVESTAV-IPN Departamento de Computaci´on
Optimizaci´on Evolutiva de Muchos Objetivos 27
problema original en varios subespacios disjuntos de menor dimensi´on que son explo-
rados independientemente. La segunda clase se refiere a los m´etodos que reducen el
n´umero de objetivos del problema. Estos m´etodos prescinden de aquellos objetivos
con el menor grado de conflicto respecto a los dem´as objetivos.
Aguirre y Tanaka [98] propusieron un esquema general para dividir el espacio
objetivo en varios subespacios, cada uno de los cuales es explorado en distintas ge-
neraciones del algoritmo evolutivo. Para dividir el espacio objetivo en subespacios
de igual tama˜no se utilizaron tres estrategias distintas. La primera asigna de mane-
ra aleatoria los objetivos que pertenecer´an a cada subespacio. La segunda estrategia
establece desde un inicio los objetivos de cada subespacio y se mantiene la misma
asignaci´on durante todas las generaciones. La ´ultima estrategia traslada un objeti-
vo de un subespacio a otro en cada generaci´on. Este esquema fue incorporado en
el NSGA-II y se aplic´o en problemas de cuatro a diez objetivos. Los resultados ob-
tenidos mostraron que el m´etodo propuesto supera al NSGA-II original tanto en la
convergencia como en la diversidad de las soluciones. El mejor desempe˜no se obtuvo
al utilizar la estrategia aleatoria, lo que evidencia la importancia de explorar todos
los subespacios posibles.
L´opez et al. [88] proponen una modificaci´on del esquema general de Aguirre y
Tanaka [98] y adem´as una nueva estrategia para dividir el espacio objetivo. La estra-
tegia propuesta agrupa los objetivos seg´un el grado de conflicto entre ellos e intenta
conservar lo m´as posible la estructura del problema original. Para determinar el grado
de conflicto entre los objetivos, se construye una matriz de correlaci´on utilizando el
valor de las soluciones encontradas en cada generaci´on. Este m´etodo fue incorporado
en el NSGA-II y se compar´o su efectividad con respecto a otros tres algoritmos: una
estrategia de divisi´on aleatoria, el m´etodo propuesto por Purshouse y Fleming [99] y
la versi´on original del NSGA-II. Los resultados obtenidos en problemas de hasta 15
objetivos mostraron la superioridad de la estrategia propuesta tanto en convergencia
como en distribuci´on de las soluciones. La estrategia basada en la informaci´on del con-
flicto entre los objetivos obtuvo mejores resultados que la estrategia aleatoria. Esto
demuestra la importancia de utilizar informaci´on espec´ıfica del problema al construir
los subespacios.
A diferencia de los m´etodos anteriores, que utilizan la informaci´on de todos los
objetivos, otras t´ecnicas intentan eliminar los objetivos que no son fundamentales para
describir el frente de Pareto. Saxena et al. [69] proponen un algoritmo para reducir el
n´umero de objetivos basado en el an´alisis de componentes principales. Este m´etodo
construye, cada cierto n´umero de generaciones, una matriz de correlaci´on utilizando
los valores de las soluciones encontradas. Posteriormente, obtiene las componentes
principales de esta matriz (calculando los vectores propios) y con esta informaci´on
determina los objetivos en mayor conflicto. Este m´etodo fue incorporado en NSGA-
II y en -MOEA [100] para eliminar sucesivamente los objetivos redundantes (los
de menor grado de conflicto) seg´un la aproximaci´on del frente de Pareto obtenida.
Los resultados experimentales mostraron la efectividad del algoritmo para solucionar
problemas con un gran n´umero de objetivos redundantes, superando a otras t´ecnicas
CINVESTAV-IPN Departamento de Computaci´on
28 Cap´ıtulo 3
de reducci´on propuestas en [87]. Sin embargo, el m´etodo presenta deficiencias para
encontrar la correcta combinaci´on de objetivos en problemas con un frente de Pareto
de alta dimensi´on (con poca redundancia entre los objetivos).
Brockhoff y Zitzler [87] proponen un m´etodo para reducir el n´umero de objetivos
que se basa en una idea distinta de conflicto. Seg´un [87] un objetivo est´a en conflic-
to con el resto si al eliminarlo se modifican las relaciones de dominancias entre las
soluciones. Este criterio se utiliz´o para construir un algoritmo exacto y otro con una
estrategia voraz que solucionar´an dos problemas (δ-MOSS y k-EMOSS) relacionados
con la reducci´on de objetivos. El primero de estos problemas consiste en encontrar
el menor subconjunto de objetivos que conserve (con un error inferior a δ) las re-
laciones de dominancia. En cambio, el problema k-EMOSS radica en descubrir el
subconjunto de k objetivos que produzca el menor error posible. Cada uno de los
algoritmos propuestos fue incorporado en el IBEA [91], mejorando su desempe˜no en
varios problemas. Sin embargo, estos algoritmos se limitan a la reducci´on lineal de los
objetivos y consideran que las soluciones est´an igualmente distribuidas en el espacio
objetivo [69].
L´opez et al. [101] proponen dos algoritmos que se basan en una t´ecnica de selec-
ci´on de rasgos para solucionar los problemas δ-MOSS y k-EMOSS. Estos algoritmos
utilizan las soluciones no dominadas para construir una matriz de correlaci´on que
representa el grado de conflicto entre los objetivos. El conflicto entre los objetivos es
utilizado como una distancia para construir vecindades de tama˜no q alrededor de ca-
da objetivo. Posteriormente, se selecciona la vecindad m´as compacta (con la m´ınima
distancia entre los q vecinos) y se retiene el objetivo central eliminando el resto de
los objetivos en la vecindad. De esta forma, se eliminan los objetivos con el menor
conflicto hasta que la cantidad total de objetivos sea igual a k o no existan vecinda-
des con un error inferior a δ. Los resultados experimentales mostraron un desempe˜no
competitivo de estos algoritmos con respecto a los propuestos en [87] y al m´etodo
basado en el an´alisis de componentes principales [69]. Sin embargo, resulta necesario
analizar el papel del par´ametro q en la efectividad de los algoritmos propuestos y la
posibilidad de un proceso adaptativo que reduzca el valor de q.
Las t´ecnicas de partici´on del espacio objetivo y los m´etodos para reducir el n´umero
de objetivos se han incorporado en el proceso de b´usqueda de varios AEMOs existen-
tes, mejorando la efectividad de estos algoritmos en problemas con muchos objetivos.
Sin embargo, estas t´ecnicas de reducci´on asumen la existencia de objetivos redun-
dantes o la independencia entre subconjuntos de objetivos. Cuando el problema de
optimizaci´on no cumple con estas caracter´ısticas, el espacio objetivo no se reduce
suficientemente para ayudar a los AEMOs durante la b´usqueda o se prescinde de
objetivos que son fundamentales para descubrir el frente de Pareto. Debido a esto, el
uso de estas t´ecnicas est´a limitado a ciertos tipos de problemas.
CINVESTAV-IPN Departamento de Computaci´on
Optimizaci´on Evolutiva de Muchos Objetivos 29
3.2.3. Basados en informaci´on de preferencia
En determinados problemas de optimizaci´on multiobjetivo, el tomador de decisio-
nes (TD) solo est´a interesado en una regi´on espec´ıfica del frente de Pareto. Esto ha
propiciado el desarrollo de varios AEMOs que utilizan la informaci´on de preferencia
del TD para guiar la b´usqueda hacia la regi´on de inter´es. El uso de las preferencias
del usuario permite evitar dos de las dificultades que se presentan en problemas con
m´as de tres objetivos. En primer lugar, la b´usqueda se puede enfocar en la regi´on
de inter´es para el tomador de decisiones y no es necesario aproximar todo el frente
de Pareto; de esta manera, se reduce el n´umero de evaluaciones realizadas. En se-
gundo lugar, la informaci´on sobre las preferencias del TD permite diferenciar entre
soluciones no dominadas durante el proceso de b´usqueda. Esto aumenta la presi´on de
selecci´on en la poblaci´on y ayuda a la convergencia del AEMO.
Seg´un la interacci´on del tomador de decisiones con el proceso de b´usqueda, los AE-
MOs basados en informaci´on de preferencia se pueden clasificar en: m´etodos a priori,
m´etodos a posteriori y m´etodos interactivos. En un m´etodo a priori, la informaci´on
de preferencia se conoce antes de iniciar el proceso de optimizaci´on. Si el tomador de
decisiones est´a interesado en una ´unica soluci´on en el frente de Pareto, el problema
multiobjetivos se puede transformar en una funci´on escalar. Los m´etodos a posteriori
usan la informaci´on de preferencia despu´es de terminado el proceso de b´usqueda. En
este caso, el TD selecciona la soluci´on que prefiere de la aproximaci´on del frente de
Pareto. En cambio, los m´etodos interactivos muestran al tomador de decisiones las
soluciones obtenidas en cada etapa del proceso de b´usqueda; de esta manera, el TD
puede comprender mejor el problema y entregar m´as informaci´on sobre las soluciones
deseadas. De las tres variantes existentes, los m´etodos a priori y los interactivos son
los de m´as inter´es para solucionar problemas con muchos objetivos.
La relaci´on de preferencia propuesta por Fonseca y Fleming [54, 102] fue uno de
los primeros intentos de incorporar informaci´on de preferencia en un AEMO. Esta
relaci´on considera tanto los valores del punto de referencia (soluci´on deseada por el
TD) como la prioridad que otorga el TD a cada objetivo. Seg´un esta relaci´on, primero
se comparan las soluciones teniendo en cuenta el grupo de objetivos con mayor prio-
ridad. Si los valores de los objetivos en ambas soluciones igualan los valores del punto
de referencia o difieren de ´estos en igual forma, entonces se comparan las soluciones
considerando el siguiente grupo de objetivos con mayor prioridad. Este proceso con-
tin´ua hasta alcanzar el grupo de objetivos con menor prioridad, donde las soluciones
son comparadas utilizando la dominancia de Pareto. Una de las deficiencias de esta
relaci´on es que depende de la factibilidad del punto de referencia. Si el punto de refe-
rencia se encuentra alejado de la regi´on factible del problema, entonces las soluciones
s´olo ser´an comparadas en t´erminos de la prioridad de cada objetivo. Adem´as, esta
relaci´on no considera el grado de similitud entre una soluci´on y el punto de referencia.
Deb [103] propone una t´ecnica para transformar un problema de programaci´on
por metas en un problema de optimizaci´on multiobjetivo que es solucionado con
un AEMO. En un problema de optimizaci´on por metas, el tomador de decisiones
indica los valores que desea alcanzar en cada objetivo y estos valores son incorporados
CINVESTAV-IPN Departamento de Computaci´on
30 Cap´ıtulo 3
al problema mediante restricciones. La funci´on objetivo se construye de forma tal
que se minimice la diferencia entre el valor de los objetivos originales y los valores
establecidos por el TD. El m´etodo presentado en [103], al igual que la propuesta de
Fonseca y Fleming [102], es sensible a la factibilidad del punto de referencia. Si este
punto se encuentra en la regi´on factible, puede impedir la generaci´on de una soluci´on
mejor. En cambio, si se encuentra muy alejado de la regi´on factible, la informaci´on
que brinda este punto de referencia no genera efecto alguno en la b´usqueda.
Branke et al. [104] proponen un AEMO que incorpora las preferencias del tomador
de decisiones mediante el grado de compromiso entre cada par de objetivos. En este
m´etodo, el TD debe indicar, por cada par de objetivos fi y fj, el n´umero de unidades
en fi que corresponden a un cambio de una unidad en fj y viceversa. Los autores
proponen una relaci´on de preferencia que utiliza esta informaci´on para guiar el AEMO
hacia regiones espec´ıficas del frente de Pareto. El principal inconveniente de esta
propuesta es que requiere el grado de compensaci´on entre cada par de objetivos, lo
cual es muy dif´ıcil obtener en problemas con un gran n´umero de objetivos. Adem´as,
este m´etodo s´olo puede aplicarse en problemas con un frente de Pareto convexo.
Deb y Sundar [105] modificaron el mecanismo de selecci´on en el NSGA-II para
dirigir la b´usqueda hacia ciertas regiones del frente de Pareto que est´en representadas
por puntos de referencia. En el algoritmo propuesto (R-NSGA-II) se utiliza un nuevo
criterio de selecci´on para discriminar entre soluciones no dominadas. Este operador
asigna mayor relevancia a las soluciones no dominadas que est´en m´as cercanas a
los puntos de referencia. R-NSGA-II puede obtener varias soluciones no dominadas
alrededor de cada punto de referencia. La deficiencia de este algoritmo es que s´olo
puede garantizar soluciones d´ebilmente no dominadas, sobre todo en problemas con
el frente de Pareto discontinuo [106].
Molina et al. [107] modificaron la dominancia de Pareto para incorporarle in-
formaci´on de preferencia. La relaci´on obtenida, llamada dominancia-g, clasifica las
soluciones en dos tipos. El primer tipo re´une las soluciones que satisfacen todos los
valores del punto de referencia o que no satisfacen ninguno. Las dem´as soluciones
forman parte del segundo tipo. Seg´un la dominancia-g, las soluciones del primer tipo
son las preferidas. Esto tiene como consecuencia que las soluciones dominadas son
preferidas sobre aquellas con mejores valores en alguno de los objetivos. Esta relaci´on
puede ser utilizada en cualquier AEMO y permite obtener un conjunto de soluciones
alrededor de cada punto de referencia.
Thiele et al. [90] presentaron una variante del algoritmo evolutivo IBEA [91], en la
cual incorporaron una funci´on de utilidad para manejar informaci´on de preferencia.
Este algoritmo pertenece a la clase de m´etodos interactivos, pues en cada generaci´on le
solicita al tomador de decisiones que especifique puntos de referencia. En esta versi´on
de IBEA, la aptitud de cada individuo se obtiene al dividir el valor del indicador (el
cual se maximiza) por el valor de la funci´on de utilidad. El valor de esta funci´on se
reduce a medida que la soluci´on evaluada se acerca al punto de referencia. De esta
manera, entre dos soluciones con igual valor en el indicador, es preferida la soluci´on
m´as cercana al punto de referencia.
CINVESTAV-IPN Departamento de Computaci´on
Optimizaci´on Evolutiva de Muchos Objetivos 31
Sindhya et al. [108] tambi´en proponen un esquema interactivo basado en un algo-
ritmo evolutivo. En este trabajo, el problema original se transforma en un problema
mono-objetivo incorporando la informaci´on de preferencia mediante una funci´on de
utilidad. El vector de pesos y el punto de referencia que utiliza esta funci´on son en-
tregados por el tomador de decisiones en cada generaci´on del algoritmo. La principal
limitaci´on de este algoritmo es que obtiene una ´unica soluci´on, lo cual ocurre por la
transformaci´on del problema original en un problema mono-objetivo.
Gong et al. [109] modificaron el algoritmo evolutivo basado en descomposici´on
MOEA/D [9] para obtener un m´etodo interactivo que incorpore las preferencias del
tomador de decisiones. En cada generaci´on del m´etodo propuesto, el TD selecciona
su soluci´on preferida entre las encontradas en esa etapa. A continuaci´on, todos los
vectores de pesos se redistribuyen alrededor de la soluci´on seleccionada y se realiza
otra generaci´on del MOEA/D utilizando los nuevos vectores de pesos. El aspecto
negativo de esta t´ecnica es que no permite explorar una vez m´as las regiones que ya
han sido desestimadas. Esto puede provocar que la regi´on descubierta del frente de
Pareto no sea la deseada por el TD.
Recientemente, Deb y Jain [16] presentaron NSGA-III, que es una versi´on del
NSGA-II basada en preferencias para lidiar con problemas de muchos objetivos. Este
algoritmo utiliza un conjunto de puntos de referencia que pueden ser calculados por
el propio m´etodo o entregados por el tomador de decisiones. Estos puntos de refe-
rencia representan las regiones del frente de Pareto que deben ser descubiertas. Para
discriminar entre dos soluciones no dominadas reemplazaron el segundo criterio de
selecci´on del NSGA-II por una funci´on de utilidad. El valor de esta funci´on indica la
relevancia de una soluci´on para aproximar un punto de referencia. La efectividad de
este algoritmo fue analizada en varios problemas de hasta 15 objetivos. Los resulta-
dos experimentales mostraron que posee un desempe˜no competitivo con respecto a
MOEA/D. Un variante de NSGA-III para solucionar problemas con restricciones fue
propuesta en [110].
L´opez y Coello [106] propusieron una relaci´on de preferencia que permite incorpo-
rar en un AEMO las preferencias del tomador de decisiones, sin necesidad de modificar
la estructura original del algoritmo. Adem´as, basado en esta relaci´on de preferencia,
presentan un m´etodo interactivo que requiere una cantidad m´ınima de informaci´on
del tomador de decisiones. La relaci´on propuesta divide el espacio objetivo en dos
subespacios. Las soluciones presentes en el subespacio m´as cercano al punto de refe-
rencia son comparadas utilizando la dominancia de Pareto y el resto de las soluciones
son diferenciadas con base en una funci´on de utilidad. Esta relaci´on permite obtener
un conjunto de soluciones no dominadas alrededor del punto de referencia. El algorit-
mo propuesto fue utilizado para solucionar un problema de ingenier´ıa con instancias
de hasta seis objetivos. Los resultados experimentales mostraron la efectividad del
m´etodo para descubrir soluciones en regiones espec´ıficas del frente de Pareto.
Una gran parte de las t´ecnicas propuestas para incorporar informaci´on de prefe-
rencia en los AEMOs ha mostrado su efectividad al lidiar con problemas de cuatro
o m´as objetivos. Sin embargo, estos m´etodos requieren de la intervenci´on del toma-
CINVESTAV-IPN Departamento de Computaci´on
32 Cap´ıtulo 3
dor de decisiones para identificar las regiones de inter´es. Adem´as, cuando aumenta
el n´umero de objetivos, la cantidad de informaci´on requerida se hace mayor y en los
m´etodos interactivos la informaci´on se le solicita al TD varias veces durante la b´usque-
da. Otro problema se presenta durante el an´alisis que debe realizar el TD para preferir
una soluci´on (o regi´on del espacio objetivo) en una etapa intermedia de la b´usqueda,
pues en problemas con m´as de tres objetivos resulta compleja la visualizaci´on de las
soluciones. Por ´ultimo, la mayor parte de los m´etodos basados en informaci´on de pre-
ferencia no son capaces de encontrar soluciones en diferentes regiones del frente de
Pareto sin tener informaci´on previa (brindada por el TD) sobre su localizaci´on.
3.2.4. Basados en indicadores
Entre las diversas t´ecnicas que se han desarrollado para mejorar el desempe˜no
de los AEMOs en problemas con m´as de tres objetivos, los esquemas de selecci´on
basados en un indicador de desempe˜no han sido de las m´as populares [6, 8, 19]. Un
indicador de desempe˜no es una medida cuantitativa de la calidad con que un conjunto
de soluciones no dominadas representa el frente de Pareto. Debido a que la efectividad
de los AEMOs es generalmente evaluada con estos indicadores [3], cada vez son m´as
las propuestas que transforman el problema multiobjetivo original en el problema de
optimizar uno de estos indicadores [6]. Los indicadores n-arios comparan la calidad
relativa de n conjuntos de soluciones no dominadas. En el caso de un indicador unario,
su valor representa la calidad del conjunto de soluciones seg´un un criterio espec´ıfico
(puede ser convergencia, diversidad o ambas). El hipervolumen [111] es un indicador
unario que se ha convertido en la opci´on m´as popular de los AEMOs basados en
indicadores [8, 19]. La principal ventaja del hipervolumen es su compatibilidad con
la dominancia de Pareto [3]. Adem´as, se ha demostrado que maximizar su valor es
equivalente a encontrar el frente de Pareto ´optimo [20, 21].
Knowles y Corne [112] presentaron uno de los primeros AEMOs que utiliza el
hipervolumen en su esquema de selecci´on. Este algoritmo mantiene una poblaci´on
secundaria con las mejores soluciones encontradas durante el proceso de b´usqueda.
En cada generaci´on, una nueva soluci´on no dominada sustituye a otra de la poblaci´on
secundaria si al agregarla aumenta el hipervolumen del conjunto. Los autores proba-
ron (bajo ciertas condiciones) la convergencia y buena distribuci´on de las soluciones
obtenidas con este algoritmo.
Zitzler y K¨unzli [91] propusieron un esquema general (Indicator Based Evolutio-
nary Algorithm IBEA) para incorporar un indicador arbitrario en el mecanismo de
selecci´on de los AEMOs. En este esquema, las soluciones son comparadas utilizando
un indicador binario que conserve la relaci´on de dominancia. En [91] se presentan dos
variantes de IBEA, una basada en el indicador- y la otra basada en una versi´on bi-
naria del hipervolumen. Debido a que en IBEA no se utiliza la dominancia de Pareto,
la capacidad de b´usqueda no se deteriora con el aumento del n´umero de objetivos.
En varios estudios se ha comprobado la efectividad de este esquema para converger
hacia el frente de Pareto y al mismo tiempo se ha detectado su deficiencia en cuanto
CINVESTAV-IPN Departamento de Computaci´on
Optimizaci´on Evolutiva de Muchos Objetivos 33
a la diversidad de las soluciones encontradas [113, 114].
Beume et al. [18] propusieron el algoritmo SMS-EMOA (S metric selection Evolu-
tionary Multi-Objective Optimization Algorithm), el cual utiliza el hipervolumen como
criterio de selecci´on en una estrategia evolutiva del tipo (µ + 1). Este algoritmo se
basa en la propiedad del hipervolumen, seg´un la cual, maximizar este indicador per-
mite descubrir el frente de Pareto ´optimo. Para lograr esto, SMS-EMOA combina el
ordenamiento de soluciones no dominadas de NSGA-II [61] con el criterio de selecci´on
basado en la contribuci´on al hipervolumen propuesto por Knowles y Corne [112].
En el Algoritmo 3 se describen las etapas principales del SMS-EMOA. Este m´etodo
inicia con una poblaci´on aleatoria de N individuos. En cada generaci´on, se obtiene un
nuevo individuo aplicando los operadores de variaci´on (los mismos de NSGA-II) sobre
la poblaci´on actual. A continuaci´on, se realiza un ordenamiento de las soluciones uti-
lizando el m´etodo propuesto en NSGA-II y se obtienen h conjuntos (Ri, i = 1, . . . , h).
En cada conjunto Ri las soluciones son no dominadas entre s´ı y las soluciones de
Ri dominan a las de Rj si i < j. Finalmente, para cada soluci´on en Rh se calcula
su contribuci´on al hipervolumen y es eliminada la soluci´on que contribuye en menor
medida al hipervolumen de Rh. Este proceso se repite hasta satisfacer la condici´on de
parada.
Algoritmo 3 SMS-EMOA
Input: POM, criterio de parada y n´umero de individuos (N)
Output: Aproximaci´on del frente de Pareto.
1: Generar una poblaci´on inicial aleatoria: P(1)
← x
(1)
1 , x
(1)
2 , . . . , x
(1)
N
2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , N
3: while no se cumpla el criterio de parada do
4: Generar hijo x(t+1)
de la poblaci´on P(t)
utilizando los operadores de variaci´on
5: Evaluar f(x(t+1)
)
6: {R1, . . . , Rh} ← ordenar P(t)
∪ x(t+1)
//Ordenamiento del NSGA-II [61]
7: ∀x ∈ Rh : r(x) ← CHV (x, Rh) //Calcular la contribuci´on al Hipervolumen
8: xmin ← arg min
x∈Rh
r(x)
9: P(t+1)
← P(t)
 {xmin}
10: t ← t + 1
11: end while
12: return P(t)
SMS-EMOA garantiza que el hipervolumen del conjunto de soluciones no dismi-
nuya de una generaci´on a otra. Esto evita que las soluciones se alejen del frente de
Pareto, a diferencia de lo que ocurre con los operadores de diversidad de otros AE-
MOs [68]. Sin embargo, el uso del hipervolumen como criterio de selecci´on presenta
ciertas dificultades. En primer lugar, este indicador otorga mayor preferencia a las
soluciones que est´en en regiones convexas [111], lo cual impide obtener la misma dis-
tribuci´on en todo el frente de Pareto. En segundo lugar, el c´alculo del hipervolumen
CINVESTAV-IPN Departamento de Computaci´on
34 Cap´ıtulo 3
requiere que los valores de los objetivos est´en normalizados. Adem´as, Knowles y Cor-
ne [112] mostraron c´omo la variaci´on del punto de referencia puede causar un cambio
dr´astico en el valor del hipervolumen. Esto provoca que las relaciones de orden entre
dos conjuntos, seg´un este indicador, dependan del punto de referencia seleccionado.
A pesar de los inconvenientes anteriores, los AEMOs basados en hipervolumen han
mostrado un desempe˜no muy competitivo con respecto a los dem´as t´ecnicas en pro-
blemas con dos y tres objetivos. Sin embargo, la mayor dificultad de utilizar este
indicador es que su costo computacional crece de manera exponencial con el n´umero
de objetivos [22].
La complejidad de orden exponencial de los algoritmos existentes para calcular
el hipervolumen ha limitado el uso de este indicador en problemas con m´as de tres
objetivos [8]. Debido a esto, Brockhoff y Zitzler [23] propusieron un esquema general
(SIBEA) para combinar las estrategias de reducci´on del n´umero de objetivos con la
b´usqueda evolutiva basada en el hipervolumen. En este trabajo se estudia la efec-
tividad de las t´ecnicas de reducci´on δ-MOSS y k-EMOSS [87] al ser utilizadas en
el esquema propuesto para solucionar problemas de hasta nueve objetivos. Los re-
sultados experimentales mostraron que, considerando el mismo tiempo de c´omputo,
utilizar k-EMOSS mejora la convergencia de SIBEA. Esto es posible porque se puede
calcular un mayor n´umero de veces el valor del hipervolumen cuando disminuye el
n´umero de objetivos. Sin embargo, para que sea efectivo este esquema, se debe reducir
el problema a menos de seis objetivos.
Otra de las t´ecnicas empleadas para mejorar la eficiencia de los AEMOs basados en
el hipervolumen es la aproximaci´on de este indicador utilizando el muestreo de Monte
Carlo. Bader y Zitzler [24] proponen el algoritmo HypE (Hypervolume Estimation
Algorithm for Multi-Objective Optimization), el cual utiliza un n´umero determinado
de muestras para aproximar la contribuci´on de cada individuo al hipervolumen de
la poblaci´on. La precisi´on de esta aproximaci´on se puede aumentar utilizando un
mayor n´umero de muestras en el espacio objetivo, pero esto provocar´ıa un aumento
en el tiempo de c´omputo del algoritmo. Los resultados experimentales presentados
en [24] mostraron el desempe˜no competitivo de HypE con respecto a NSGA-II [61],
SPEA2 [62] y IBEA (basado en el indicador- ) [91], especialmente en problemas con
m´as de tres objetivos.
Recientemente, los indicadores ∆p [25] y R2 [26] han sido utilizados dentro del
mecanismo de selecci´on de varios AEMOs como alternativas al hipervolumen, prin-
cipalmente porque poseen un bajo costo computacional. El indicador ∆p se puede
ver como la distancia de Hausdorff promediada entre un conjunto de soluciones no
dominadas y el frente de Pareto ´optimo. ∆p est´a compuesto por las modificaciones de
otros dos indicadores: la distancia generacional y la distancia generacional invertida.
De esta manera, ∆p puede evaluar simult´aneamente la convergencia y la diversidad
de las soluciones. Sin embargo, el c´alculo de este indicador requiere de un conjunto
que sea representativo del frente de Pareto ´optimo. Distintas estrategias han sido
propuestas para calcular este conjunto de referencia. Por ejemplo, Gerstl et al. [115]
realizan una aproximaci´on lineal de las soluciones no dominadas para construir el con-
CINVESTAV-IPN Departamento de Computaci´on
Optimizaci´on Evolutiva de Muchos Objetivos 35
junto de referencia. Este m´etodo se propuso para problemas con dos objetivos y los
resultados experimentales mostraron su efectividad para lograr convergencia y buena
distribuci´on de las soluciones. Trautmann et al. [28] presentaron una extensi´on del
m´etodo anterior para m´as de tres objetivos. En esta propuesta, primero se proyectan
los vectores objetivos de las soluciones no dominadas en un espacio de dos dimensio-
nes y luego se obtiene la aproximaci´on lineal. Sin embargo, este algoritmo posee un
alto costo computacional y solo fue aplicado a problemas con tres objetivos. Rudolph
et al. [116] proponen utilizar un m´etodo para triangular las soluciones no dominadas
y obtener de esta forma el conjunto de referencia. Este m´etodo es m´as eficiente que
el presentado en [28] y permite obtener soluciones bien distribuidas en todo el frente
de Pareto, pero s´olo se aplica a problemas de tres objetivos.
Rodr´ıguez y Coello [27] proponen comparar dos soluciones no dominadas utilizan-
do la contribuci´on de cada una al indicador ∆p. El algoritmo propuesto (∆p-DDE)
construye el conjunto de referencia como un forma escalonada de los individuos no
dominados. Los resultados experimentales muestran un desempe˜no competitivo de
∆p-DDE respecto a SMS-EMOA, especialmente en cuanto al tiempo de ejecuci´on.
Las principales limitaciones de esta propuesta son la p´erdida de diversidad de las
soluciones al aumentar el n´umero de objetivos y su dificultad para lidiar con frentes
de Pareto discontinuos.
El indicador R2 [26] ha sido otra de las medidas de desempe˜no que se ha incor-
porado recientemente en varios AEMOs. Este indicador fue propuesto inicialmente
para comparar dos aproximaciones del frente de Pareto con base en un conjunto de
funciones de utilidad. Se ha comprobado que este indicador es d´ebilmente mon´otono
y posee cierta correlaci´on con el hipervolumen [31]. Estas propiedades, y el bajo costo
computacional que posee, lo convierten en una buena opci´on para sustituir al hiper-
volumen durante la soluci´on de problemas con muchos objetivos. Una de los primeros
intentos de incorporar R2 en un AEMO fue el algoritmo R2-EMOA (R2 Evolutionary
Multi-Objective Algorithm) propuesto por Trautmann et al. [29]. Este algoritmo es
una modificaci´on de SMS-EMOA donde se sustituye el hipervolumen por el indicador
R2, lo cual reduce el tiempo de c´omputo y permite su aplicaci´on a problemas con m´as
de tres objetivos. Por su parte, Phan y Suzuki [30] proponen R2-IBEA (R2 Indicator
Based Evolutionary Algorithm), el cual es una variante de IBEA [91] que incorpora
el indicador R2. Los resultados experimentales obtenidos en [29] y [30] muestran que
el uso del indicador R2 como reemplazo del hipervolumen puede lograr resultados
competitivos en problemas con m´as de tres objetivos.
Las propuestas analizadas reflejan el creciente inter´es de los investigadores del
´area por los AEMOs basados en indicadores. Principalmente, por la calidad de las
soluciones encontradas con los algoritmos que utilizan el hipervolumen. Sin embargo,
el costo computacional de este indicador limita su aplicaci´on a problemas con menos
de cuatro objetivos. Esto ha motivado el desarrollo de m´etodos m´as eficientes para su
c´alculo y el uso de indicadores alternativos que posean propiedades similares. Ambas
tendencias han logrado avances significativos en cuanto al tiempo de c´omputo, pero
no en igual medida en cuanto a la calidad de las soluciones.
CINVESTAV-IPN Departamento de Computaci´on
36 Cap´ıtulo 3
3.2.5. Basados en descomposici´on
Los m´etodos basados en descomposici´on transforman un problema de optimiza-
ci´on multiobjetivo en un conjunto de subproblemas de optimizaci´on mono-objetivo.
Aunque estos m´etodos son muy frecuentes en la programaci´on matem´atica, no fue
hasta despu´es de la propuesta de Zhang y Li [9] que lograron una mayor presencia en
la optimizaci´on evolutiva. El algoritmo propuesto en [9] (Multi-objective Evolutionary
Algorithm based on Decomposition MOEA/D) optimiza simult´aneamente todos los
subproblemas mediante la evoluci´on de una poblaci´on de soluciones. Cada individuo
de la poblaci´on es asociado con un subproblema y pertenece a una vecindad de solu-
ciones que comparten informaci´on durante la b´usqueda. El valor del objetivo de cada
subproblema se calcula con una funci´on de utilidad que incorpora el valor de todos los
objetivos del problema original. En el Algoritmo 4 se presentan las etapas principales
de MOEA/D.
Algoritmo 4 MOEA/D
Input: POM, criterio de parada, n´umero de individuos (N), funci´on de uti-
lidad (u), tama˜no de la vecindad (T), conjunto de vectores de pesos
W = wi | wi ∈ [0, 1]k
, k
j=1 wj
i = 1, i = 1, . . . , N
Output: Aproximaci´on del frente de Pareto.
1: Generar una poblaci´on inicial aleatoria: P ← {x1, x2, . . . , xN }
2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , N
3: Crear la poblaci´on secundaria: PS ← ∅
4: Calcular los T vecinos de cada vector: wi.V ← vecindad(W, wi, T), i = 1, . . . , N
5: Calcular el punto de referencia z : zi ← m´ınj=1,...,N fi(xj), i = 1, . . . , k
6: while no se cumpla el criterio de parada do
7: for i = 1 to N do
8: p, q ← random(wi.V ) //Seleccionar dos soluciones de la vecindad
9: y ← generar(xp, xq) //Aplicar los operadores de variaci´on de un AG
10: Evaluar el hijo: f(y)
11: Actualizar z : ∀j = 1, . . . , k si zj > fj(y) entonces zj ← fj(y)
12: Actualizar wi.V : ∀j ∈ wi.V si u(f(y) | wj, z) ≤ u(f(xj) | wj, z) entonces
xj ← y
13: Actualizar PS : (a) Eliminar de PS todos los vectores dominados por f(y)
(b) Agregar f(y) a PS si ning´un vector de PS domina a f(y)
14: end for
15: end while
16: return PS
MOEA/D puede descomponer el problema de optimizaci´on multiobjetivo utilizan-
do cualquiera de las funciones de utilidad existentes. Entre las distintas posibilidades,
la funci´on de Tchebycheff (ver 3.6) ha sido la opci´on m´as frecuente, pues se ha com-
probado que para toda soluci´on ´optima del frente de Pareto (x∗
) existe un vector de
CINVESTAV-IPN Departamento de Computaci´on
Optimizaci´on Evolutiva de Muchos Objetivos 37
Algoritmo 5 MOEA/D-DE
Input: POM, criterio de parada, n´umero de individuos (N), funci´on de utilidad
(u), tama˜no de la vecindad (T), m´aximo n´umero de reemplazos (nr), probabili-
dad de seleccionar los padres en la vecindad (δ), conjunto de vectores de pesos
W = wi | wi ∈ [0, 1]k
, k
j=1 wj
i = 1, i = 1, . . . , N
Output: Aproximaci´on del frente de Pareto.
1: Generar una poblaci´on inicial aleatoria: P ← {x1, x2, . . . , xN }
2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , N
3: Calcular los T vecinos de cada vector: wi.V ← vecindad(W, wi, T), i = 1, . . . , N
4: Calcular el punto de referencia z : zi ← m´ınj=1,...,N fi(xj), i = 1, . . . , k
5: while no se cumpla el criterio de parada do
6: for i = 1 to N do
7: d ← random(0, 1)
8: if d < δ then
9: Q ← wi.V //Los padres se tomar´an de la vecindad
10: else
11: Q ← {1, . . . , N} //o de toda la poblaci´on
12: end if
13: r1 ← i
14: r2, r3 ← random(Q)
15: y ← generar(xr1, xr2, xr3) //Aplicar los operadores de variaci´on de la ED
16: y ← mutaci´on(y) //Aplicar el operador de mutaci´on
17: Evaluar el hijo: f(y)
18: Actualizar z : ∀j = 1, . . . , k si zj > fj(y) entonces zj ← fj(y)
19: c = 0 //Inicia la actualizaci´on de las soluciones
20: while c = nr and Q = ∅ do
21: j ← random(Q)
22: si u(f(y) | wj, z) ≤ u(f(xj) | wj, z) entonces xj ← y
23: c ← c + 1 //No se pueden reemplazar m´as de nr soluciones
24: Q ← Q  {j}
25: end while
26: end for
27: end while
28: return P
CINVESTAV-IPN Departamento de Computaci´on
38 Cap´ıtulo 3
pesos w tal que x∗
es el ´optimo de 3.6. Como se muestra en el Algoritmo 4, MOEA/D
puede minimizar simult´aneamente la funci´on 3.6 para N vectores de pesos distintos,
lo que permite obtener N soluciones del frente de Pareto. Durante el proceso evoluti-
vo, la mejor soluci´on encontrada para cada subproblema se conserva en la poblaci´on
secundaria y s´olo puede ser sustituida por las nuevas soluciones que provienen de su
vecindad. La vecindad se define para cada vector de pesos w como el conjunto de los
T vectores m´as cercanos a w (considerando la distancia euclidiana).
u(f(x) | wj, z) = m´ax
i=1,...,k
wi
j | fi(x) − zi | (3.6)
En un trabajo posterior, Li y Zhang [10] propusieron una versi´on de MOEA/D
basada en la evoluci´on diferencial (MOEA/D-DE). Esta propuesta se distingue en
varios aspectos de MOEA/D. En primer lugar, utiliza la mutaci´on polinomial y los
operadores de la evoluci´on diferencial; estos ´ultimos poseen un mejor desempe˜no en la
b´usqueda que los operadores gen´eticos. Adem´as, agrega dos par´ametros al algoritmo
para evitar la p´erdida de la diversidad (en el Algoritmo 5 se describen las etapas
fundamentales de MOEA/D-DE). La primer medida utilizada en MOEA/D-DE para
mantener la diversidad, consiste en permitir, con una baja probabilidad (1 − δ), que
los padres de una soluci´on procedan de regiones distintas a la vecindad del subpro-
blema. Una de las caracter´ısticas negativas de MOEA/D, es que una soluci´on puede
reemplazar a todos sus vecinos. Esto provoca que se pierda la diversidad en la regi´on
que la contiene y resulte dif´ıcil para los operadores de variaci´on generar una mejor
soluci´on. Para evitar esta dificultad, MOEA/D-DE utiliza el par´ametro nr, el cual
establece el n´umero m´aximo de soluciones que pueden ser reemplazadas por un mismo
individuo.
Diversos estudios han mostrado que la efectividad de MOEA/D y MOEA/D-DE,
depende en cierta medida de la funci´on de utilidad y de la distribuci´on de los vectores
de pesos. Esto ha motivado el desarrollo de nuevas funciones de utilidad que puedan
incorporarse en estos algoritmos y de m´etodos que generen vectores de pesos uni-
formemente espaciados. Un ejemplo del primer tipo de propuestas se presenta en el
trabajo de Ishibuchi et al. [15]. La propuesta realizada en [15] emplea distintas funcio-
nes de utilidad al pasar de una generaci´on a otra y entre distintos individuos. Seg´un
los autores, de esta manera se puede lidiar con diferentes tipos de frentes de Pareto.
Por su parte, Ma et al. [14] proponen utilizar una modificaci´on de la descomposici´on
de Tchebycheff. Esta modificaci´on hace coincidir la direcci´on de la soluci´on ´optima
del subproblema y la direcci´on del vector de pesos correspondiente, lo cual mejora la
distribuci´on de las soluciones encontradas. Otro grupo de m´etodos se ha concentrado
en la generaci´on de los vectores de pesos. Jiang et al. [11] proponen un m´etodo para
adaptar autom´aticamente los vectores de pesos seg´un las caracter´ısticas geom´etricas
del frente de Pareto. Sin embargo, este m´etodo solo fue analizado en problemas de dos
y tres objetivos y supone ciertas propiedades del frente de Pareto. Recientemente, al-
gunos trabajos se han enfocado en las t´ecnicas de dise˜no uniforme [12, 13, 14] o el uso
del hipervolumen [30], para construir el conjunto de vectores de pesos uniformemente
distribuidos.
CINVESTAV-IPN Departamento de Computaci´on
Cap´ıtulo 4
Algoritmo Evolutivo Multiobjetivo
Basado en el Algoritmo de
Kuhn-Munkres
En este cap´ıtulo proponemos un algoritmo evolutivo multiobjetivo (AEMO) con
un mecanismo de selecci´on que no utiliza la dominancia de Pareto ni un indicador de
desempe˜no. La motivaci´on principal de este AEMO consiste en evitar los problemas
de escalabilidad que presentan los esquemas de selecci´on basados en la dominancia
de Pareto y el elevado costo computacional en que se incurre al seleccionar los indi-
viduos con base en su contribuci´on al hipervolumen. El algoritmo que presentamos,
denominado evoluci´on diferencial h´ungara (EDH), utiliza la evoluci´on diferencial para
generar las posibles soluciones y transforma el proceso de selecci´on en un problema
de asignaci´on lineal, el cual se resuelve con el algoritmo de Kuhn-Munkres, tambi´en
conocido como m´etodo h´ungaro.
En la primera secci´on de este cap´ıtulo se discuten las deficiencias de algunos
algoritmos basados en descomposici´on que se relacionan con nuestro trabajo y poste-
riormente se presenta nuestra propuesta. La segunda secci´on describe el algoritmo de
Kuhn-Munkres, utilizado para solucionar los problemas de asignaci´on lineal en los que
transformamos el proceso de selecci´on de cada generaci´on. La construcci´on de estos
problemas de asignaci´on requiere de un conjunto de vectores de pesos uniformemente
distribuidos en el espacio de los objetivos. El algoritmo m´as com´unmente utilizado
para generar los vectores de pesos es el m´etodo simplex-lattice. En la ´ultima secci´on se
analizan las principales deficiencias de este m´etodo y se propone un algoritmo basado
en el dise˜no uniforme.
4.1. Evoluci´on diferencial h´ungara
En el Cap´ıtulo 3 se analizaron las principales deficiencias de los AEMOs actuales
al lidiar con problemas de optimizaci´on de m´as de tres objetivos. La mayor dificul-
tad que presentan estos algoritmos cuando crece el n´umero de objetivos consiste en
39
40 Cap´ıtulo 4
seleccionar los individuos que deben sobrevivir de una generaci´on a otra. Diversos en-
foques se han propuesto para enfrentar este problema, siendo los algoritmos basados
en descomposici´on uno de los m´as efectivos. En este tipo de algoritmos, el problema
de optimizaci´on multiobjetivo se transforma en un conjunto de subproblemas de op-
timizaci´on escalar, de tal forma que la soluci´on de cada subproblema represente una
regi´on distinta del frente de Pareto.
MOEA/D [9] es considerado el principal exponente de los algoritmos basados en
descomposici´on. Este algoritmo evoluciona de forma simult´anea un conjunto de indivi-
duos que representan las soluciones de cada subproblema de optimizaci´on escalar. De
esta manera, permite obtener en una ´unica ejecuci´on varias soluciones que aproximen
el frente de Pareto. Sin embargo, MOEA/D presenta dos deficiencias fundamentales
que atentan contra la diversidad de las soluciones. En primer lugar, s´olo se puede
obtener una nueva soluci´on al reproducir individuos de una misma vecindad (que
procedan de una misma regi´on del espacio de los objetivos). La segunda deficiencia
consiste en que una nueva soluci´on con elevada aptitud puede reemplazar a todas las
soluciones de su vecindad. En la figura 4.1 se presenta un ejemplo donde una soluci´on
sustituye a todos sus vecinos, debido a que posee un mayor valor de la funci´on de uti-
lidad. Para este ejemplo se consider´o que la funci´on de utilidad es la descomposici´on
de Tchebycheff modificada propuesta en [16]
u(f(x) | wj, z) = m´ax
i=1,...,k
| fi(x) − zi |
wi
j
(4.1)
y que el punto de referencia z es el origen de coordenadas, con lo cual se pue-
de determinar la aptitud de cada individuo xi, i = 1 . . . 5. Los vectores de pesos
w1 = (0.45, 0.55), w2 = (0.5, 0.5), w3 = (0.55, 0.45) y w4 = (0.6, 0.4) corresponden a
distintos subproblemas en los que MOEA/D descompone el problema multiobjetivo
original. En una generaci´on determinada del proceso evolutivo, x1 = (0.6, 0.8), x2 =
(0.7, 0.7), x3 = (0.75, 0.6) y x4 = (0.8, 0.5) son las mejores soluciones encontradas
para w1, w2, w3 y w4, respectivamente. Por su parte, x5 = (0.55, 0.5) es una soluci´on
generada con los individuos de su vecindad xi, i = 1 . . . 4. Utilizando la expresi´on 4.1
se obtiene que
u(f(x1) | w1) = 1.33 u(f(x5) | w1) = 1.25
u(f(x2) | w2) = 1.36 u(f(x5) | w2) = 1.11
u(f(x3) | w3) = 1.40 u(f(x5) | w3) = 1.10
u(f(x4) | w4) = 1.45 u(f(x5) | w4) = 1.22.
Seg´un estos valores, el individuo x5 sustituye al resto de los individuos de su vecindad
como mejor soluci´on de cada subproblema. Esto provoca que una misma soluci´on se
repita varias veces dentro de la poblaci´on, disminuyendo la diversidad y, por tanto,
las posibles regiones a explorar.
CINVESTAV-IPN Departamento de Computaci´on
Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 41
0
0.2
0.4
0.6
0.8
1
0 0.2 0.4 0.6 0.8 1
f2
f1
Frente de Pareto
w1 w2
w3
w4
x1
x2
x3
x4x5
Población(t) = {x1, x2, x3, x4}
Población(t+1) = {x5, x5, x5, x5}
Figura 4.1: Deficiencia del algoritmo MOEA/D en su proceso de actualizaci´on de las solu-
ciones vecinas. Para cada vector de pesos wi, i = 1 . . . 4, la soluci´on x5 posee mayor valor
de la funci´on de utilidad que las dem´as soluciones de su vecindad (xi, i = 1 . . . 4). Debido
a esto, x5 pasa a ser la soluci´on de 4 subproblemas y se repite igual n´umero de veces en la
poblaci´on, disminuyendo la diversidad de la misma.
Li y Zhang propusieron en [10] una variante de MOEA/D con el objetivo de
evitar las dos deficiencias mencionadas. Esta propuesta, denominada MOEA/D-DE,
permite, con cierta probabilidad, que un nuevo individuo sea generado a partir de
soluciones de distintas vecindades. Adem´as, limita a un valor predefinido el n´umero
de soluciones que pueden ser reemplazadas por un mismo individuo. Sin embargo,
tanto MOEA/D como MOEA/D-DE buscan el ´optimo de cada subproblema de ma-
nera independiente, suponiendo que esto genera el mejor conjunto de soluciones de
manera global, lo cual no siempre es correcto, tal y como se muestra en la figura 4.2.
Ambos algoritmos generan una nueva soluci´on y buscan en qu´e subproblema este
individuo puede sustituir a su soluci´on actual (ver figura 4.2 (a)), pero no consideran
que el individuo reemplazado en un subproblema podr´ıa mejorar la soluci´on de otro
subproblema (ver figura 4.2 (b)). Esto ocurre porque la asignaci´on de los individuos
a cada subproblema se realiza buscando la mejor soluci´on de ´este, sin considerar la
mejor asignaci´on de manera global.
El algoritmo evolutivo multiobjetivo que se presentar´a a continuaci´on posee un
esquema de selecci´on que evita las deficiencias de MOEA/D y MOEA/D-DE mostra-
das en las figuras 4.1 y 4.2. Esto lo logra transformando el proceso de selecci´on en
un problema de asignaci´on lineal que es solucionado de manera ´optima con el algorit-
CINVESTAV-IPN Departamento de Computaci´on
42 Cap´ıtulo 4
0.4
0.5
0.6
0.7
0.8
0.9
1
0.5 0.6 0.7 0.8 0.9 1
f2
f1
(a) Asignación realizada por MOEA/D y MOEA/D−DE
Frente de Pareto
w1 w2
w3
w4
x1
x2
x3
x4
x5
Población(t) = {x1, x2, x3, x4}
Población(t+1) = {x1, x5, x3, x4}
u2,2 = 1.44
u5,2 = 1.36
0.4
0.5
0.6
0.7
0.8
0.9
1
0.5 0.6 0.7 0.8 0.9 1
f2
f1
(b) Asignación óptima global
Frente de Pareto
w1 w2
w3
w4
x1
x2
x3
x4
x5
Población(t) = {x1, x2, x3, x4}
Población(t+1) = {x2, x5, x3, x4}
u2,2 = 1.44
u1,1 = 1.58
u5,2 = 1.36
u2,1 = 1.45
Figura 4.2: Proceso de actualizaci´on de las soluciones de una vecindad. En (a) se muestra
c´omo MOEA/D y MOEA/D-DE asignan el nuevo individuo x5 al subproblema correspon-
diente a w2 y eliminan la soluci´on anterior x2 sin analizar si puede mejorar la soluci´on de
otro subproblema. En (b) no se elimina a x2, sino que sustituye a x1 como soluci´on del
subproblema que corresponde a w1, logr´andose una mejor soluci´on global.
CINVESTAV-IPN Departamento de Computaci´on
Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 43
mo de Kuhn-Munkres. El AEMO que proponemos se denomina evoluci´on diferencial
h´ungara (EDH), pues adopta los operadores de reproducci´on de la evoluci´on diferen-
cial para obtener las nuevas soluciones en cada generaci´on y utiliza el m´etodo h´ungaro
en su esquema de selecci´on. En el Algoritmo 6 se muestran los pasos principales de
EDH.
Algoritmo 6 Evoluci´on diferencial h´ungara (EDH)
Input: POM, tama˜no de la poblaci´on (n), n´umero m´aximo de generaciones (gmax),
valores de los par´ametros Cr y F de la evoluci´on diferencial rand/1/bin
Output: Pgmax (aproximaci´on de P∗
y de PF∗
)
1: Generar una poblaci´on inicial aleatoria: P1 ← {x1, x2, . . . , xn}
2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , n
3: W ← Conjunto de n vectores de pesos generados con el Algoritmo 7 (p´agina 51)
4: for g = 1 to gmax do
5: P∗
g ← Generar la descendencia de Pg utilizando los operadores de recombinaci´on
de DE/rand/1/bin (ver Algoritmo 2 en la p´agina 17)
6: Evaluar cada individuo en P∗
g
7: Qg ← Pg ∪ P∗
g
8: Calcular z max
y z min
mediante (4.2)
9: Normalizar el valor de los objetivos de cada individuo en Qg mediante (4.3)
10: Generar la matriz de costo C mediante (4.5) utilizando Qg y W
11: I ← Obtener la asignaci´on ´optima en C utilizando el m´etodo h´ungaro presen-
tado en la secci´on 4.2, en la p´agina 45
12: Pg+1 ← {xi ∈ Qg | i ∈ I , }
13: end for
En cada generaci´on g del algoritmo EDH se tiene una poblaci´on Pg de n individuos
padres y una poblaci´on P∗
g de n descendientes, obtenidos de Pg mediante los operado-
res de recombinaci´on de la evoluci´on diferencial. Estas dos poblaciones se unen para
formar el conjunto de soluciones Qg = Pg ∪P∗
g . Las 2n soluciones de Qg y un conjunto
de n vectores de pesos uniformemente dispersos en el espacio objetivo se utilizan para
construir un problema de asignaci´on lineal. Este problema de asignaci´on es equivalen-
te al problema de seleccionar los n individuos que pasar´an a la siguiente generaci´on
y se define como: Se tienen 2n soluciones y n vectores bien distribuidos en el simplex
unitario de dimensi´on k−1 del espacio objetivo; adem´as, existe un costo por represen-
tar cada uno de estos vectores con alguna de las soluciones que conforman la actual
aproximaci´on del frente de Pareto; se requiere describir las regiones cubiertas por los
n vectores de pesos utilizando solamente n individuos, de tal forma que el costo total
sea m´ınimo. La etapa fundamental de la construcci´on de este problema de asignaci´on
consiste en generar una funci´on de costo, de tal forma que al minimizar el costo total
de las asignaciones se retengan las soluciones que sean una buena aproximaci´on del
frente de Pareto. A continuaci´on, se describe el procedimiento empleado por EDH
para construir este problema de asignaci´on lineal.
CINVESTAV-IPN Departamento de Computaci´on
44 Cap´ıtulo 4
En primer lugar, el valor de cada objetivo en las 2n soluciones de Qg es nor-
malizado, para reducir el espacio objetivo a un hipercubo unitario y as´ı lidiar con
funciones objetivo de valores no comparables. Para ello, se construye el vector de
valores m´aximos z max
y el vector de valores m´ınimos z min
como
z max
= [zmax
1 , ..., zmax
k ]T
, zmax
i = m´ax
j=1,...,2n
fi(xj), i = 1, ..., k,
z min
= [zmin
1 , ..., zmin
k ]T
, zmin
i = m´ın
j=1,...,2n
fi(xj), i = 1, ..., k,
(4.2)
donde fi(xj) es el valor del objetivo i-´esimo en el individuo xj ∈ Qg. El valor norma-
lizado de fi(xj) se calcula como
˜fi(xj) =
fi(xj) − zmin
i
zmax
i − zmin
i
, j = 1, ..., 2n, i = 1, ..., k. (4.3)
Con los valores normalizados de las funciones objetivo y el conjunto
W ⊂ W = {w | w ∈ [0, 1]k
,
k
i=1
wi = 1}, |W| = n, (4.4)
de n vectores de pesos uniformemente dispersos en el s´ımplex de dimensi´on k − 1, se
puede calcular el costo Crj de asignar el individuo xj al vector de pesos wr mediante
la expresi´on
Crj = m´ax
i=1,...,k
fi(xj)
wri
, r = 1, ..., n, j = 1, ..., 2n. (4.5)
En esta expresi´on utilizamos la descomposici´on de Tchebycheff modificada propuesta
en [16] en lugar de la descomposici´on de Tchebycheff original. Esta selecci´on es debi-
da a que el vector de pesos de un subproblema y la direcci´on de su soluci´on ´optima
coinciden en la versi´on modificada, pero en el caso de la descomposici´on de Tcheby-
cheff original la relaci´on entre estas dos direcciones es no lineal. Por tanto, con la
descomposici´on de Tchebycheff modificada si es posible controlar de manera directa
la distribuci´on de las soluciones en el espacio objetivo.
Los valores de la matriz C obtenida con 4.5 indican cu´an adecuada es una solu-
ci´on para representar cada regi´on del frente de Pareto. Esta matriz de costo unida
a las siguientes dos condiciones constituyen nuestro problema de asignaci´on lineal.
La soluci´on de este problema consiste en encontrar una combinaci´on de valores de C
cuya suma sea el menor valor posible y se cumplan ambas condiciones.
1. Se debe seleccionar un ´unico valor por cada fila. Esto asegura que s´olo un
individuo es asignado a cada regi´on del frente de Pareto.
2. Se puede seleccionar cuando m´as un valor por cada columna. Esto asegura que
un mismo individuo no sea asignado a m´as de una regi´on del frente de Pareto.
CINVESTAV-IPN Departamento de Computaci´on
Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 45
La definici´on matem´atica de este tipo de problemas se presenta en la secci´on 4.2
(ver la expresi´on (4.7)). En esa misma secci´on se explica el m´etodo empleado para
su soluci´on, que consiste en una variante del algoritmo de Kuhn-Munkres para ma-
trices rectangulares. Como se puede observar en (4.7), la soluci´on de un problema
de asignaci´on se puede representar con una matriz. En nuestro problema, las filas de
dicha matriz corresponden a los vectores de pesos y las columnas a los individuos de
la poblaci´on, de tal forma que un uno en la entrada ij implica que el individuo j
fue asignado al vector i. El conjunto I presente en el Algoritmo 6 (en la p´agina 43)
contiene todas las columnas de la matriz soluci´on donde existe un uno. La poblaci´on
Pg+1 de la siguiente generaci´on estar´a constituida por todos los individuos que hayan
sido asignados. Este procedimiento se repite hasta que se satisfagan las condiciones
de parada del algoritmo. La ´ultima poblaci´on de individuos Pgmax es la aproximaci´on
que realiza EDH del conjunto de ´optimos de Pareto y del frente de Pareto.
4.2. Algoritmo de Kuhn-Munkres
Los problemas de asignaci´on conforman una de las clases fundamentales de la
optimizaci´on combinatoria. En su forma m´as general se pueden expresar como: dados
un conjunto de agentes, un conjunto de tareas, las restricciones sobre cu´ales agentes
pueden realizar cada tarea y el costo de esa ejecuci´on, se requiere desarrollar todas
las tareas asignando un solo agente por tarea y sin repetir un mismo agente en m´as
de una tarea, de manera que el costo total sea m´ınimo. El caso m´as simple de los
problemas de asignaci´on son los problemas de asignaci´on lineal (PALs). En los PALs,
se considera que el costo total es la suma del costo de cada asignaci´on. Adem´as, el
n´umero de agentes y de tareas coincide, y cualquier agente puede ser asignado para
realizar cada tarea. Formalmente, un PAL se puede formular como se indica en la
Definici´on 8.
Definici´on 8 (Problema de asignaci´on lineal) Dados un conjunto de agentes
A = {a1, ..., an}, un conjunto de tareas T = {t1, ..., tn}, la funci´on C : A×T → R que
representa el costo de realizar las tareas de T con los elementos de A y sea Φ : A → T
el conjunto de todas las posibles biyecciones entre A y T. Se requiere
m´ın
φ∈Φ
a∈A
C(a, φ(a)) (4.6)
Es m´as com´un que los problemas de asignaci´on lineal se formulen como problemas
de programaci´on lineal entera. Para esto, la funci´on de costo C se representa como
una matriz cuadrada de valores reales, donde cada elemento cij = C(ai, tj). Adem´as,
el conjunto Φ de todas las posibles biyecciones entre A y T se representa como el
conjunto X de todas las posibles matrices de asignaci´on. En una matriz de asignaci´on
x ∈ X, las filas representan los agentes y las columnas a las tareas. En caso de ser
asignado el agente i para realizar la tarea j, la entrada xij de la matriz contiene un
uno, de lo contrario contiene un cero. De esta manera, un PAL se puede expresar
CINVESTAV-IPN Departamento de Computaci´on
46 Cap´ıtulo 4
como el siguiente problema de programaci´on lineal entera.
m´ın
x∈X
n
i=1
n
j=1
Cijxij
sujeto a:
n
i=1
xij = 1, ∀j ∈ {1, .., n},
n
j=1
xij ≤ 1, ∀i ∈ {1, ..., n},
xij ∈ {0, 1}, ∀i, j ∈ {1, ..., n}.
(4.7)
Ejemplo de un problema de asignaci´on lineal: Sea P = {P1, P2, P3} un
conjunto de procesadores y T = {T1, T2, T3} un conjunto de tareas. El costo de asignar
la tarea Tj al procesador Pi est´a dado por la entrada Cij de la matriz
C =


T1 T2 T3
P1 1 2 3
P2 2 4 6
P3 3 6 9


Se desea minimizar el costo total de ejecutar cada tarea con un procesador distinto.
La soluci´on de este problema se podr´ıa obtener mediante un m´etodo de fuerza
bruta, el cual realizar´ıa una b´usqueda exhaustiva de todas las posibles combinaciones
para asignar cada tarea a un procesador distinto. De esta manera, se podr´ıa calcular
el costo total de cada combinaci´on y seleccionar la de menor valor. Sin embargo, el
n´umero de combinaciones posibles es n!, donde n es el n´umero de tareas a realizar.
En el ejemplo presentado, el valor de n es 3 y, por tanto, solo se analizar´ıan 6 com-
binaciones, pero para valores mayores de n este m´etodo no es pr´actico por su alto
costo computacional. Una forma de obtener en menor tiempo una posible soluci´on a
este problema es utilizar una m´etodo voraz. En este caso, se podr´ıa asignar a cada
tarea el procesador con menor costo que a´un no haya sido asignado. En la figura 4.3
se presentan la soluci´on obtenida con una estrategia voraz y la soluci´on ´optima del
problema (se resaltan las asignaciones realizadas en cada caso). La estrategia voraz
consiste en asignar cada tarea, comenzando por la primera, al procesador disponible
que la ejecute con el menor costo. Aunque esta estrategia sea muy eficiente en cuan-
to al costo computacional, no siempre encuentra la soluci´on ´optima, tal y como se
muestra en la figura 4.3.
Soluci´on voraz del PAL Soluci´on ´optima del PAL
C =


T1 T2 T3
P1 1 2 3
P2 2 4 6
P3 3 6 9

 C =


T1 T2 T3
P1 1 2 3
P2 2 4 6
P3 3 6 9


Figura 4.3: Soluci´on de un problema de asignaci´on lineal (PAL).
CINVESTAV-IPN Departamento de Computaci´on
Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 47
En 1955, Harold W. Kuhn [117] propuso un algoritmo de optimizaci´on combi-
natoria que soluciona en tiempo polinomial los problemas de asignaci´on lineal. Este
trabajo fue pionero en el ´area y, seg´un su autor, estuvo inspirado en el trabajo previo
de los matem´aticos h´ungaros D. K¨onig y E. Egerv´ary; raz´on por la cual Kuhn de-
nomin´o a su propuesta el M´etodo H´ungaro. Posteriormente, James Munkres revis´o el
trabajo de Kuhn y le realiz´o importantes modificaciones a los aspectos te´oricos del
algoritmo. Munkres determin´o que el algoritmo posee un tiempo de ejecuci´on de or-
den polinomial y propuso en 1957 una versi´on de orden O(n3
) [118]. Debido a las
contribuciones que realizara Munkres al desarrollo del M´etodo H´ungaro, actualmente
este m´etodo tambi´en se conoce por el nombre de Algoritmo de Kuhn-Munkres.
El algoritmo de Kuhn-Munkres se construy´o para solucionar problemas de asigna-
ci´on lineal donde el n´umero de agentes coincide con el n´umero de tareas y, por tanto,
la matriz de costo es una matriz cuadrada. Una extensi´on de este algoritmo para
matrices rectangulares fue propuesta por Bourgeois y Lassalle en 1971 [119]. La ex-
tensi´on realizada al algoritmo de Kuhn-Munkres permite solucionar problemas donde
el n´umero de agentes y tareas es distinto. A continuaci´on, se presenta la descripci´on
de cada etapa de la extensi´on propuesta por Bourgeois y Lassalle (en la figura 4.4 se
muestra un ejemplo de la ejecuci´on de este algoritmo).
Paso 1: para cada fila de la matriz de costo, encontrar el menor elemento y
restarlo a cada elemento de la fila. Al terminar, ir al paso 2.
Paso 2: encontrar un cero en la matriz resultante del paso 1. Si no est´a marcado
con un asterisco (0∗
), ni existe otro cero marcado en su fila o columna, marcarlo.
Repetir para cada cero en la matriz. Ir al paso 3.
Paso 3: cubrir cada columna (marcar todas las celdas de la columna) que
contenga un 0∗
. Si son cubiertas k columnas, donde k es el m´ınimo entre el
n´umero de columnas y el n´umero de filas, las posiciones de los 0∗
describen
un conjunto completo de asignaciones ´unicas. En este caso se termina, en caso
contrario, ir al paso 4.
Paso 4: encontrar un cero que no haya sido cubierto y marcarlo con una tilde
(0 ). Si no existe un 0∗
en su fila, ir al paso 5. En caso contrario, cubrir su fila
y descubrir la columna que contiene al 0∗
. Continuar de esta forma hasta que
no existan ceros sin cubrir. Encontrar el menor valor no cubierto e ir al paso 6.
Paso 5: construir la serie (Z0, Z1, Z2, . . . , Zm) alternando 0 y 0∗
como sigue.
Z0 es el 0 no cubierto encontrado en el paso 4, Z1 es el 0∗
en la columna de Z0
y Z2 es el 0 en la fila de Z1 (siempre existir´a uno). Continuar de esta manera
hasta que la serie termine en un 0 (representado por Zm) que no tiene 0∗
en
su columna. Luego, desmarcar cada 0∗
de la serie y transformar cada 0 de la
serie en un 0∗
. Posteriormente, desmarcar cada 0 que no pertenezca a la serie
y descubrir todas las filas y columnas de la matriz. Volver al paso 3.
CINVESTAV-IPN Departamento de Computaci´on
48 Cap´ıtulo 4
Paso 6: Sumar el menor valor no cubierto a cada elemento de las filas cubiertas
y sustraerlo de cada elemento de las columnas no cubiertas. Volver al paso 4 sin
alterar los 0 , los 0∗
y las columnas y filas cubiertas.
En la figura 4.4 se muestran los pasos realizados durante la ejecuci´on del algo-
ritmo de Kuhn-Munkres para solucionar el problema de asignaci´on lineal presentado
anteriormente en esta secci´on.
T1 T2 T3
P1 1 2 3
P2 2 4 6
P3 3 6 9
Matriz de costo
T1 T2 T3
P1 0 1 2
P2 0 2 4
P3 0 3 6
Paso 1
T1 T2 T3
P1 0∗
1 2
P2 0 2 4
P3 0 3 6
Paso 2
T1 T2 T3
P1 0∗
1 2
P2 0 2 4
P3 0 3 6
Paso 3
T1 T2 T3
P1 0∗
1 2
P2 0 2 4
P3 0 3 6
Paso 4
T1 T2 T3
P1 0∗
0 1
P2 0 1 3
P3 0 2 5
Paso 6
T1 T2 T3
P1 0∗
0 1
P2 0 1 3
P3 0 2 5
Paso 4
T1 T2 T3
P1 0 0∗
1
P2 0∗
1 3
P3 0 2 5
Paso 5
T1 T2 T3
P1 0 0∗
1
P2 0∗
1 3
P3 0 2 5
Paso 3
T1 T2 T3
P1 0 0∗
1
P2 0∗
1 3
P3 0 2 5
Paso 4
T1 T2 T3
P1 0 0∗
0
P2 0∗
1 2
P3 0 2 4
Paso 6
T1 T2 T3
P1 0 0∗
0
P2 0∗
1 2
P3 0 2 4
Paso 4
T1 T2 T3
P1 1 0∗
0
P2 0∗
0 1
P3 0 1 3
Paso 6
T1 T2 T3
P1 1 0∗
0
P2 0∗
0 1
P3 0 1 3
Paso 4
T1 T2 T3
P1 1 0 0∗
P2 0 0∗
1
P3 0∗
1 3
Paso 5
T1 T2 T3
P1 1 0 0∗
P2 0 0∗
1
P3 0∗
1 3
Paso 3
Figura 4.4: Ejemplo de la ejecuci´on del algoritmo de Kuhn-Munkres.
4.3. Generaci´on de vectores de pesos
Existen varios AEMOs [9, 10, 16, 29, 30] que requieren, para aproximar el frente
de Pareto en problemas con k objetivos, un conjunto W (ver 4.4) de vectores unifor-
memente dispersos en un s´ımplex de dimensi´on k−1. Este conjunto de pesos se puede
generar con diversos m´etodos presentes en la literatura especializada [120, 121]. El
m´etodo m´as utilizado en los AEMOs ha sido el simplex-lattice [122], el cual produce
el conjunto de puntos igualmente espaciados
W = w | wi ∈ 0,
1
H
,
2
H
, . . . ,
H − 1
H
, 1 , i = 1, . . . , k,
k
i=1
wi = 1 , (4.8)
CINVESTAV-IPN Departamento de Computaci´on
Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 49
donde H representa el n´umero de divisiones en cada objetivo. Sin embargo, este
m´etodo presenta tres problemas principales [120]:
1. La distribuci´on de los vectores de pesos no es muy uniforme. En la figura 4.5 (a)
se muestra el conjunto de 126 vectores de pesos generados con el simplex-lattice
en un espacio de seis dimensiones. En esta figura se puede observar que cada
componente de los vectores posee s´olo 5 valores distintos. Por tanto, los AEMOs
que utilicen este conjunto de pesos se limitan a explorar vectores de soluci´on
con poca diversidad en el valor de cada funci´on objetivo.
2. El n´umero de vectores generados aumenta de manera no lineal con respecto al
n´umero de objetivos. Esto es debido a que el tama˜no del conjunto W es H+k−1
k−1
.
En la figura 4.5 (b) se puede observar el crecimiento exponencial del n´umero
de vectores con respecto al n´umero de objetivos para un valor fijo de H = 15.
Esto dificulta mantener la misma precisi´on de muestreo del espacio a medida
que aumenta el n´umero de objetivos e impide construir un conjunto de pesos
de tama˜no arbitrario.
3. La mayor parte de los vectores est´an distribuidos en la frontera del s´ımplex. La
figura 4.5 (c) presenta el porcentaje de vectores de pesos ubicados en la frontera
del s´ımplex con respecto al total, a medida que aumenta el n´umero de objetivos
(el valor de H se fij´o en 15). Se puede observar que para 7 objetivos apenas
un 5 % de los vectores no son fronterizos y para 9 objetivos o m´as esta cifra
no alcanza el 1 %. Esto muestra que a pesar de generar un gran n´umero de
vectores (en 10 dimensiones es del orden de 106
) no se representa correctamente
el interior del s´ımplex.
Para evitar las deficiencias que posee el simplex-lattice, algunos AEMOs han utili-
zado otros m´etodos para generar el conjunto de vectores de pesos. En [30] se propone
un algoritmo que obtiene los vectores de pesos maximizando el hipervolumen cubierto
por ´estos en el espacio objetivo. Por otra parte, en [12, 13, 14] se combinan el m´etodo
glp (good lattice point) [123] y el dise˜no uniforme (DU) [120] para calcular los vectores
de pesos. Sin embargo, tanto el c´alculo del hipervolumen como el m´etodo glp tienen
un alto costo computacional cuando aumenta el n´umero de objetivos.
Recientemente, algunos autores [12, 13, 14] han optado por utilizar m´etodos de
dise˜no uniforme para generar los vectores de pesos en los AEMOs. El DU es una
t´ecnica que busca puntos uniformemente espaciados en un dominio [120] y ha tenido
gran aplicaci´on en problemas industriales [124]. En el DU se determina el conjunto
de vectores P con mejor distribuci´on en un dominio D utilizando una medida de
uniformidad M. Los m´etodos de DU buscan el conjunto P∗
⊂ D que posee el menor
valor de M:
P∗
= arg min
P⊂D
M(P). (4.9)
La medida de uniformidad m´as popular es la Discrepancia–L2 Centrada (DC2) [120].
Sin p´erdida de generalidad, se puede considerar el dominio D = [0, 1]k
, entonces el
CINVESTAV-IPN Departamento de Computaci´on
50 Cap´ıtulo 4
10
1
10
2
10
3
104
105
10
6
2 3 4 5 6 7 8 9 10
Númerodevectoresdepesos Número de objetivos
(b)
0.0
0.2
0.4
0.6
0.8
1.0
w1 w2 w3 w4 w5 w6
(a)
20 %
40 %
60 %
80 %
100 %
2 3 4 5 6 7 8 9 10
Vectoresdepesosenlafrontera
Número de objetivos
(c)
Figura 4.5: Deficiencias del m´etodo simplex-lattice. En (a) se muestra la alta tasa de re-
petici´on del valor de cada componente de los 126 vectores generados en un espacio de 6
dimensiones para H = 4. En (b) se presenta el crecimiento exponencial del n´umero de vec-
tores y en (c) el aumento de la proporci´on de vectores fronterizos. Tanto en (b) como en (c)
el valor de H se mantiene en 15 para cualquier n´umero de objetivos.
valor de DC2 para un conjunto de puntos P = {x1, . . . , xn} ⊂ D se determina por la
expresi´on
DC2(P)2
=
13
12
k
−
2
n
n
i=1
k
j=1
1 +
1
2
|xij −
1
2
| −
1
2
|xij −
1
2
|2
+
1
n2
n
i=1
n
r=1
k
j=1
1 +
1
2
|xij −
1
2
| +
1
2
|xrj −
1
2
| −
1
2
|xij − xrj| (4.10)
La b´usqueda de P∗
cuando k > 1 es un problema NP duro, a´un para valores
peque˜nos de n. Debido a esto, se ha propuesto utilizar m´etodos que aproximen el
conjunto P∗
. Fang y Wang [120] recomiendan diversos m´etodos cuasi Monte-Carlo
que pueden aproximar P∗
con un valor de DC2 de orden O((log n)k
/n). Algunos de
estos m´etodos son muy eficientes en cuanto al costo computacional, pero se limitan a
determinados valores de n y k. Otros m´etodos, como el glp, obtienen buenas aproxi-
maciones de P∗
para valores arbitrarios de n y k, pero requieren un elevado tiempo
de c´omputo.
En este trabajo, proponemos utilizar el m´etodo de Hammersley [125] para apro-
ximar el conjunto P∗
de puntos uniformemente dispersos en el espacio [0, 1]k
. Este
algoritmo permite obtener un n´umero arbitrario de vectores k-dimensionales con una
buena distribuci´on, cercana a la obtenida por glp, pero con un costo computacional
muy inferior. El m´etodo de Hammersley se basa en la representaci´on p-´adica de los
n´umeros naturales, seg´un la cual todo entero positivo m se puede expresar de manera
´unica utilizando como base un n´umero primo p ≥ 2:
m =
r
i=0
bi × pi
, 0 ≤ bi ≤ p − 1, i = 0, . . . , r (4.11)
CINVESTAV-IPN Departamento de Computaci´on
Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 51
Algoritmo 7 Generaci´on de los vectores de pesos
Input: n´umero de objetivos (k), n´umero de vectores de pesos(n)
Output: W (conjunto de vectores de pesos con baja discrepancia)
1: p ← conjunto con los primeros k − 2 n´umeros primos
2: U ← ∅
3: for i = 1 to n do
4: ui1 ← (2i − 1)/2n
5: for j = 2 to k − 1 do
6: uij ← 0
7: f ← 1/pj−1
8: d ← i
9: while d > 0 do
10: uij ← uij + f × (d m´od pj−1)
11: d ← d/pj−1
12: f ← f/pj−1
13: end while
14: end for
15: U ← U ∪ {u}
16: end for
17: W ← Aplicar la transformaci´on (4.14) a U
donde pr
≤ m < pr+1
. De la representaci´on 4.11 de todo n´umero natural m ≥ 1 se
puede derivar su inverso radical yp(m) mediante la expresi´on
yp(m) =
r
i=0
bi × p−(i+1)
(4.12)
donde yp(m) ∈ (0, 1). Sea k ≥ 2 y P = {p1, . . . , pk−1} un conjunto de k − 1 primos
distintos, se denomina conjunto de Hammersley (CH) a los n puntos uniformemente
dispersos en el espacio [0, 1]k
definidos por
xi =
2i − 1
2n
, yp1 (i), . . . , ypk−1
(i)
T
, i = 1, . . . , n. (4.13)
El conjunto W (ver 4.4) de vectores de pesos uniformemente dispersos en el
(k − 1)-s´ımplex se puede obtener utilizando una aproximaci´on U del conjunto ´opti-
mo P∗
∈ [0, 1]k−1
. Para lograr esto, Wang y Fang [126] proponen el Dise˜no Unifor-
me de Experimentos con Mezclas. Este m´etodo transforma el conjunto U = {ui =
[ui1, ..., ui(k−1)]T
, i = 1, ..., n} en el conjunto W = {wt = [wti, ..., wtk]T
, t = 1, ..., n} de
CINVESTAV-IPN Departamento de Computaci´on
52 Cap´ıtulo 4
la siguiente manera.
wti = (1 − u
1
k−i
ti )
i−1
j=1
u
1
k−j
tj , i = 1, ..., k − 1,
wtk =
k−1
j=1
u
1
k−j
tj , t = 1, ..., n.
(4.14)
En el presente trabajo, se genera el conjunto U utilizando el m´etodo de Hammers-
ley y posteriormente se le aplica a U la transformaci´on 4.14 para obtener W. En el
Algoritmo 7 se muestra el pseudoc´odigo para calcular el conjunto de vectores de pesos
W.
0
0.5
1
0
0.5
1
0
0.5
1
w3
Monte Carlo
w2w1
w3
0
0.5
1
0
0.5
1
0
0.5
1
w3
Diseño Uniforme
w2w1
w3
0
0.5
1
0
0.5
1
0
0.5
1
w3
Simplex−lattice
w2w1
w3
0
0.2
0.4
0.6
0.8
1
w1 w2 w3 w4
Monte Carlo
0
0.2
0.4
0.6
0.8
1
w1 w2 w3 w4
Diseño Uniforme
0
0.2
0.4
0.6
0.8
1
w1 w2 w3 w4
Simplex−lattice
Figura 4.6: Vectores de pesos obtenidos en los s´ımplex de 3 y 4 dimensiones. A la izquierda,
el conjunto generado con el m´etodo simplex-lattice. En el centro, los vectores construidos
con la combinaci´on del m´etodo de Hammersley y el dise˜no uniforme de Experimentos con
Mezclas. A la derecha se presentan los vectores obtenidos por muestreo aleatorio del espacio.
En la figura 4.6 se muestran los vectores de pesos obtenidos mediante tres t´ecnicas
distintas: el s´ımplex-lattice, el m´etodo de dise˜no uniforme presentado en el Algorit-
mo 7 y el muestreo aleatorio. Se puede apreciar en esta figura que el dise˜no uniforme
obtiene mucho menos elementos en la frontera que el simplex-lattice, sin perder la
buena distribuci´on. Adem´as, la tasa de repetici´on del valor de cada componente de
CINVESTAV-IPN Departamento de Computaci´on
Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 53
Tabla 4.1: Uniformidad de los conjuntos de vectores de pesos generados con el m´etodo
simplex-lattice, dise˜no uniforme y Monte Carlo seg´un la medida Discrepancia–L2 Centrada.
Objetivos N´umero de vectores
Discrepancia–L2 Centrada
Simplex-lattice Dise˜no Uniforme Monte Carlo
3 120 0.332 0.336 0.374
4 120 0.630 0.643 0.703
5 126 0.959 0.987 1.068
6 126 1.308 1.394 1.509
7 210 1.733 1.883 2.021
8 120 2.318 2.476 2.674
9 165 2.938 3.178 3.431
10 220 3.686 4.036 4.343
los vectores de pesos es muy inferior. En cuanto al m´etodo de Monte Carlo (fue utili-
zado el m´etodo propuesto en [127]), los vectores generados tienden a concentrarse en
el centro del s´ımplex y la uniformidad de su distribuci´on es muy pobre.
En la tabla 4.1 se presenta la uniformidad de la distribuci´on (seg´un la medida
DC2) de los conjuntos de vectores mostrados en la figura 4.6 y de otros conjuntos
generados en espacios de mayor dimensi´on. Se puede observar en los valores de esta
tabla que el simplex-lattice obtiene los mejores resultados, lo cual es debido a que
los vectores obtenidos con este m´etodo se encuentran igualmente espaciados entre s´ı.
El deterioro de la uniformidad de los conjuntos generados por el m´etodo de dise˜no
uniforme se debe a la concentraci´on de los vectores hacia el centro del s´ımplex. Este
problema lo presenta de manera m´as acentuada el m´etodo de Monte Carlo, el cual,
adem´as, no obtiene vectores bien espaciados entre s´ı. Sin embargo, utilizar un m´etodo
de dise˜no uniforme, por ejemplo, el presentado en el Algoritmo 7, permite evitar los
tres problemas principales del simplex-lattice discutidos al inicio de esta secci´on.
CINVESTAV-IPN Departamento de Computaci´on
54 Cap´ıtulo 4
CINVESTAV-IPN Departamento de Computaci´on
Cap´ıtulo 5
Estudio Experimental
En este cap´ıtulo se presentan los resultados del estudio experimental desarro-
llado para validar el algoritmo propuesto, denominado evoluci´on diferencial h´ungara
(EDH). En la primera etapa de este estudio experimental se eval´ua el comportamiento
de EDH al variar algunos elementos de su esquema de selecci´on, tales como la funci´on
de utilidad y el dise˜no de los vectores de pesos. Este an´alisis permite validar los com-
ponentes de nuestra propuesta y decidir su mejor configuraci´on. La segunda etapa
consiste validar EDH comparando su desempe˜no con respecto a tres algoritmos re-
presentativos del estado del arte: dos AEMOs basados en descomposici´on (MOEA/D
y MOEAD-DE) y un AEMO basado en el hipervolumen (SMS-EMOA). En la sec-
ci´on 5.1 se presenta la configuraci´on de los experimentos y los valores asignados a
los par´ametros de cada algoritmo. En la secci´on 5.2 se analiza la influencia de cada
componente del algoritmo propuesto en su desempe˜no. Por ´ultimo, en la secci´on 5.3
se discuten los resultados obtenidos por EDH y se comparan con los obtenidos por
MOEA/D, MOEA/D-DE y SMS-EMOA.
5.1. Dise˜no experimental
La evaluaci´on de nuestra propuesta EDH se realiz´o con base en los resultados de
dos experimentos. En el primero se variaron los componentes de EDH para estudiar la
influencia de ´estos en el desempe˜no del algoritmo. Los componentes analizados fueron
la funci´on de utilidad y el m´etodo para generar los vectores de pesos. En el segundo
experimento se aplic´o EDH a un conjunto de problemas de pruebas y se compararon
sus resultados con los obtenidos por otros AEMOs representativos del estado del arte
(MOEA/D, MOEA/D-DE y SMS-EMOA). En ambos experimentos se utilizaron los
16 problemas de prueba mencionados en la secci´on 2.1.1 (ver p´agina 7), de los cuales
se obtienen 144 instancias distintas al variar el n´umero de objetivos entre 2 y 10.
Con el prop´osito de lograr resultados m´as confiables, cada AEMO se ejecut´o 30 veces
para solucionar cada instancia de problema, report´andose la media y la desviaci´on
est´andar de los indicadores IHV y IIGD presentados en la secci´on 2.1.2 (ver p´agina 9).
55
56 Cap´ıtulo 5
Tabla 5.1: Puntos de referencia seleccionados para calcular el hipervolumen de las soluciones
de cada problema con m objetivos. Estos vectores dominan el punto nadir de cada problema.
Problema Punto de referencia r = [r1, . . . , rm]
DTLZ 1, 2 y 4 [1.1, . . . , 1.1]
DTLZ 3, 5 y 6 [3, . . . , 3]
DTLZ 7 [1.1, . . . , 1.1, 2m]
WFG 1-9 [2.1, . . . , 2i + 0.1, . . . , 2m + 0.1]
El n´umero de variables (n) en los problemas DTLZ est´a dado por la expresi´on
n = m + k. En los experimentos realizados, el valor de m (n´umero de objetivos)
se vari´o entre 2 y 10, mientras que al par´ametro k se le asign´o el valor 10 en los
problemas DTLZ1 a 6 y 20 en DTLZ7. En el caso de los problemas WFG, donde el
n´umero de variables se determina por n = k+l, a los par´ametros k y l se les asignaron
los valores 2(m − 1) y 20, respectivamente. En las instancias con 2 objetivos, el valor
de k fue igual 4. En la tabla 5.1 se muestran los puntos de referencias en el espacio
objetivo utilizados para calcular el hipervolumen (IHV ) de las soluciones obtenidas en
cada problema. Para calcular la distancia generacional invertida (IIGD) se generaron
5000(m − 1) muestras aleatorias en el frente de Pareto verdadero de cada problema.
Tabla 5.2: Valores asignados a los par´ametros de los AEMOs.
EDH MOEA/D-DE MOEA/D SMS-EMOA
F = 1.0*
CR = 0.4
F = 1.0*
CR = 0.4
pm = 1/n
ηm = 20
T = 20
δ = 0.9
ηr = 2
pc = 1.0
pm = 1/n
ηc = 20
ηm = 20
T = 20
pc = 1.0
pm = 1/n
ηc = 20
ηm = 20
*
Este valor de F corresponde a los problemas DTLZ. Para los
problemas WFG se utiliz´o 0.05.
Los valores asignados a los par´ametros de cada AEMO se muestran en la tabla 5.2.
En el caso de MOEA/D, MOEA/D-DE y SMS-EMOA se utilizaron los valores reco-
mendados por sus respectivos autores [9, 10, 18]. El algoritmo propuesto (EDH) utiliza
los operadores de recombinaci´on de la evoluci´on diferencial al igual que MOEA/D-
DE. En ambos algoritmos, el valor del par´ametro F se fij´o en 1.0 para todos los
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 57
problemas DTLZ y en 0.05 para los WFG. Por su parte, el par´ametro CR fue igual
a 0.4 en todos los problemas. Adem´as de los operadores de la evoluci´on diferencial,
MOEA/D-DE utiliza un operador gen´etico, la mutaci´on polinomial. Este operador
posee dos par´ametros, la probabilidad de mutaci´on pm y el ´ındice de distribuci´on ηm,
a los cuales se les asignaron los valores 1/n y 20, respectivamente. Los dem´as par´ame-
tros de MOEA/D-DE corresponden al tama˜no de la vecindad (T), la probabilidad de
que los padres de un individuo pertenezcan a su misma vecindad (δ) y el n´umero de
soluciones que pueden ser reemplazadas por un mismo individuo (ηr). MOEA/D y
SMS-EMOA utilizan la mutaci´on polinomial y la cruza binaria simulada como ope-
radores de recombinaci´on. A los par´ametros del primer operador se le asignaron los
mismo valores que en MOEA/D-DE. Para el segundo, se fij´o la probabilidad de cruza
pc en 1.0 y su ´ındice de distribuci´on ηc en 20.
Tabla 5.3: Tama˜no de la poblaci´on y n´umero m´aximo de generaciones utilizados en la
ejecuci´on de cada algoritmo.
N´umero de objetivos
Tama˜no de la N´umero m´aximo de Evaluaciones de las
poblaci´on generaciones funciones objetivo
2 120 300 36000
3 120 300 36000
4 120 300 36000
5 126 300 37800
6 126 300 37800
7 210 300 63000
8 120 300 36000
9 165 300 49500
10 220 300 66000
En la tabla 5.3 se presenta el tama˜no de la poblaci´on y el m´aximo n´umero de
generaciones utilizadas por cada AEMO para solucionar los problemas DTLZ y WFG.
Aunque EDH y SMS-EMOA pueden utilizar un n´umero arbitrario de individuos en la
poblaci´on, no ocurre as´ı con MOEA/D y MOEA/D-DE; en los cuales este valor crece
de manera no lineal con respecto al n´umero de objetivos. Por tanto, el tama˜no de la
poblaci´on se ajust´o de la manera m´as conveniente para MOEA/D y MOEA/D-DE.
Es importante mencionar que SMS-EMOA solo se aplic´o a las instancias de pro-
blemas con no m´as de 5 objetivos. Esto es debido al elevado costo computacional del
algoritmo cuando el n´umero de objetivos es superior a 5.
CINVESTAV-IPN Departamento de Computaci´on
58 Cap´ıtulo 5
0
0.2
0.4
0.6
0.8
1
f1 f2 f3 f4 f5 f6
DTLZ2−−EDH
0
0.2
0.4
0.6
0.8
1
f1 f2 f3 f4 f5 f6
DTLZ2−−EDH−Tch
0
0.2
0.4
0.6
0.8
1
f1 f2 f3 f4 f5 f6
DTLZ2−−EDH−SL
0
0.2
0.4
0.6
0.8
1
f1 f2 f3 f4 f5 f6
DTLZ2−−EDH−Tch−SL
Figura 5.1: Soluciones obtenidas por las distintas variantes de EDH en el problema DTLZ2
con 6 objetivos.
5.2. Estudio de los componentes del algoritmo pro-
puesto
El algoritmo evolutivo propuesto (EDH) transforma el proceso de seleccionar los
individuos m´as aptos en un problema de asignaci´on. Para lograr esto utiliza un con-
junto de vectores de pesos uniformemente distribuidos en el espacio objetivo y una
funci´on de utilidad. En EDH se introduce un m´etodo para generar los vectores de pe-
sos basado en el dise˜no uniforme, que evita las deficiencias del m´etodo simplex-lattice,
pues produce un n´umero arbitrario de vectores distribuidos uniformemente en todo el
s´ımplex. Adem´as, la funci´on de utilidad considerada es la descomposici´on de Tcheby-
cheff modificada, que a diferencia de la versi´on original hace coincidir la direcci´on de
la soluci´on ´optima de cada subproblema con el vector de pesos correspondiente.
En esta secci´on se analiza la influencia del m´etodo de dise˜no de los vectores de
pesos y la funci´on de utilidad en el desempe˜no de EDH. En las tablas 5.4 y 5.5 se
presentan los resultados obtenidos por las distintas variantes de EDH en los problemas
DTLZ (los mejores resultados se muestran en negritas). EDH-Tch corresponde a la
versi´on de EDH donde se utiliza la descomposici´on de Tchebycheff original en lugar de
la modificada. En EDH-SL se sustituye el m´etodo propuesto para generar los vectores
de pesos por el m´etodo simplex-lattice. Por ´ultimo, en EDH-Tch-SL se reemplaza tanto
la funci´on de utilidad como el m´etodo de dise˜no de los vectores de pesos.
En los valores de la tabla 5.4 se puede observar que, a excepci´on de EDH-Tch-
SL, las distintas variantes de EDH obtienen resultados competitivos entre s´ı. EDH-
SL se impone en todas las instancias de los problemas DTLZ2 y 4, y en algunas
instancias con 2 y 3 objetivos de otros problemas del conjunto DTLZ. Esto ocurre
porque los vectores de pesos generados con el simplex-lattice se encuentran igualmente
espaciados, y en baja dimensionalidad no se concentran en la frontera del frente
de Pareto. Estos conjuntos de vectores de pesos permiten obtener soluciones con
caracter´ısticas similares (ver figura 5.2). Sin embargo, en las instancias con m´as de
3 objetivos las soluciones obtenidas por HDE-SL se distribuyen en los l´ımites del
frente de Pareto, como se puede observar en la figura 5.1. Debido a esto, aunque las
soluciones est´en igualmente espaciadas entre s´ı (y con mayor valor del hipervolumen),
no representan correctamente el interior del frente de Pareto, lo cual se puede observar
en el valor de la distancia generacional invertida de sus soluciones (ver tabla 5.5).
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 59
Tabla 5.4: Hipervolumen obtenido por las variantes de EDH en los problemas DTLZ. Se
muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes.
objs
EDH EDH–Tch EDH–SL EDH–Tch-SL
Media std Media std Media std Media std
DTLZ1
2 1.0832e+0 2.4742e–4 1.0833e+0 1.9652e–2 1.0832e+0 2.0546e–4 1.0831e+0 2.1015e–4
3 1.3036e+0 2.6049e–4 1.3022e+0 1.8128e–2 1.2972e+0 3.6995e–2 1.2730e+0 7.4877e–2
4 1.4571e+0 1.9089e–4 1.4565e+0 1.9707e–2 1.4402e+0 4.2038e–2 1.4437e+0 2.6236e–2
5 1.6085e+0 7.7381e–5 1.6084e+0 6.9155e–3 1.5856e+0 3.9235e–2 1.5438e+0 1.4574e–1
6 1.7667e+0 1.5919e–2 1.7605e+0 2.7014e–2 1.7233e+0 9.4743e–2 1.7089e+0 1.1742e–1
7 1.9486e+0 6.7354e–6 1.9466e+0 7.4464e–3 1.9479e+0 3.9866e–3 1.8309e+0 3.6747e–1
8 2.1435e+0 1.0025e–5 2.1435e+0 2.7208e–3 2.1002e+0 1.0428e–1 2.0278e+0 1.1830e–1
9 2.3579e+0 2.4495e–6 2.3579e+0 2.9461e–3 2.3500e+0 1.9394e–2 2.2187e+0 1.4627e–1
10 2.5927e+0 5.8768e-3 2.5937e+0 6.1302e–3 2.5923e+0 5.6302e–3 2.5338e+0 5.3955e–2
DTLZ2
2 4.2079e–1 5.2374e–6 4.2060e–1 4.9012e–5 4.2082e–1 8.3142e–6 4.1972e–1 6.4201e–4
3 7.4764e–1 7.5310e–4 7.3603e–1 1.5911e–3 7.5222e–1 2.8722e–4 7.1180e–1 3.8548e–3
4 1.0156e+0 1.8105e–3 9.8341e–1 2.6276e–3 1.0277e+0 5.2450e–4 8.4243e–1 1.2650e–2
5 1.2566e+0 2.7824e–3 1.2229e+0 2.7522e–3 1.2710e+0 1.3651e–3 9.8879e–1 2.7669e–2
6 1.4789e+0 2.9657e–3 1.4462e+0 3.5824e–3 1.5048e+0 2.8628e–3 1.2006e+0 4.5943e–2
7 1.7466e+0 2.0169e–3 1.7219e+0 2.4659e–3 1.7659e+0 1.0857e–3 1.3124e+0 4.9382e–2
8 1.9283e+0 4.0242e–3 1.9028e+0 4.2934e–3 1.9593e+0 5.2569e–3 1.1009e+0 9.0373e–2
9 2.1965e+0 2.2077e–3 2.1706e+0 4.4681e–3 2.2289e+0 2.7651e–3 1.2564e+0 9.1702e–2
10 2.4781e+0 2.1577e-3 2.4603e+0 9.5281e–3 2.5033e+0 2.8879e–3 1.4597e+0 1.1148e–1
DTLZ3
2 8.2094e+0 4.0113e–4 8.2085e+0 6.8803e–1 8.2093e+0 4.7788e–4 8.0268e+0 6.7959e–1
3 2.6409e+1 1.7992e–3 2.6404e+1 6.1144e–1 2.6413e+1 7.6729e–3 2.6039e+1 1.1100e–1
4 8.0054e+1 1.8169e+0 8.0515e+1 2.6150e+0 8.0543e+1 1.2001e–2 8.0326e+1 5.9433e–2
5 2.4263e+2 1.9839e–1 2.4260e+2 6.7878e+0 2.4020e+2 5.5174e+0 2.4071e+2 7.7541e+0
6 7.2827e+2 2.2804e+0 7.2861e+2 1.3506e+1 7.2485e+2 8.6029e+0 7.2242e+2 2.7354e+0
7 2.1868e+3 4.6461e–3 2.1854e+3 7.3066e+0 2.1867e+3 1.1743e–2 2.1798e+3 8.0524e–1
8 6.5562e+3 2.3441e+1 6.5472e+3 4.0535e+1 6.3275e+3 7.1607e+1 6.2371e+3 4.7675e+2
9 1.9683e+4 3.5834e–1 1.9683e+4 3.9520e+1 1.9647e+4 7.3622e+1 1.9463e+4 3.0567e+1
10 5.9049e+4 9.1358e–3 5.9049e+4 5.2771e+1 5.9049e+4 1.0841e–2 5.8388e+4 7.7902e+1
DTLZ4
2 4.2076e–1 3.2245e–5 4.2050e–1 9.3043e–3 4.2081e–1 1.0776e–5 4.1981e–1 5.9329e–4
3 7.4140e–1 1.6965e–2 7.3349e–1 1.5955e–2 7.4819e–1 1.2824e–2 7.1360e–1 3.1371e–3
4 1.0134e+0 1.0511e–2 9.8347e–1 7.0621e–3 1.0256e+0 1.3381e–2 8.2415e–1 1.3775e–2
5 1.2649e+0 3.1514e–3 1.2290e+0 3.8823e–3 1.2698e+0 2.9611e–3 9.2957e–1 4.0472e–2
6 1.4907e+0 4.1306e–3 1.4518e+0 6.2812e–3 1.5042e+0 3.2387e–3 1.1268e+0 7.7259e–2
7 1.7617e+0 1.7120e–3 1.7290e+0 2.5984e–3 1.7672e+0 1.5137e–3 1.3221e+0 5.4767e–2
8 1.9474e+0 4.7903e–3 1.9065e+0 7.5758e–3 1.9601e+0 5.2482e–3 1.0853e+0 9.9517e–2
9 2.2170e+0 3.3678e–3 2.1773e+0 3.4127e–3 2.2301e+0 2.2927e–3 1.2515e+0 1.2062e–1
10 2.4961e+0 1.7725e–3 2.4646e+0 4.1245e–3 2.5054e+0 1.0231e–3 1.4093e+0 1.0978e–1
DTLZ5
2 8.2108e+0 5.8996e–6 8.2106e+0 6.6999e–5 8.2108e+0 7.6131e–6 8.2098e+0 6.6730e–4
3 2.3902e+1 8.8752e–3 2.3979e+1 7.2353e–4 2.3943e+1 5.9863e–5 2.3956e+1 4.2903e–3
4 7.1581e+1 4.8282e–2 7.1549e+1 5.9050e–2 7.0985e+1 9.7323e–2 7.1293e+1 6.4575e–2
5 2.1412e+2 4.4155e–1 2.1419e+2 3.6941e–1 2.0540e+2 1.3933e+0 2.0966e+2 6.9223e–1
6 6.4041e+2 1.5574e+0 6.4008e+2 1.3631e+0 5.7943e+2 2.5256e+1 6.1386e+2 2.0762e+0
7 1.9276e+3 2.9409e+0 1.9271e+3 2.7371e+0 1.6914e+3 6.2350e+1 1.8280e+3 9.1741e+0
8 5.7247e+3 1.9131e+1 5.6978e+3 3.3450e+1 5.4907e+3 1.0317e+2 5.3675e+3 4.5588e+1
9 1.7248e+4 4.7332e+1 1.7197e+4 6.7861e+1 1.6102e+4 7.7952e+2 1.6081e+4 1.1748e+2
10 5.1831e+4 1.0975e+2 5.1725e+4 1.2820e+2 4.8113e+4 2.7435e+3 4.8309e+4 3.2317e+2
DTLZ6
2 8.2108e+0 5.0742e–7 8.2108e+0 9.7143e–7 8.2109e+0 3.0513e–7 8.2109e+0 1.1592e–6
3 2.3894e+1 1.0348e–2 2.3982e+1 3.0454e–5 2.3943e+1 5.9142e–5 2.3966e+1 2.2283e–5
4 7.1406e+1 1.1058e–1 7.1345e+1 2.2724e–1 7.0636e+1 2.0134e–1 7.1115e+1 1.8984e–1
5 2.1342e+2 3.8291e–1 2.1324e+2 1.2500e+0 2.0375e+2 1.0902e+0 2.0875e+2 4.8039e–1
6 6.3628e+2 2.8055e+0 6.3859e+2 1.9013e+0 5.6187e+2 1.7490e+1 6.1520e+2 4.9818e+0
7 1.9218e+3 4.5744e+0 1.9204e+3 6.8678e+0 1.6914e+3 7.6559e+1 1.8469e+3 7.6524e+0
8 5.7059e+3 3.6732e+1 5.6590e+3 4.0623e+1 5.3796e+3 2.0448e+2 5.4134e+3 7.3111e+1
9 1.7165e+4 1.0438e+2 1.7070e+4 1.5441e+2 1.6054e+4 7.1154e+2 1.6229e+4 1.7442e+2
10 5.1719e+4 1.1684e+2 5.1444e+4 3.0805e+2 4.8504e+4 2.1447e+3 4.8740e+4 4.0603e+2
DTLZ7
2 8.9394e–1 1.1952e–4 8.9406e–1 9.2301e–5 8.9412e–1 8.6251e–6 8.9411e–1 2.7432e–5
3 1.8613e+0 3.0934e–3 1.8432e+0 1.4482e–3 1.8627e+0 4.7195e–4 1.8118e+0 7.3472e–3
4 2.7714e+0 5.7878e–3 2.6719e+0 8.5826e–3 2.7402e+0 3.7414e–3 2.4604e+0 2.5972e–2
5 3.5896e+0 1.3749e–2 3.5634e+0 1.2936e–2 3.5320e+0 9.4222e–3 2.8575e+0 5.9408e–2
6 4.3683e+0 2.2911e–2 4.3258e+0 1.5690e–2 3.9191e+0 2.8537e–2 3.0580e+0 1.3520e–1
7 5.4343e+0 3.6226e–2 5.4386e+0 3.4481e–2 4.7787e+0 2.7937e–2 3.4716e+0 1.7679e–1
8 5.3047e+0 8.2752e–2 5.4907e+0 7.7019e–2 4.9577e+0 8.2255e–2 3.5217e+0 1.8830e–1
9 6.2421e+0 8.6197e–2 6.5360e+0 6.2530e–2 5.7544e+0 8.2030e–2 4.2139e+0 2.8243e–1
10 7.2224e+0 1.1011e–1 7.5593e+0 1.0942e–1 6.5414e+0 9.4817e–2 5.0570e+0 3.2948e–1
CINVESTAV-IPN Departamento de Computaci´on
60 Cap´ıtulo 5
Tabla 5.5: Distancia Generacional Invertida de las variantes de EDH en los problemas DTLZ.
Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes.
objs
EDH EDH–Tch EDH–SL EDH–Tch-SL
Media std Media std Media std Media std
DTLZ1
2 1.9893e–3 2.2548e–4 1.9473e–3 1.9879e–4 2.0019e–3 1.8752e–4 2.0222e–3 2.0386e–4
3 1.9672e–2 6.8372e–4 2.0332e–2 4.7100e–4 2.0295e–2 5.1116e–3 4.9537e–2 1.1814e–2
4 4.3300e–2 1.7263e–3 4.1256e–2 8.7109e–4 9.1478e–2 1.3655e–2 2.0164e–1 2.1747e–2
5 6.1734e–2 2.2513e–3 5.8304e–2 1.7755e–3 1.4423e–1 3.4284e–2 2.0432e–1 5.6656e–2
6 7.6701e–2 3.4527e–3 6.8967e–2 2.0319e–3 2.0669e–1 6.3517e–2 3.0380e–1 2.7018e–2
7 7.8215e–2 2.2379e–3 6.8376e–2 1.8189e–3 8.5517e–2 3.3336e–3 3.0486e–1 1.2132e–2
8 9.5653e–2 5.5388e–3 1.0099e–1 4.4754e–2 1.6151e–1 1.6989e–2 2.9435e–1 4.7800e–2
9 1.0034e–1 5.4840e–3 9.2839e–2 6.1043e–3 1.3542e–1 8.3283e–3 2.7216e–1 3.5748e–2
10 1.0518e–1 9.3467e–3 8.9919e–2 4.6065e–3 1.2703e–1 7.1975e–3 2.8031e–1 2.4869e–2
DTLZ2
2 3.4634e–3 7.4393e–6 3.6657e–3 5.1126e–5 3.4571e–3 1.6529e–5 4.1798e–3 3.5966e–4
3 4.8917e–2 5.6361e–4 5.1907e–2 3.6112e–4 4.9339e–2 7.3464e–4 7.1995e–2 2.9456e–3
4 1.2053e–1 1.6871e–3 1.2217e–1 1.2075e–3 1.2219e–1 2.0318e–3 2.6178e–1 9.6576e–3
5 1.8355e–1 2.3477e–3 1.8631e–1 2.1542e–3 1.8321e–1 1.3036e–3 3.2195e–1 7.4586e–3
6 2.3001e–1 6.4417e–3 2.2697e–1 4.0822e–3 2.3042e–1 4.8075e–3 4.2984e–1 4.1828e–2
7 2.4004e–1 5.3565e–3 2.3519e–1 5.3452e–3 2.3409e–1 6.9123e–4 3.9268e–1 5.0522e–2
8 2.8244e–1 9.3101e–3 3.0294e–1 9.8269e–3 2.9507e–1 1.6100e–2 3.7727e–1 4.5878e–2
9 2.9642e–1 9.1941e–3 3.0666e–1 9.2221e–3 2.9566e–1 1.2772e–2 3.8030e–1 4.6858e–2
10 3.2409e–1 1.2232e–2 3.0790e–1 6.2311e–3 2.9569e–1 1.3605e–2 4.0811e–1 5.2112e–2
DTLZ3
2 4.1506e–3 3.2060e–4 4.3871e–3 2.6568e–4 4.1486e–3 2.2975e–4 4.9691e–3 4.6131e–4
3 5.5145e–2 1.3934e–3 5.6891e–2 1.1441e–3 5.7189e–2 3.3667e–3 1.8817e–1 4.1054e–2
4 1.3509e–1 9.2123e–3 1.5240e–1 5.1761e–2 1.4820e–1 1.7672e–2 2.8276e–1 3.9487e–2
5 1.9666e–1 9.6356e–3 2.0478e–1 1.1727e–2 2.5471e–1 8.3044e–2 3.3326e–1 1.8634e–2
6 2.4280e–1 6.8769e–3 2.7682e–1 4.1139e–2 2.9277e–1 6.7479e–2 4.2570e–1 4.0272e–2
7 2.4564e–1 5.5624e–3 2.5558e–1 3.4249e–2 2.5074e–1 1.7254e–2 3.6745e–1 4.7932e–2
8 3.2156e–1 7.5039e–2 3.6297e–1 7.3505e–2 5.7088e–1 1.1418e–1 4.2108e–1 7.3931e–2
9 3.0401e–1 1.0356e–2 3.5155e–1 5.7352e–2 3.5578e–1 7.6579e–2 3.6864e–1 3.0349e–2
10 3.1056e–1 1.4554e–2 3.2645e–1 3.0477e–2 3.2264e–1 2.1718e–2 3.6321e–1 4.2483e–2
DTLZ4
2 3.2565e–3 5.0399e–5 1.1432e–2 2.5109e–2 4.0091e–3 3.7485e–3 1.6328e–2 3.9168e–2
3 5.4077e–2 1.6587e–2 5.8911e–2 4.0103e–2 5.3402e–2 1.1011e–2 7.9416e–2 5.6587e–3
4 1.3408e–1 9.6402e–3 1.3862e–1 1.0819e–2 1.4090e–1 9.0086e–3 2.9227e–1 1.9090e–2
5 2.1056e–1 4.0429e–3 2.2445e–1 1.0146e–2 2.1951e–1 5.7267e–3 3.9688e–1 1.7412e–2
6 2.8229e–1 4.7312e–3 2.9711e–1 7.1696e–3 2.8630e–1 4.8156e–3 4.7332e–1 2.4166e–2
7 3.0622e–1 3.2317e–3 3.2128e–1 4.4121e–3 3.0495e–1 2.1522e–3 5.0497e–1 2.2102e–2
8 3.8119e–1 5.2401e–3 3.9430e–1 5.4827e–3 3.8181e–1 3.5086e–3 6.1740e–1 2.8923e–2
9 3.9257e–1 4.4555e–3 4.1084e–1 6.0642e–3 3.9074e–1 2.0607e–3 5.9666e–1 1.7507e–2
10 4.0879e–1 3.8442e–3 4.2232e–1 3.9288e–3 3.9905e–1 6.1939e–4 5.9721e–1 2.1074e–2
DTLZ5
2 3.5291e–3 1.3019e–5 3.7201e–3 5.3921e–5 3.5023e–3 7.8210e–6 4.1705e–3 4.0488e–4
3 5.6865e–3 2.2439e–5 6.3436e–3 1.7705e–4 1.8014e–2 3.0158e–5 1.0744e–2 7.8585e–4
4 1.5730e–2 2.1328e–3 1.7826e–2 2.1794e–3 7.6815e–2 1.3248e–2 3.9636e–2 3.9626e–3
5 2.6378e–2 7.8999e–3 2.3427e–2 6.2410e–3 2.2029e–1 1.8540e–2 7.1209e–2 9.2069e–3
6 2.5838e–2 4.9774e–3 3.5025e–2 1.2434e–2 2.6033e–1 1.0297e–2 1.1214e–1 1.6665e–2
7 1.8365e–2 4.1016e–3 2.1988e–2 3.9086e–3 2.5571e–1 1.7475e–2 1.1369e–1 1.5327e–2
8 7.7203e–2 1.8760e–2 6.0341e–2 2.3307e–2 2.8158e–1 1.4028e–1 2.6939e–1 6.7882e–2
9 6.8171e–2 2.7761e–2 6.0723e–2 2.8783e–2 2.9805e–1 1.0458e–1 2.4044e–1 6.7111e–2
10 4.9095e–2 2.0895e–2 6.5497e–2 2.4757e–2 3.1793e–1 1.0328e–1 2.3941e–1 5.0034e–2
DTLZ6
2 3.4994e–3 2.3706e–6 3.6620e–3 2.0439e–5 3.4605e–3 2.1613e–6 3.6661e–3 4.2847e–5
3 5.8003e–3 1.1058e–5 6.2001e–3 2.8587e–5 1.8425e–2 4.8477e–5 1.0846e–2 2.6540e–5
4 1.1368e–2 1.5432e–3 1.2749e–2 4.2627e–3 7.0381e–2 1.4071e–2 2.4243e–2 3.4378e–3
5 1.5363e–2 3.7327e–3 1.9289e–2 1.1705e–2 2.6273e–1 7.1880e–2 4.8157e–2 6.8789e–3
6 2.2840e–2 5.4214e–3 2.1718e–2 9.7351e–3 2.5885e–1 4.5635e–2 1.0774e–1 7.7999e–2
7 1.8605e–2 9.7945e–3 1.7124e–2 6.8798e–3 2.4957e–1 2.1185e–2 8.3301e–2 9.3924e–3
8 4.9489e–2 2.1646e–2 4.6561e–2 2.8001e–2 2.5831e–1 9.9149e–2 2.9185e–1 1.0854e–1
9 7.5640e–2 5.5565e–2 7.6995e–2 6.9985e–2 1.8486e–1 7.6287e–2 2.7934e–1 1.0658e–1
10 4.7079e–2 2.0824e–2 7.9222e–2 4.9263e–2 1.4169e–1 7.3323e–2 3.0947e–1 1.0561e–1
DTLZ7
2 4.6504e–3 6.3062e–5 4.6223e–3 5.4508e–5 4.6060e–3 1.7778e–5 4.6265e–3 4.8709e–5
3 6.9041e–2 8.8886e–4 8.2295e–2 4.8070e–4 7.2441e–2 3.5848e–4 9.0539e–2 2.5178e–3
4 1.9605e–1 1.9450e–3 2.0237e–1 4.5265e–3 2.6140e–1 5.5810e–3 2.8958e–1 8.2790e–3
5 3.4964e–1 4.3105e–3 3.5023e–1 3.6483e–3 4.3037e–1 1.2793e–3 4.8789e–1 1.0693e–2
6 4.9019e–1 5.0446e–3 4.9969e–1 4.9326e–3 5.9034e–1 3.9590e–3 7.5567e–1 4.1651e–2
7 5.7850e–1 3.3333e–3 5.7893e–1 3.2855e–3 6.8005e–1 2.7372e–3 9.7928e–1 6.8330e–2
8 7.4762e–1 6.6450e–3 7.4866e–1 2.0483e–2 8.4578e–1 7.2818e–3 1.2795e+0 1.5820e–1
9 8.2578e–1 5.5330e–3 8.3073e–1 7.2290e–3 9.3617e–1 5.4821e–3 1.4737e+0 1.6826e–1
10 9.0565e–1 6.4381e–3 9.0488e–1 1.2742e–2 1.0181e+0 5.7258e–3 1.6507e+0 1.7833e–1
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 61
DTLZ1−−EDH
0
0.25
0.5 f1
0.25
0.5f2
0.0
0.1
0.2
0.3
0.4
0.5
f3
DTLZ1−−EDH−Tch
0
0.25
0.5 f1
0.25
f2
0.0
0.1
0.2
0.3
0.4
f3
DTLZ1−−EDH−SL
0
0.25
0.5 f1
0.25
0.5f2
0.0
0.1
0.2
0.3
0.4
0.5
f3
DTLZ1−−EDH−Tch−SL
0
0.25
0.5 f1
0.25
0.5f2
0.0
0.1
0.2
0.3
0.4
0.5
f3
DTLZ3−−EDH
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ3−−EDH−Tch
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ3−−EDH−SL
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ3−−EDH−Tch−SL
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ6−−EDH
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ6−−EDH−Tch
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ6−−EDH−SL
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ6−−EDH−Tch−SL
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
WFG1−−EDH
1
2
f1
2
4
f2
0
1
2
3
4
5
6
f3
WFG1−−EDH−Tch
1
2
f1
2
4
f2
0
1
2
3
4
5
6
f3
WFG1−−EDH−SL
1
2
f1
2
4
f2
0
1
2
3
4
5
6
f3
WFG1−−EDH−Tch−SL
1
2
f1
2
4
f2
0
1
2
3
4
5
6
f3
WFG5−−EDH
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG5−−EDH−Tch
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG5−−EDH−SL
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG5−−EDH−Tch−SL
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
Figura 5.2: Soluciones obtenidas por las distintas variantes de EDH en problemas con 3
objetivos de los conjuntos DTLZ y WFG.
CINVESTAV-IPN Departamento de Computaci´on
62 Cap´ıtulo 5
Tabla 5.6: Hipervolumen obtenido por las variantes de EDH en los problemas WFG. Se
muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes.
objs
EDH EDH–Tch EDH–SL EDH–Tch-SL
Media std Media std Media std Media std
WFG1
2 3.5444e+0 1.3266e–1 3.5764e+0 9.9378e–2 3.5427e+0 1.4995e–1 3.5581e+0 1.2557e–1
3 2.0202e+1 2.6800e–1 2.0548e+1 2.8385e–1 2.3199e+1 7.7624e–1 2.0991e+1 4.3132e–1
4 1.4783e+2 1.7290e+0 1.5842e+2 2.5441e+1 2.8772e+2 1.1681e+1 2.4629e+2 7.6917e+0
5 1.3712e+3 2.5066e+1 1.3865e+3 1.8347e+1 3.2661e+3 1.0067e+2 3.0913e+3 8.8105e+1
6 1.8497e+4 7.4246e+3 1.7165e+4 3.6914e+3 3.6987e+4 1.6084e+3 4.0781e+4 1.2575e+3
7 2.4608e+5 3.2081e+4 2.2647e+5 3.8260e+3 5.3240e+5 2.4038e+4 6.0567e+5 1.0291e+4
8 5.6571e+6 2.4620e+6 4.3560e+6 1.4077e+6 7.3841e+6 8.9383e+5 9.2639e+6 3.5493e+5
9 1.0066e+8 4.3610e+7 7.4067e+7 1.0651e+7 7.4067e+7 1.0651e+7 7.4067e+7 1.0651e+7
10 2.0854e+9 7.6463e+8 1.5764e+9 2.4954e+8 1.5764e+9 2.4954e+8 1.5764e+9 2.4954e+8
WFG2
2 4.7517e+0 8.2499e–2 4.7611e+0 7.4985e–2 4.7542e+0 7.2430e–2 4.7500e+0 7.0723e–2
3 4.4432e+1 3.7952e+0 4.5303e+1 3.1478e+0 4.5803e+1 2.9356e+0 4.3969e+1 3.1068e+0
4 3.8443e+2 3.2394e+1 3.8821e+2 2.9542e+1 3.8298e+2 3.7339e+1 3.8288e+2 2.9172e+1
5 3.9523e+3 2.9666e+2 3.9600e+3 2.9349e+2 3.9831e+3 3.2552e+2 3.9389e+3 3.0819e+2
6 4.7015e+4 3.6580e+3 4.7212e+4 4.3429e+3 4.8043e+4 4.0366e+3 4.7823e+4 3.3709e+3
7 6.8555e+5 3.6584e+4 7.0354e+5 3.0271e+4 6.7975e+5 6.2162e+4 7.0862e+5 7.6549e+3
8 9.3865e+6 9.3990e+5 9.2195e+6 7.0732e+5 5.4754e+6 3.3054e+6 1.0313e+7 6.8403e+5
9 1.8816e+8 1.0449e+7 1.7705e+8 1.8575e+7 1.7705e+8 1.8575e+7 1.7705e+8 1.8575e+7
10 3.9353e+9 2.2614e+8 3.8690e+9 3.1099e+8 3.8690e+9 3.1099e+8 3.8690e+9 3.1099e+8
WFG3
2 4.4191e+0 4.5890e–2 4.4204e+0 5.4346e–2 4.4081e+0 4.5441e–2 4.4029e+0 6.6305e–2
3 3.0755e+1 2.4010e–1 3.0646e+1 2.4172e–1 3.0414e+1 3.0107e–1 3.0559e+1 1.8496e–1
4 2.5609e+2 2.2304e+0 2.5527e+2 2.1506e+0 2.3140e+2 3.9133e+0 2.4889e+2 2.0113e+0
5 2.6076e+3 2.2986e+1 2.5951e+3 2.7267e+1 2.0521e+3 5.2557e+1 2.4265e+3 6.8618e+1
6 3.1288e+4 4.1498e+2 3.0534e+4 4.4376e+2 3.0063e+2 4.1148e+1 2.8393e+4 6.5184e+2
7 4.5486e+5 3.3329e+3 4.4295e+5 6.0307e+3 4.7390e+3 9.1898e+2 4.0735e+5 8.9414e+3
8 6.9954e+6 9.7919e+4 6.9104e+6 8.4903e+4 5.2426e+5 4.4389e+5 6.2192e+6 1.6246e+5
9 1.3029e+8 1.1146e+6 1.2513e+8 1.4690e+6 1.2513e+8 1.4690e+6 1.2513e+8 1.4690e+6
10 2.6570e+9 2.1193e+7 2.4934e+9 2.4696e+7 2.4934e+9 2.4696e+7 2.4934e+9 2.4696e+7
WFG4
2 2.2700e+0 6.2084e–3 2.2665e+0 8.0441e–3 2.2657e+0 8.2009e–3 2.2662e+0 5.6556e–3
3 2.3382e+1 1.6170e–1 2.2879e+1 2.0462e–1 2.3417e+1 3.3901e–1 2.2544e+1 1.6225e–1
4 2.2925e+2 2.2711e+0 2.2040e+2 1.7481e+0 2.3453e+2 7.3955e+0 1.9852e+2 7.2876e+0
5 2.5839e+3 2.6639e+1 2.4855e+3 2.6762e+1 2.3551e+3 2.5859e+2 2.1269e+3 2.3202e+2
6 3.2391e+4 1.5480e+3 3.1016e+4 1.8823e+3 2.1803e+4 3.6173e+3 2.0438e+4 3.0516e+3
7 4.7983e+5 2.2023e+4 4.7561e+5 2.2652e+4 2.9387e+5 3.8261e+4 2.9727e+5 3.9757e+4
8 5.5951e+6 6.7923e+5 6.0983e+6 2.6869e+5 3.3459e+6 7.8669e+5 3.6302e+6 3.7715e+5
9 1.1849e+8 1.9004e+6 1.1368e+8 2.7675e+6 1.1368e+8 2.7675e+6 1.1368e+8 2.7675e+6
10 2.5061e+9 9.1641e+7 2.3664e+9 6.7499e+7 2.3664e+9 6.7499e+7 2.3664e+9 6.7499e+7
WFG5
2 1.9744e+0 8.7617e–3 1.9764e+0 8.6304e–3 1.9791e+0 4.8236e–3 1.9780e+0 3.9991e–3
3 2.1527e+1 1.0332e–1 2.1008e+1 1.7563e–1 2.1374e+1 1.6726e–1 2.0386e+1 2.0190e–1
4 2.1627e+2 1.4846e+0 2.0518e+2 1.8591e+0 2.1061e+2 3.7342e+0 1.6528e+2 7.2326e+0
5 2.4460e+3 2.3396e+1 2.3608e+3 2.3189e+1 1.9189e+3 1.7312e+2 1.3882e+3 1.2928e+2
6 3.1055e+4 2.8602e+2 3.0424e+4 3.5209e+2 1.5544e+4 2.6538e+3 1.6993e+4 1.6346e+3
7 4.9329e+5 3.8980e+3 4.8015e+5 3.7338e+3 2.0943e+5 3.5268e+4 2.2606e+5 3.3158e+4
8 6.3967e+6 8.2734e+5 5.9057e+6 4.3020e+5 2.1025e+6 4.5655e+5 2.2512e+6 5.1141e+5
9 1.0386e+8 1.8554e+6 1.0532e+8 1.2048e+7 1.0532e+8 1.2048e+7 1.0532e+8 1.2048e+7
10 2.3288e+9 1.0089e+8 2.0382e+9 3.5506e+7 2.0382e+9 3.5506e+7 2.0382e+9 3.5506e+7
WFG6
2 2.0016e+0 3.8188e–2 1.9970e+0 3.7775e–2 2.0182e+0 3.6027e–2 2.0158e+0 3.7196e–2
3 2.1718e+1 3.4165e–1 2.1178e+1 4.3063e–1 2.1850e+1 5.3489e–1 2.0650e+1 2.8905e–1
4 2.1801e+2 4.2264e+0 2.0941e+2 3.5133e+0 2.3752e+2 3.1227e+0 1.9431e+2 3.5968e+0
5 2.4751e+3 4.3188e+1 2.4054e+3 3.2694e+1 2.7239e+3 1.0492e+2 1.9223e+3 3.2071e+2
6 3.1949e+4 5.1070e+2 3.1463e+4 6.2210e+2 3.3541e+4 2.3363e+3 1.0824e+4 4.4967e+3
7 5.0517e+5 7.3397e+3 4.9982e+5 5.9724e+3 4.7405e+5 6.2296e+4 1.5356e+5 7.5329e+4
8 7.5340e+6 2.4786e+5 7.4026e+6 2.5925e+5 5.7524e+6 1.1589e+6 1.6467e+6 8.9111e+5
9 1.4395e+8 8.5955e+6 1.3537e+8 6.1347e+6 1.3537e+8 6.1347e+6 1.3537e+8 6.1347e+6
10 2.9270e+9 2.3450e+8 2.9157e+9 1.7422e+8 2.9157e+9 1.7422e+8 2.9157e+9 1.7422e+8
WFG7
2 2.2629e+0 1.6770e–2 2.2655e+0 1.5712e–2 2.2654e+0 1.5396e–2 2.2670e+0 1.7977e–2
3 2.3970e+1 1.5466e–1 2.3356e+1 1.6667e–1 2.4415e+1 1.9291e–1 2.2778e+1 2.2619e–1
4 2.3903e+2 3.1053e+0 2.2862e+2 2.0292e+0 2.5425e+2 2.5333e+0 2.0812e+2 3.2451e+0
5 2.7099e+3 3.0588e+1 2.6161e+3 2.6626e+1 2.8130e+3 1.5046e+2 2.3942e+3 3.0304e+2
6 3.4511e+4 4.6692e+2 3.4043e+4 3.8639e+2 3.3651e+4 2.6040e+3 2.5109e+4 2.1578e+3
7 5.5549e+5 6.8583e+3 5.4525e+5 5.8281e+3 5.4137e+5 3.4529e+4 3.6989e+5 2.5620e+4
8 7.0186e+6 1.1503e+6 7.3037e+6 4.8664e+5 6.1244e+6 8.0788e+5 3.9634e+6 4.4291e+5
9 1.1961e+8 1.8194e+7 1.2041e+8 1.3655e+7 1.2041e+8 1.3655e+7 1.2041e+8 1.3655e+7
10 2.6271e+9 2.0710e+8 2.5041e+9 3.2158e+8 2.5041e+9 3.2158e+8 2.5041e+9 3.2158e+8
Contin´ua en la p´agina siguiente
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 63
Tabla 5.6: – Continuaci´on de la p´agina anterior
objs
HDE HDE–Tch HDE–SL HDE–Tch-SL
Media std Media std Media std Media std
WFG8
2 1.6464e+0 2.3835e–2 1.6347e+0 3.3553e–2 1.6537e+0 2.2257e–2 1.6475e+0 2.4957e–2
3 1.8655e+1 2.2357e–1 1.7853e+1 3.0051e–1 1.8085e+1 2.4034e–1 1.7630e+1 2.4373e–1
4 1.8585e+2 3.2584e+0 1.7496e+2 4.2157e+0 1.2780e+2 1.1916e+1 1.2239e+2 8.1583e+0
5 2.0681e+3 2.9858e+1 1.9565e+3 4.2449e+1 1.0401e+3 2.4009e+2 5.5809e+2 2.2895e+2
6 2.7065e+4 5.9405e+2 2.5206e+4 5.6984e+2 9.2455e+3 3.1566e+3 9.2035e+3 3.0068e+3
7 4.4837e+5 2.9287e+3 4.2643e+5 4.8390e+3 1.3796e+5 5.3913e+4 1.5070e+5 2.3509e+4
8 6.5144e+6 3.5781e+5 6.3656e+6 2.3601e+5 1.7522e+6 5.0911e+5 2.0005e+6 5.6854e+5
9 1.2827e+8 7.4524e+6 1.2183e+8 7.9023e+6 1.2183e+8 7.9023e+6 1.2183e+8 7.9023e+6
10 2.8061e+9 1.0340e+8 2.5393e+9 1.7664e+8 2.5393e+9 1.7664e+8 2.5393e+9 1.7664e+8
WFG9
2 1.9145e+0 2.5083e–1 1.8636e+0 2.3597e–1 1.8092e+0 1.9659e–1 1.8326e+0 2.2087e–1
3 1.9950e+1 1.1337e+0 1.9072e+1 7.5804e–1 1.9179e+1 7.8099e–1 1.8554e+1 6.2041e–1
4 1.9804e+2 1.6192e+0 1.8790e+2 4.0774e+0 1.4774e+2 5.9217e+0 1.3694e+2 3.6933e+0
5 2.2329e+3 1.6778e+1 2.1183e+3 2.0344e+1 1.2560e+3 1.0033e+2 8.0816e+2 2.0180e+2
6 2.8098e+4 3.4284e+2 2.7013e+4 3.8295e+2 1.2967e+4 1.8462e+3 1.2351e+4 2.3247e+3
7 4.4032e+5 3.7539e+3 4.2288e+5 3.5884e+3 2.4098e+5 2.4548e+4 2.1339e+5 2.6666e+4
8 6.4912e+6 1.8377e+5 5.9985e+6 1.9279e+5 2.4655e+6 4.8047e+5 2.2980e+6 5.0604e+5
9 1.1915e+8 6.6487e+6 1.1592e+8 2.6229e+6 1.1592e+8 2.6229e+6 1.1592e+8 2.6229e+6
10 2.4908e+9 5.8922e+7 2.4639e+9 6.0084e+7 2.4639e+9 6.0084e+7 2.4639e+9 6.0084e+7
La variante EDH-Tch obtiene valores de IHV y IIGD muy cercanos a los de EDH.
En problemas como DTLZ1, 3 y 7, el valor del hipervolumen de EDH-Tch supera en
varias instancias al de EDH (ver tabla 5.4). Sin embargo, su valor de IIGD en gran
parte de estas instancias no es superior al de EDH (ver tabla 5.5). Estas diferencias en
la comparaci´on de ambos algoritmos, seg´un el indicador utilizado, se deben a la im-
portancia que le da cada medida a la buena distribuci´on de las soluciones. La funci´on
de utilidad incorporada en EDH hace coincidir la direcci´on de la soluci´on ´optima de
cada subproblema con el vector de pesos que le corresponde. De esta manera, al tener
un conjunto de vectores de pesos bien distribuidos se obtiene mayor diversidad en las
soluciones, lo cual es evidenciado por el valor de la distancia generacional invertida.
Por el contrario, la funci´on de utilidad presente en EDH-Tch no permite controlar
directamente la distribuci´on de las soluciones. Adem´as, favorece a la convergencia de
las soluciones en mayor grado que a la diversidad. Por estas caracter´ısticas de EDH-
Tch, sus soluciones tienden a concentrarse en determinadas secciones del frente de
Pareto (ver figura 5.2).
En cuanto a EDH-Tch-SL, al prescindir del m´etodo propuesto para generar los
vectores de pesos y de la descomposici´on de Tchebycheff modificada, posee tanto
las deficiencias de EDH-SL como las de EDH-Tch. Aunque el desempe˜no de EDH-
Tch-SL no supera al de las dem´as variantes de EDH, se puede observar que sus
resultados no se diferencian significativamente de los obtenidos por ellas, sobre todo
en los problemas WFG (ver las tablas 5.6 y 5.7). Esto nos indica que en los problemas
m´as complejos en cuanto a convergencia y forma del frente de Pareto (los del conjunto
de prueba WFG), el mecanismo de selecci´on de EDH no es tan sensible a la elecci´on
de sus componentes como en los problemas que no presenten gran dificultad para la
convergencia de los algoritmos y sea m´as relevante la diversidad de las soluciones. Lo
anterior corresponde con los valores de la distancia generacional invertida obtenidos
por EDH en los problemas DTLZ y WFG, seg´un los cuales, EDH supera a sus variantes
en un mayor n´umero de instancias que si se considera el hipervolumen.
CINVESTAV-IPN Departamento de Computaci´on
64 Cap´ıtulo 5
Tabla 5.7: Distancia Generacional Invertida de cada variante de EDH en los problemas
WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes.
objs
EDH EDH–Tch EDH–SL EDH–Tch-SL
Media std Media std Media std Media std
WFG1
2 3.8666e–1 3.5757e–2 3.7943e–1 2.5527e–2 3.8593e–1 3.8965e–2 3.8518e–1 3.1963e–2
3 1.0994e+0 1.2595e–2 1.0819e+0 1.4500e–2 9.4203e–1 2.9926e–2 1.0688e+0 3.5999e–2
4 1.4759e+0 2.1153e–2 1.4002e+0 9.6699e–2 8.9242e–1 5.8710e–1 1.0546e+0 8.1437e–2
5 1.8345e+0 1.1321e–1 1.7340e+0 4.7128e–2 1.1040e+0 2.5796e–1 1.1811e+0 2.4837e–1
6 2.1961e+0 3.5298e–1 1.8784e+0 1.9010e–1 1.5430e+0 3.8541e–1 1.9401e+0 1.4249e+0
7 2.2248e+0 2.4665e–1 2.1432e+0 3.1429e–2 1.5686e+0 3.8349e–1 2.1911e+0 1.7080e+0
8 3.2363e+0 1.8585e+0 2.4683e+0 4.2638e–1 2.4986e+0 1.1657e+0 4.1969e+0 2.8940e+0
9 3.9205e+0 2.2862e+0 2.5022e+0 2.2981e–1 2.5022e+0 2.2981e–1 2.5022e+0 2.2981e–1
10 3.9811e+0 2.5311e+0 2.7558e+0 3.1661e–1 2.7558e+0 3.1661e–1 2.7558e+0 3.1661e–1
WFG2
2 4.7636e–2 1.5357e–2 4.6902e–2 1.4467e–2 4.7118e–2 1.4232e–2 4.8479e–2 1.3786e–2
3 1.8071e–1 2.5435e–2 1.8153e–1 2.3833e–2 1.9688e–1 2.6653e–2 3.8988e–1 2.5624e–2
4 4.9969e–1 1.4864e–1 3.6717e–1 4.1180e–2 3.8934e–1 7.5439e–2 1.1044e+0 3.3810e–1
5 8.8060e–1 1.9579e–1 6.6393e–1 1.1883e–1 8.5937e–1 1.7849e–1 1.3896e+0 2.4613e–1
6 1.2492e+0 5.1240e–1 9.9088e–1 4.8091e–1 1.3721e+0 2.1260e–1 1.8082e+0 3.9099e–1
7 2.1043e+0 2.0246e+0 9.1747e–1 2.8169e–1 1.6914e+0 4.2715e–1 1.7341e+0 4.3668e–1
8 1.4792e+0 1.7270e+0 9.2552e–1 2.1885e–1 3.4492e+0 1.5377e+0 2.3036e+0 4.6940e–1
9 1.3701e+0 5.4077e–1 9.5426e–1 2.2155e–1 9.5426e–1 2.2155e–1 9.5426e–1 2.2155e–1
10 2.4977e+0 2.1205e+0 9.9385e–1 2.3889e–1 9.9385e–1 2.3889e–1 9.9385e–1 2.3889e–1
WFG3
2 3.5784e–2 9.4992e–3 3.5506e–2 1.1281e–2 3.8194e–2 9.4195e–3 3.9265e–2 1.3986e–2
3 5.4965e–2 1.5099e–2 6.0609e–2 1.5321e–2 6.8978e–2 1.8778e–2 5.8823e–2 1.1811e–2
4 1.0697e–1 2.2539e–2 1.0361e–1 2.0884e–2 3.0987e–1 4.9486e–2 1.4456e–1 1.6722e–2
5 1.1404e–1 2.4876e–2 1.1441e–1 2.0848e–2 1.1346e+0 1.8524e–1 4.1187e–1 1.7791e–1
6 1.4661e–1 2.5651e–2 1.6043e–1 2.3669e–2 6.6362e+0 3.1252e–3 7.3066e–1 2.7762e–1
7 9.5693e–2 1.1861e–2 1.2025e–1 1.9488e–2 7.7545e+0 1.9185e–2 9.1666e–1 3.2223e–1
8 1.9415e–1 2.7625e–2 2.3548e–1 2.6959e–2 8.0860e+0 7.8747e–1 1.0133e+0 3.1299e–1
9 1.5264e–1 1.9846e–2 2.0096e–1 2.8168e–2 2.0096e–1 2.8168e–2 2.0096e–1 2.8168e–2
10 1.4803e–1 1.7218e–2 2.4382e–1 4.2174e–2 2.4382e–1 4.2174e–2 2.4382e–1 4.2174e–2
WFG4
2 1.2634e–2 7.6043e–4 1.3080e–2 1.1943e–3 1.3285e–2 1.1127e–3 1.3137e–2 7.9644e–4
3 1.7637e–1 2.5320e–3 1.7321e–1 2.0149e–3 1.8300e–1 2.8759e–3 2.0338e–1 2.8367e–3
4 5.1810e–1 1.6060e–2 4.7308e–1 9.4465e–3 6.4862e–1 3.6739e–2 1.0147e+0 8.7694e–2
5 9.3109e–1 5.2656e–2 1.0065e+0 3.7195e–2 1.4475e+0 1.6637e–1 1.9559e+0 2.8616e–1
6 1.4373e+0 1.5915e–1 1.3010e+0 1.5583e–1 2.2579e+0 3.0657e–1 2.4208e+0 3.0695e–1
7 1.3596e+0 1.7772e–1 1.5123e+0 1.5184e–1 2.8443e+0 4.7722e–1 2.3319e+0 2.2792e–1
8 1.5463e+0 1.2767e–1 1.7853e+0 1.6038e–1 3.8561e+0 6.6764e–1 3.1447e+0 3.0931e–1
9 1.8034e+0 8.7096e–2 1.7874e+0 1.0128e–1 1.7874e+0 1.0128e–1 1.7874e+0 1.0128e–1
10 1.7973e+0 6.9891e–2 1.9616e+0 1.0951e–1 1.9616e+0 1.0951e–1 1.9616e+0 1.0951e–1
WFG5
2 6.8808e–2 1.8260e–3 6.8439e–2 1.8406e–3 6.7911e–2 1.0278e–3 6.8036e–2 8.3180e–4
3 2.2441e–1 1.6280e–3 2.3230e–1 1.4396e–3 2.3382e–1 1.3993e–3 2.4840e–1 1.2042e–3
4 5.9261e–1 7.8410e–3 6.3751e–1 7.0891e–3 7.8593e–1 2.9999e–2 9.6467e–1 2.8608e–2
5 1.0752e+0 1.8145e–2 1.1468e+0 3.2091e–2 1.7887e+0 1.3770e–1 2.4386e+0 2.2227e–1
6 1.6961e+0 5.1293e–2 1.8072e+0 4.8100e–2 3.9031e+0 4.8386e–1 3.6044e+0 1.6275e–1
7 2.1008e+0 6.6684e–2 2.3212e+0 8.1863e–2 5.3926e+0 7.4341e–1 4.3642e+0 2.2678e–1
8 2.6324e+0 2.4197e–1 2.6553e+0 1.4386e–1 7.1948e+0 8.5421e–1 5.8044e+0 7.5369e–1
9 2.8096e+0 5.8215e–2 2.8918e+0 1.4725e–1 2.8918e+0 1.4725e–1 2.8918e+0 1.4725e–1
10 3.0367e+0 5.5118e–2 3.1530e+0 4.2972e–2 3.1530e+0 4.2972e–2 3.1530e+0 4.2972e–2
WFG6
2 6.2770e–2 7.6997e–3 6.3433e–2 7.6534e–3 5.9399e–2 7.1488e–3 5.9950e–2 7.4543e–3
3 2.3592e–1 5.9929e–3 2.4378e–1 7.5277e–3 2.4041e–1 5.2552e–3 2.5519e–1 5.1332e–3
4 6.3099e–1 1.0823e–2 6.5850e–1 9.7809e–3 7.4066e–1 3.0906e–2 9.9000e–1 3.0249e–2
5 1.1307e+0 2.1153e–2 1.1952e+0 2.3728e–2 1.3745e+0 5.5682e–2 2.6044e+0 5.0672e–1
6 1.7727e+0 4.1505e–2 1.9111e+0 5.5079e–2 2.2669e+0 1.0817e–1 4.8363e+0 5.1054e–1
7 2.2345e+0 4.7112e–2 2.4893e+0 6.4945e–2 3.0794e+0 3.9776e–1 5.5118e+0 7.5103e–1
8 3.1385e+0 1.0797e–1 3.4963e+0 2.0919e–1 4.8038e+0 5.9301e–1 6.6619e+0 7.6359e–1
9 3.7022e+0 1.6442e–1 3.9103e+0 2.8291e–1 3.9103e+0 2.8291e–1 3.9103e+0 2.8291e–1
10 4.1174e+0 4.5558e–1 4.7234e+0 4.1673e–1 4.7234e+0 4.1673e–1 4.7234e+0 4.1673e–1
WFG7
2 1.5777e–2 2.1127e–3 1.5409e–2 1.7534e–3 1.5388e–2 1.7449e–3 1.5251e–2 2.1512e–3
3 2.1793e–1 9.5213e–4 2.2664e–1 1.0327e–3 2.2942e–1 1.0448e–3 2.4553e–1 1.1176e–3
4 6.2292e–1 8.6051e–3 6.7148e–1 7.4090e–3 7.6235e–1 2.6799e–2 1.0071e+0 3.8375e–2
5 1.1238e+0 2.4406e–2 1.1794e+0 3.2462e–2 1.4886e+0 7.0696e–2 2.1353e+0 1.8679e–1
6 1.8042e+0 4.9544e–2 1.9344e+0 5.9603e–2 2.4122e+0 2.9841e–1 3.0684e+0 2.2516e–1
7 2.2493e+0 5.9535e–2 2.4950e+0 1.0930e–1 2.8512e+0 5.9418e–2 3.7214e+0 2.9735e–1
8 2.9423e+0 3.3169e–1 3.0558e+0 1.9524e–1 4.6478e+0 4.6722e–1 5.1782e+0 5.8561e–1
9 3.5003e+0 2.9592e–1 3.3285e+0 2.0590e–1 3.3285e+0 2.0590e–1 3.3285e+0 2.0590e–1
10 3.6346e+0 1.5355e–1 3.7202e+0 2.0168e–1 3.7202e+0 2.0168e–1 3.7202e+0 2.0168e–1
Contin´ua en la p´agina siguiente
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 65
Tabla 5.7: – Continuaci´on de la p´agina anterior
objs
HDE HDE–Tch HDE–SL HDE–Tch-SL
Media std Media std Media std Media std
WFG8
2 5.8891e–1 8.5729e–3 5.8427e–1 1.1924e–2 5.9099e–1 7.9749e–3 5.8796e–1 8.7795e–3
3 7.3587e–1 8.7101e–3 7.3416e–1 1.4351e–2 7.4984e–1 1.1055e–2 7.4496e–1 1.1112e–2
4 1.0090e+0 2.2756e–2 1.0431e+0 2.1887e–2 1.2001e+0 3.3576e–2 1.3551e+0 3.4553e–2
5 1.3722e+0 2.4662e–2 1.4659e+0 5.7047e–2 2.6883e+0 4.3203e–1 2.9882e+0 3.1698e–1
6 1.8588e+0 6.6010e–2 1.8882e+0 5.8250e–2 4.2358e+0 8.2102e–1 4.3280e+0 7.3107e–1
7 2.2464e+0 3.8205e–2 2.3008e+0 6.3452e–2 4.7957e+0 7.1027e–1 4.8438e+0 5.3511e–1
8 2.9411e+0 1.8357e–1 3.1879e+0 1.9197e–1 5.7011e+0 4.4099e–1 6.3112e+0 7.9123e–1
9 3.3090e+0 1.2869e–1 3.3027e+0 1.5193e–1 3.3027e+0 1.5193e–1 3.3027e+0 1.5193e–1
10 3.6633e+0 1.3392e–1 3.6635e+0 2.4839e–1 3.6635e+0 2.4839e–1 3.6635e+0 2.4839e–1
WFG9
2 8.4959e–2 5.6234e–2 9.6441e–2 5.2534e–2 1.0873e–1 4.3934e–2 1.0336e–1 4.9259e–2
3 2.1478e–1 2.2300e–2 2.2918e–1 1.6491e–2 2.3774e–1 1.6245e–2 2.5325e–1 1.1138e–2
4 5.2611e–1 7.9880e–3 5.2356e–1 1.3285e–2 7.4439e–1 2.3034e–2 1.0462e+0 2.3147e–2
5 9.6823e–1 2.0531e–2 1.0320e+0 2.4395e–2 1.7506e+0 3.0930e–2 2.5836e+0 2.6480e–1
6 1.4892e+0 3.2068e–2 1.5347e+0 3.7099e–2 3.2883e+0 9.7359e–2 3.2438e+0 1.1303e–1
7 1.8157e+0 3.7793e–2 1.9275e+0 3.0472e–2 4.1993e+0 1.2962e–1 3.8579e+0 2.5652e–1
8 2.5348e+0 9.6788e–2 2.5135e+0 1.1785e–1 6.9554e+0 5.1750e–1 4.8748e+0 4.0752e–1
9 2.9304e+0 1.4077e–1 2.9559e+0 9.0562e–2 2.9559e+0 9.0562e–2 2.9559e+0 9.0562e–2
10 3.2411e+0 1.4390e–1 3.5338e+0 1.1051e–1 3.5338e+0 1.1051e–1 3.5338e+0 1.1051e–1
En las tablas 5.6 y 5.7 se presentan los valores del hipervolumen y de la distancia
generacional invertida obtenidos por cada variante de EDH en los problemas WFG.
De manera general, se mantienen las diferencias entre las distintas variantes de EDH,
aunque se puede observar que EDH-Tch-SL obtiene los mejores resultados en varias
instancias, algo que no ocurri´o en ninguno de los problemas DTLZ. Adem´as, EDH
se impone en un mayor n´umero de problemas del conjunto WFG que en el caso del
conjunto DTLZ, tanto al considerar el hipervolumen como la distancia generacional
invertida.
En los resultados obtenidos por EDH y sus variantes se puede observar que el
uso del m´etodo de dise˜no uniforme para generar vectores de pesos y la funci´on de
Tchebycheff modificada, permiten un mejor desempe˜no del algoritmo propuesto. Sin
embargo, esta mejora no ocurre en todas las instancias y las diferencias no son signifi-
cativas, pues los valores alcanzados por EDH-SL, EDH-Tch y EDH-Tch-SL permane-
cen cercanos al logrado por EDH en gran parte de los problemas. Esto ´ultimo refleja
la importancia que posee el esquema de selecci´on propuesto para guiar la b´usqueda.
Sin embargo, las diferencias entre las distintas variantes indican que la construcci´on
de la matriz de costos del problema de asignaci´on influye directamente en la calidad
de la poblaci´on seleccionada. La funci´on de costo determina la relevancia de cada in-
dividuo para representar una determinada secci´on del frente de Pareto. Por lo tanto,
mejorar la capacidad de la funci´on de costo para evaluar cada individuo permite un
mejor desempe˜no del algoritmo propuesto.
CINVESTAV-IPN Departamento de Computaci´on
66 Cap´ıtulo 5
5.3. Comparaci´on de la propuesta con otros algo-
ritmos
En la tabla 5.8 se presentan la media y la desviaci´on est´andar del hipervolumen
obtenido por cada AEMO en los problemas DTLZ. Los mejores resultados se muestran
en negritas. Como se puede observar en estos valores, el algoritmo EDH supera los
resultados de los dem´as AEMOs en todas las instancias de DTLZ1, DTLZ3 y DTLZ6,
excepto para el caso de 2 objetivos en este ´ultimo problema. Estos tres problemas
son los de mayor dificultad en cuanto a convergencia en el conjunto de prueba DTLZ.
DTLZ1 y DTLZ3 poseen m´ultiples frentes de Pareto locales, donde puede quedar
atrapado un AEMO antes de llegar al ´optimo global. Por su parte, DTLZ6 posee un
frente de Pareto con una dimensi´on inferior a la del espacio objetivo y una significativa
variaci´on en la densidad de los soluciones. De estos resultados se puede apreciar que
la capacidad de convergencia de nuestra propuesta es muy competitiva con respecto
a la de los AEMOs utilizados en esta comparaci´on.
En los problemas DTLZ2, 4, 5 y 7, el algoritmo propuesto solo es superado por
SMS-EMOA en las instancias con hasta 5 objetivos. Esto ocurre porque las soluciones
encontradas con SMS-EMOA est´an distribuidas en el frente de Pareto de tal forma
que aumentan el valor del hipervolumen, aunque esto no siempre es equivalente a
una distribuci´on uniforme, como se muestra en las figuras 5.3 y 5.4. En cambio, EDH
no favorece las soluciones considerando directamente el hipervolumen, sino la buena
distribuci´on de ´estas en el frente de Pareto. En cuanto a MOEA/D y MOEA/D-DE,
´estos no alcanzan los mejores resultados en ninguna instancia de los problemas DTLZ.
Adem´as, las diferencias entre los resultados de estos algoritmos y los de EDH se hacen
mayores a medida que aumenta el n´umero de objetivos.
En la tabla 5.8 se puede observar que SMS-EMOA obtiene los mejores resultados
en gran parte de los problemas con 5 objetivos o menos. Sin embargo, presenta gran
dificultad para converger en problemas con m´ultiples ´optimos locales, como es el caso
de DTLZ1 y en mayor grado en DTLZ3 (ver figura 5.3). Adem´as, en los problemas
DTLZ2 y DTLZ4, para los cuales alcanza el mayor hipervolumen, las soluciones que
obtiene se concentran en el centro y los extremos del frente de Pareto (ver figura 5.3),
dejando sin representar grandes secciones de ´este. A estas deficiencias en el desempe˜no
de SMS-EMOA se suma su alto costo computacional, pues su tiempo de ejecuci´on en
las instancias de 4 objetivos es de hasta una hora y este valor asciende hasta 5 d´ıas
en los problemas con 5 objetivos (ver figura 5.7). Por estas razones, consideramos
que nuestra propuesta EDH es una opci´on competitiva frente a SMS-EMOA, a´un en
problemas con pocos objetivos.
En la tabla 5.9 se presenta la distancia generacional invertida (IIGD) de los conjun-
tos de soluciones obtenidos por cada AEMO en los problemas DTLZ. Este indicador,
a diferencia del hipervolumen, si refleja las deficiencias del SMS-EMOA para lograr
soluciones en todo el frente de Pareto de los problemas DTLZ2 y 4 (ver figura 5.3).
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 67
Tabla 5.8: Hipervolumen obtenido por cada AEMO en los problemas DTLZ. Se muestra la
media y la desviaci´on est´andar de 30 ejecuciones independientes.
objs
EDH MOEA/D MOEA/D-DE SMS-EMOA
Media std Media std Media std Media std
DTLZ1
2 1.0832e+0 2.4742e–4 1.0662e+0 7.2633e–2 1.0641e+0 7.0383e–2 1.0487e+0 9.6299e–2
3 1.3036e+0 2.6049e–4 1.2650e+0 1.3080e–1 1.2889e+0 4.4192e–2 1.1704e+0 2.0116e–1
4 1.4571e+0 1.9089e–4 1.2713e+0 2.7443e–1 1.4336e+0 6.1085e–2 1.4536e+0 1.6317e–2
5 1.6085e+0 7.7381e–5 1.3297e+0 4.7724e–1 1.5132e+0 2.4133e–1 1.6041e+0 1.3209e–2
6 1.7667e+0 1.5919e–2 1.5175e+0 4.3079e–1 1.7541e+0 3.5418e–2 – –
7 1.9486e+0 6.7354e–6 1.9416e+0 3.0856e–3 1.9400e+0 2.9113e–2 – –
8 2.1435e+0 1.0025e–5 1.9369e+0 3.9059e–1 2.0552e+0 1.6186e–1 – –
9 2.3579e+0 2.4495e–6 2.2682e+0 1.4052e–1 2.3205e+0 5.7901e–2 – –
10 2.5927e+0 5.8768e–3 2.5592e+0 2.1472e–2 2.5814e+0 1.6953e–2 – –
DTLZ2
2 4.2079e–1 5.2374e–6 4.2087e–1 7.4043e–6 4.2067e–1 3.1595e–5 4.2161e–1 4.6193e–6
3 7.4764e–1 7.5310e–4 7.1504e–1 1.2118e–3 7.1723e–1 1.6923e–3 7.6251e–1 4.8619e–5
4 1.0156e+0 1.8105e–3 8.8689e–1 9.9674e–4 8.8794e–1 1.5369e–3 1.0526e+0 6.8792e–5
5 1.2566e+0 2.7824e–3 1.1406e+0 1.5449e–2 1.1438e+0 7.3777e–4 1.3090e+0 1.0449e–4
6 1.4789e+0 2.9657e–3 1.2123e+0 5.3716e–2 1.3427e+0 3.7358e–2 – –
7 1.7466e+0 2.0169e–3 1.2972e+0 4.3046e–2 1.4877e+0 1.0222e–2 – –
8 1.9283e+0 4.0242e–3 1.2018e+0 9.5291e–2 1.3351e+0 5.0725e–2 – –
9 2.1965e+0 2.2077e–3 1.3226e+0 9.6619e–2 1.4754e+0 5.7593e–2 – –
10 2.4781e+0 2.1577e–3 1.4329e+0 9.6315e–2 1.6464e+0 6.3977e–2 – –
DTLZ3
2 8.2094e+0 4.0113e–4 8.1148e+0 4.3499e–1 8.2014e+0 6.9058e–3 0.0000e+0 0.0000e+0
3 2.6409e+1 1.7992e–3 2.6067e+1 1.1094e+0 2.6327e+1 9.4611e–2 0.0000e+0 0.0000e+0
4 8.0054e+1 1.8169e+0 7.6359e+1 1.3553e+1 7.9953e+1 1.6729e+0 0.0000e+0 0.0000e+0
5 2.4263e+2 1.9839e–1 2.2909e+2 3.4801e+1 2.4242e+2 1.1804e–1 3.9658e–1 5.6085e–1
6 7.2827e+2 2.2804e+0 6.8984e+2 1.2395e+2 7.1850e+2 2.2238e+1 – –
7 2.1868e+3 4.6461e–3 2.1643e+3 4.8611e+1 2.1808e+3 2.3907e+0 – –
8 6.5562e+3 2.3441e+1 6.2456e+3 4.8560e+2 6.4223e+3 2.1962e+2 – –
9 1.9683e+4 3.5834e–1 1.9186e+4 5.5086e+2 1.9301e+4 6.6460e+2 – –
10 5.9049e+4 9.1358e–3 5.7783e+4 6.6961e+2 5.8511e+4 1.2599e+2 – –
DTLZ4
2 4.2076e–1 3.2245e–5 4.2087e–1 2.0117e–6 4.2062e–1 3.0376e–5 4.2161e–1 3.8857e–6
3 7.4140e–1 1.6965e–2 7.1758e–1 2.6496e–3 7.1931e–1 2.6330e–3 7.6254e–1 4.4632e–5
4 1.0134e+0 1.0511e–2 8.8985e–1 2.4288e–3 8.8851e–1 2.1523e–3 1.0527e+0 8.6842e–5
5 1.2649e+0 3.1514e–3 1.1440e+0 5.4992e–4 1.1438e+0 4.6854e–4 1.3094e+0 8.0610e–5
6 1.4907e+0 4.1306e–3 1.3216e+0 3.9933e–2 1.3492e+0 1.5371e–2 – –
7 1.7617e+0 1.7120e–3 1.4835e+0 2.8551e–2 1.4942e+0 9.8631e–3 – –
8 1.9474e+0 4.7903e–3 1.3559e+0 6.2536e–2 1.2841e+0 4.1562e–2 – –
9 2.2170e+0 3.3678e–3 1.4883e+0 5.6042e–2 1.3379e+0 3.5151e–2 – –
10 2.4961e+0 1.7725e–3 1.5820e+0 8.9243e–2 1.4275e+0 5.0635e–2 – –
DTLZ5
2 8.2108e+0 5.8996e–6 8.2108e+0 2.3615e–5 8.2106e+0 7.7659e–5 8.2116e+0 1.9486e–5
3 2.3902e+1 8.8752e–3 2.3967e+1 8.1135e–4 2.3967e+1 2.1487e–4 2.3990e+1 9.4444e–5
4 7.1581e+1 4.8282e–2 7.1247e+1 1.2215e–1 7.1233e+1 4.6104e–2 7.1856e+1 1.7004e–3
5 2.1412e+2 4.4155e–1 2.0875e+2 1.1335e+0 2.0935e+2 2.5824e–1 2.1567e+2 2.5362e–2
6 6.4041e+2 1.5574e+0 6.1645e+2 3.6734e+0 6.1786e+2 7.0158e–1 – –
7 1.9276e+3 2.9409e+0 1.8336e+3 1.5769e+1 1.8427e+3 1.7951e+0 – –
8 5.7247e+3 1.9131e+1 5.4432e+3 5.4328e+1 5.4757e+3 1.3868e+1 – –
9 1.7248e+4 4.7332e+1 1.6307e+4 1.0420e+2 1.6540e+4 3.8065e+1 – –
10 5.1831e+4 1.0975e+2 4.8723e+4 4.1028e+2 4.9724e+4 1.4808e+2 – –
DTLZ6
2 8.2108e+0 5.0742e–7 8.0197e+0 6.7641e–2 8.2100e+0 8.1287e–4 3.1194e+0 1.8351e+0
3 2.3894e+1 1.0348e–2 2.3487e+1 1.9477e–1 2.3957e+1 9.4636e–3 2.3745e+1 8.3363e–2
4 7.1406e+1 1.1058e–1 6.9232e+1 6.1968e–1 7.1129e+1 1.8021e–1 6.7598e+1 2.8678e–1
5 2.1342e+2 3.8291e–1 1.9631e+2 1.9683e+0 2.0759e+2 1.2694e+0 1.9830e+2 1.0734e+0
6 6.3628e+2 2.8055e+0 5.7393e+2 8.1226e+0 6.1658e+2 2.6629e+0 – –
7 1.9218e+3 4.5744e+0 1.7051e+3 2.0904e+1 1.8410e+3 5.0649e+0 – –
8 5.7059e+3 3.6732e+1 4.9692e+3 9.0292e+1 5.4733e+3 9.6893e+0 – –
9 1.7165e+4 1.0438e+2 1.5059e+4 2.2117e+2 1.6420e+4 4.7416e+1 – –
10 5.1719e+4 1.1684e+2 4.4826e+4 8.7293e+2 4.9317e+4 1.4859e+2 – –
DTLZ7
2 8.9394e–1 1.1952e–4 8.1433e–1 1.7933e–1 8.9304e–1 1.4440e–4 8.9512e–1 5.6346e–6
3 1.8613e+0 3.0934e–3 1.5436e+0 1.7110e–1 1.6331e+0 2.8248e–3 1.8902e+0 8.7271e–2
4 2.7714e+0 5.7878e–3 1.7579e+0 6.8527e–2 1.7136e+0 2.0849e–3 2.8254e+0 1.7316e–1
5 3.5896e+0 1.3749e–2 2.2365e+0 2.8605e–2 2.2219e+0 3.0575e–3 3.7134e+0 2.3346e–1
6 4.3683e+0 2.2911e–2 2.9437e+0 2.3428e–2 2.9909e+0 5.8156e–3 – –
7 5.4343e+0 3.6226e–2 3.5887e+0 2.9512e–1 2.7911e+0 1.0647e–2 – –
8 5.3047e+0 8.2752e–2 2.8946e+0 1.0146e+0 6.0588e–1 1.1138e–2 – –
9 6.2421e+0 8.6197e–2 2.3347e+0 1.3006e+0 2.7741e–1 7.7368e–3 – –
10 7.2224e+0 1.1011e–1 1.1522e–1 2.5080e–3 1.7525e+0 1.1629e+0 – –
CINVESTAV-IPN Departamento de Computaci´on
68 Cap´ıtulo 5
DTLZ1−−EDH
0
0.25
0.5 f1
0.25
0.5f2
0.0
0.1
0.2
0.3
0.4
0.5
f3
DTLZ1−−MOEA/D
0
0.25
0.5 f1
0.25
0.5f2
0.0
0.1
0.2
0.3
0.4
0.5
f3
DTLZ1−−MOEA/D−DE
0
0.25
0.5 f1
0.25
0.5f2
0.0
0.1
0.2
0.3
0.4
0.5
f3
DTLZ1−−SMS−EMOA
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ2−−EDH
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ2−−MOEA/D
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ2−−MOEA/D−DE
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ2−−SMS−EMOA
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ4−−EDH
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ4−−MOEA/D
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ4−−MOEA/D−DE
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ4−−SMS−EMOA
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ3−−EDH
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ3−−MOEA/D
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ3−−MOEA/D−DE
0
0.5
1 f1
0.5
1f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ3−−SMS−EMOA
0204060 f1
0
500
1000
f2
1e−5
2e−5
3e−5
4e−5
f3
Figura 5.3: Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los
problemas DTLZ1 a 4 con 3 objetivos.
Considerando el indicador IIGD, los resultados obtenidos por EDH son mejores que los
obtenidos por los dem´as AEMOS en 57 de las 63 instancias de los problemas DTLZ.
La calidad de las soluciones de EDH solo es inferior en 2 instancias con respecto a
MOEA/D y en 4 instancias en comparaci´on con SMS-EMOA. Estas 6 instancias tie-
nen 5 objetivos o menos y corresponden a problemas (DTLZ2 y 5) que no representan
gran dificultad para la convergencia de los AEMOs.
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 69
Tabla 5.9: Distancia Generacional Invertida obtenida por cada AEMO en los problemas
DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes.
objs
EDH MOEA/D MOEA/D-DE SMS-EMOA
Media std Media std Media std Media std
DTLZ1
2 1.9893e–3 2.2548e–4 1.7213e–2 6.5988e–2 1.9443e–2 6.4848e–2 3.5868e–2 8.8806e–2
3 1.9672e–2 6.8372e–4 5.9344e–2 1.1427e–1 4.1368e–2 5.2173e–2 1.6986e–1 1.6942e–1
4 4.3300e–2 1.7263e–3 2.2963e–1 2.0086e–1 1.1300e–1 6.3995e–2 5.4849e–2 4.1306e–2
5 6.1734e–2 2.2513e–3 3.3437e–1 3.0621e–1 2.3472e–1 1.8010e–1 8.4726e–2 6.5528e–2
6 7.6701e–2 3.4527e–3 2.7176e–1 2.2786e–1 1.5233e–1 7.3570e–2 – –
7 7.8215e–2 2.2379e–3 1.1467e–1 5.3134e–3 1.2454e–1 1.9466e–2 – –
8 9.5653e–2 5.5388e–3 2.1415e–1 1.8141e–1 2.0339e–1 1.1438e–1 – –
9 1.0034e–1 5.4840e–3 1.5280e–1 8.0605e–2 1.7185e–1 7.9386e–2 – –
10 1.0518e–1 9.3467e–3 1.1960e–1 1.1273e–2 1.5127e–1 4.4954e–2 – –
DTLZ2
2 3.4634e–3 7.4393e–6 3.4119e–3 2.0297e–6 3.4356e–3 1.1245e–5 4.1619e–3 8.3398e–5
3 4.8917e–2 5.6361e–4 6.1837e–2 2.7365e–4 6.1448e–2 4.6813e–4 6.7204e–2 6.8983e–4
4 1.2053e–1 1.6871e–3 2.1666e–1 1.8565e–3 2.1772e–1 1.3534e–3 1.5608e–1 1.5478e–3
5 1.8355e–1 2.3477e–3 2.9355e–1 2.6055e–3 2.9409e–1 1.4265e–3 2.1569e–1 2.0265e–3
6 2.3001e–1 6.4417e–3 3.2188e–1 8.6866e–3 4.0269e–1 4.9898e–2 – –
7 2.4004e–1 5.3565e–3 3.3215e–1 9.1759e–3 4.5374e–1 3.8482e–2 – –
8 2.8244e–1 9.3101e–3 3.5712e–1 2.3639e–2 4.7370e–1 8.3709e–2 – –
9 2.9642e–1 9.1941e–3 3.5167e–1 1.4806e–2 5.0499e–1 8.2422e–2 – –
10 3.2409e–1 1.2232e–2 3.5275e–1 1.2863e–2 4.9717e–1 7.1092e–2 – –
DTLZ3
2 4.1506e–3 3.2060e–4 4.3051e–2 1.8252e–1 7.6404e–3 3.9023e–3 1.5670e+1 5.9378e+0
3 5.5145e–2 1.3934e–3 1.3427e–1 2.4222e–1 8.8893e–2 3.6981e–2 2.3888e+1 1.0229e+1
4 1.3509e–1 9.2123e–3 4.0454e–1 4.8740e–1 2.9231e–1 1.6616e–1 1.2776e+1 4.7032e+0
5 1.9666e–1 9.6356e–3 5.7388e–1 4.3525e–1 3.1495e–1 1.6944e–2 4.6626e+0 1.5497e+0
6 2.4280e–1 6.8769e–3 4.9173e–1 4.5106e–1 4.3744e–1 2.6305e–1 – –
7 2.4564e–1 5.5624e–3 3.7781e–1 1.4568e–1 3.3194e–1 2.1227e–2 – –
8 3.2156e–1 7.5039e–2 4.9652e–1 2.7209e–1 4.2623e–1 2.2398e–1 – –
9 3.0401e–1 1.0356e–2 4.0427e–1 1.4076e–1 4.3337e–1 2.4643e–1 – –
10 3.1056e–1 1.4554e–2 3.7226e–1 1.5876e–2 3.7288e–1 6.1175e–2 – –
DTLZ4
2 3.2565e–3 5.0399e–5 3.3156e–3 1.5241e–6 3.3265e–3 8.4354e–6 4.0457e–3 1.9656e–4
3 5.4077e–2 1.6587e–2 5.8985e–2 2.4979e–3 5.8540e–2 1.4678e–3 8.4079e–2 9.6791e–4
4 1.3408e–1 9.6402e–3 2.4264e–1 6.0321e–3 2.3752e–1 3.2232e–3 1.7569e–1 1.5652e–3
5 2.1056e–1 4.0429e–3 3.3187e–1 1.0931e–3 3.3181e–1 9.0185e–4 2.4974e–1 6.7458e–4
6 2.8229e–1 4.7312e–3 3.8194e–1 2.3821e–2 3.9731e–1 2.4586e–2 – –
7 3.0622e–1 3.2317e–3 4.1996e–1 2.7246e–2 4.5837e–1 2.3171e–2 – –
8 3.8119e–1 5.2401e–3 5.3525e–1 5.0448e–2 5.5105e–1 2.6057e–2 – –
9 3.9257e–1 4.4555e–3 5.4827e–1 4.9747e–2 5.9766e–1 1.8638e–2 – –
10 4.0879e–1 3.8442e–3 5.7122e–1 4.6049e–2 6.2762e–1 2.3894e–2 – –
DTLZ5
2 3.5291e–3 1.3019e–5 3.4633e–3 1.5830e–6 3.4958e–3 9.1817e–6 4.0831e–3 6.0910e–5
3 5.6865e–3 2.2439e–5 1.0531e–2 3.9001e–5 1.0511e–2 7.5230e–5 4.2100e–3 1.2282e–4
4 1.5730e–2 2.1328e–3 2.5298e–2 9.6504e–4 2.5298e–2 1.8646e–4 1.1754e–2 5.3568e–4
5 2.6378e–2 7.8999e–3 4.6927e–2 2.8268e–3 4.5022e–2 1.0808e–3 1.5124e–2 1.0846e–3
6 2.5838e–2 4.9774e–3 6.9432e–2 3.3585e–3 6.7902e–2 1.8065e–3 – –
7 1.8365e–2 4.1016e–3 6.9837e–2 3.6844e–3 6.7265e–2 1.5414e–3 – –
8 7.7203e–2 1.8760e–2 1.1504e–1 8.0362e–3 1.1013e–1 4.0434e–3 – –
9 6.8171e–2 2.7761e–2 1.1504e–1 7.5778e–3 1.0916e–1 2.5487e–3 – –
10 4.9095e–2 2.0895e–2 1.1529e–1 9.5532e–3 1.0948e–1 3.4171e–3 – –
DTLZ6
2 3.4994e–3 2.3706e–6 1.1071e–1 3.8360e–2 3.6167e–3 2.2684e–4 1.6400e+0 4.6972e–1
3 5.8003e–3 1.1058e–5 1.0906e–1 4.2132e–2 1.0878e–2 5.4364e–4 7.1066e–2 2.4206e–2
4 1.1368e–2 1.5432e–3 1.2502e–1 4.1697e–2 2.6050e–2 6.9896e–4 4.1258e–1 2.6612e–2
5 1.5363e–2 3.7327e–3 1.5248e–1 3.5214e–2 4.6785e–2 2.0859e–3 5.7201e–1 2.6169e–2
6 2.2840e–2 5.4214e–3 1.4999e–1 3.4965e–2 6.9489e–2 2.8010e–3 – –
7 1.8605e–2 9.7945e–3 1.6419e–1 3.4632e–2 6.8782e–2 2.9025e–3 – –
8 4.9489e–2 2.1646e–2 2.0013e–1 3.7012e–2 1.1002e–1 2.7610e–3 – –
9 7.5640e–2 5.5565e–2 1.8195e–1 3.0510e–2 1.0970e–1 3.3169e–3 – –
10 4.7079e–2 2.0824e–2 1.9800e–1 3.2945e–2 1.0968e–1 3.5385e–3 – –
DTLZ7
2 4.6504e–3 6.3062e–5 7.8696e–2 1.6631e–1 5.5448e–3 2.6779e–5 3.4567e–3 4.5075e–5
3 6.9041e–2 8.8886e–4 2.5164e–1 1.4598e–1 1.7775e–1 2.0850e–3 7.3617e–2 5.4508e–2
4 1.9605e–1 1.9450e–3 5.6518e–1 1.3739e–1 5.2189e–1 1.9367e–3 2.5023e–1 7.3786e–2
5 3.4964e–1 4.3105e–3 6.9425e–1 6.1793e–2 6.7619e–1 2.2135e–4 4.3586e–1 9.5557e–2
6 4.9019e–1 5.0446e–3 7.9305e–1 1.0255e–1 7.6482e–1 4.3996e–4 – –
7 5.7850e–1 3.3333e–3 8.7737e–1 8.1118e–2 9.6210e–1 3.2747e–4 – –
8 7.4762e–1 6.6450e–3 1.1142e+0 2.0354e–1 2.4256e+0 2.8727e–2 – –
9 8.2578e–1 5.5330e–3 1.3766e+0 4.0983e–1 3.2821e+0 1.1065e–1 – –
10 9.0565e–1 6.4381e–3 1.5904e+0 5.4716e–1 4.0329e+0 2.1406e–1 – –
CINVESTAV-IPN Departamento de Computaci´on
70 Cap´ıtulo 5
DTLZ5−−EDH
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ5−−MOEA/D
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ5−−MOEA/D−DE
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ5−−SMS−EMOA
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ6−−EDH
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ6−−MOEA/D
00.51
f1
0.5 1
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ6−−MOEA/D−DE
0
0.5
f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ6−−SMS−EMOA
0
0.5
1 f1
0.5
f2
0.0
0.2
0.4
0.6
0.8
1.0
f3
DTLZ7−−EDH
0
0.5
f1
0.5
f2
3.0
4.0
5.0
6.0
f3
DTLZ7−−MOEA/D
0
0.5
f1
0.5
f2
3.0
4.0
5.0
6.0
f3
DTLZ7−−MOEA/D−DE
0
0.5
f1
0.5
f2
3.0
4.0
5.0
6.0
f3
DTLZ7−−SMS−EMOA
0
0.5
f1
0.5
f2
3.0
4.0
5.0
6.0
f3
Figura 5.4: Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los
problemas DTLZ5 a 7 con 3 objetivos.
Un hecho interesante que se puede observar en los resultados de las tablas 5.8 y
5.9, es que el hipervolumen de las soluciones de MOEA/D-DE supera el valor obtenido
por MOEA/D en la mayor´ıa de los problemas, pero no sucede as´ı cuando se considera
la distancia generacional invertida. MOEA/D-DE fue propuesto por sus autores [10]
como una versi´on mejorada de MOEA/D y su principal fortaleza est´a en utilizar los
operadores de la evoluci´on diferencial unidos a un operador gen´etico de mutaci´on
para lograr mayor convergencia. Sin embargo, no fue comparado con respecto a la
versi´on original de MOEA/D, la cual, a pesar de no tener la misma convergencia, si
logra mejor distribuci´on de las soluciones en el frente de Pareto. Por su parte, nuestra
propuesta EDH supera a ambos algoritmos en cuanto a convergencia y diversidad de
las soluciones. Esto ocurre porque EDH, adem´as de utilizar la evoluci´on diferencial
como buscador, posee un mecanismo de selecci´on que favorece la dispersi´on de las
soluciones por todo el frente de Pareto.
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 71
Los resultados obtenidos por cada AEMO en los problemas WFG se muestran
en las tablas 5.10 y 5.11. En la tabla 5.10 estos resultados se expresan utilizando el
hipervolumen y en la tabla 5.11 mediante la distancia generacional invertida. Teniendo
en cuenta el hipervolumen, EDH supera a los dem´as algoritmos en todas las instancias
con m´as de 5 objetivos; mientras que SMS-EMOA obtiene los mayores valores en los
problemas con 5 objetivos o menos. Sin embargo, este aparente buen desempe˜no de
SMS-EMOA seg´un el hipervolumen, no corresponde con una buena distribuci´on de
las soluciones por todo el frente de Pareto, como se puede observar en las figuras 5.3
y 5.6. Estas figuras muestran que SMS-EMOA prefiere las soluciones en los bordes
y el centro de las regiones c´oncavas, como sucede en las instancias de 3 objetivos de
los problemas WFG4 a 9. Esto tambi´en ocurre en problemas con el frente de Pareto
convexo, como es el caso de los problemas WFG1 y 2. Ambos problemas representan
una gran dificultad para los AEMOs en cuanto a convergencia y diversidad. WFG1
posee regiones planas, donde varios vectores de variables corresponden al mismo valor
objetivo, y su frente de Pareto alterna secciones convexas y c´oncavas. Por su parte,
WFG2 es un problema con m´ultiples frentes de Pareto locales discontinuos.
WFG3 es otro problema donde el valor del hipervolumen no refleja el verdadero
desempe˜no de SMS-EMOA. En este problema, para cualquier n´umero de objetivos, el
frente de Pareto es una l´ınea. En la figura 5.3 se puede observar que EDH encuentra
m´as soluciones sobre la l´ınea que los dem´as AEMOs. Sin embargo, el hipervolumen
de las soluciones de SMS-EMOA es superior al de las soluciones de EDH, lo cual
no corresponde con la calidad de la aproximaci´on realizada por cada algoritmo. Es-
to ocurre porque SMS-EMOA transforma el problema multiobjetivo en el problema
de maximizar el hipervolumen, pero el valor m´aximo de este indicador no implica
necesariamente una buena distribuci´on de las soluciones por todo el frente de Pareto.
La distancia generacional invertida resulta un buen complemento del hipervolumen
para analizar el desempe˜no de los AEMOs, pues no tiene sus mismas limitaciones al
evaluar la distribuci´on de las soluciones. Seg´un los valores de IIGD mostrados en la
tabla 5.11, EDH mejora los resultados de los dem´as AEMOs en 69 de las 81 instancias
de los problemas WFG. De las 12 ocasiones en las que EDH no alcanza el mejor valor,
8 corresponden a problemas de dos objetivos, 3 a problemas con tres objetivos y solo
una corresponde a un problema de cuatro objetivos. Los algoritmos que obtienen
resultados con mayor IIGD que el EDH en estas 12 instancias son el SMS-EMOA en
10 de ellas y el MOEA/D-DE en los otros dos problemas. Comparando los resultado
obtenidos por cada algoritmo en las instancias de tres objetivos, se puede apreciar
que el SMS-EMOA, aunque gana en 8 de ellas seg´un el hipervolumen, solo supera
una vez el valor de la distancia generacional invertida de EDH. Esto ´ultimo tiene m´as
relaci´on con lo mostrado en las figuras 5.3 y 5.6.
En los problemas WFG, a diferencia de lo que sucede en el conjunto de prueba
DTLZ, MOEA/D-DE no supera a MOEA/D en la mayor´ıa de los problemas. Por
el contrario, es MOEA/D quien se impone en gran parte de los problemas, sobre
todo en cuanto a la convergencia. Esto indica que la efectividad de los operadores de
recombinaci´on de cada uno de estos algoritmos var´ıa de un problema a otro.
CINVESTAV-IPN Departamento de Computaci´on
72 Cap´ıtulo 5
Tabla 5.10: Hipervolumen obtenido por cada AEMO en los problemas WFG. Se muestra la
media y la desviaci´on est´andar de 30 ejecuciones independientes.
objs
EDH MOEA/D MOEA/D-DE SMS-EMOA
Media std Media std Media std Media std
WFG1
2 3.5444e+0 1.3266e–1 8.1574e–1 1.6956e–1 1.0973e+0 1.8942e–1 6.6295e–1 1.7578e–1
3 2.0202e+1 2.6800e–1 1.7690e+1 1.2758e+0 1.3886e+1 4.9606e–1 1.9773e+1 1.6699e+0
4 1.4783e+2 1.7290e+0 1.4043e+2 9.2433e+0 1.0919e+2 4.2568e+0 1.6078e+2 5.5934e+0
5 1.3712e+3 2.5066e+1 1.3030e+3 7.3235e+1 1.0420e+3 3.8298e+1 1.5382e+3 4.5891e+1
6 1.8497e+4 7.4246e+3 1.4408e+4 5.9866e+2 1.1775e+4 7.1257e+2 – –
7 2.4608e+5 3.2081e+4 2.1645e+5 9.6819e+3 1.6066e+5 1.0513e+4 – –
8 5.6571e+6 2.4620e+6 2.8674e+6 1.0643e+5 2.3479e+6 1.3119e+5 – –
9 1.0066e+8 4.3610e+7 5.3356e+7 1.3269e+6 4.1457e+7 2.3316e+6 – –
10 2.0854e+9 7.6463e+8 1.0547e+9 2.7868e+7 8.0821e+8 3.2815e+7 – –
WFG2
2 4.7517e+0 8.2499e–2 4.4511e+0 2.8513e–1 4.4962e+0 2.4819e–1 4.9095e+0 3.0690e–2
3 4.4432e+1 3.7952e+0 3.8542e+1 3.2967e+0 3.7472e+1 2.0752e+0 4.4784e+1 4.0705e+0
4 3.8443e+2 3.2394e+1 3.1750e+2 2.4957e+1 3.1188e+2 1.5190e+1 3.8570e+2 3.9464e+1
5 3.9523e+3 2.9666e+2 3.3463e+3 1.9328e+2 3.1681e+3 1.5153e+2 4.0962e+3 3.3176e+2
6 4.7015e+4 3.6580e+3 3.8874e+4 3.0712e+3 3.7414e+4 1.9747e+3 – –
7 6.8555e+5 3.6584e+4 5.8104e+5 6.2764e+4 5.6009e+5 4.6071e+4 – –
8 9.3865e+6 9.3990e+5 8.5344e+6 6.7381e+5 7.8697e+6 6.0982e+5 – –
9 1.8816e+8 1.0449e+7 1.5685e+8 1.4551e+7 1.5423e+8 1.3827e+7 – –
10 3.9353e+9 2.2614e+8 3.2647e+9 2.5826e+8 3.1525e+9 2.1496e+8 – –
WFG3
2 4.4191e+0 4.5890e–2 4.4333e+0 6.4512e–2 4.1691e+0 7.8554e–2 4.5359e+0 2.0315e–2
3 3.0755e+1 2.4010e–1 2.9034e+1 6.1850e–1 2.7361e+1 5.1599e–1 3.1143e+1 1.5367e–1
4 2.5609e+2 2.2304e+0 2.0351e+2 1.3468e+1 1.9278e+2 4.1793e+0 2.6077e+2 1.4237e+0
5 2.6076e+3 2.2986e+1 1.7248e+3 7.5236e+1 1.8157e+3 5.6789e+1 2.6942e+3 1.9148e+1
6 3.1288e+4 4.1498e+2 1.8500e+4 1.2654e+3 2.0520e+4 6.9993e+2 – –
7 4.5486e+5 3.3329e+3 2.7574e+5 1.3487e+4 2.9228e+5 1.0829e+4 – –
8 6.9954e+6 9.7919e+4 3.8998e+6 1.8094e+5 4.4364e+6 1.8409e+5 – –
9 1.3029e+8 1.1146e+6 7.0523e+7 4.4557e+6 8.3629e+7 5.5091e+6 – –
10 2.6570e+9 2.1193e+7 1.4844e+9 8.7532e+7 1.8046e+9 1.2002e+8 – –
WFG4
2 2.2700e+0 6.2084e–3 2.2503e+0 8.9573e–3 2.0376e+0 2.8044e–2 2.2793e+0 6.8346e–3
3 2.3382e+1 1.6170e–1 2.1219e+1 2.8029e–1 1.6975e+1 5.0817e–1 2.4819e+1 8.1542e–2
4 2.2925e+2 2.2711e+0 1.4309e+2 1.2669e+1 7.7835e+1 7.2166e+0 2.6039e+2 9.4157e–1
5 2.5839e+3 2.6639e+1 1.1478e+3 2.9828e+2 4.4048e+2 1.8576e+2 3.0353e+3 1.2283e+1
6 3.2391e+4 1.5480e+3 1.3238e+4 2.8747e+3 5.8780e+3 1.6236e+3 – –
7 4.7983e+5 2.2023e+4 2.3409e+5 4.1544e+4 1.0179e+5 4.1886e+4 – –
8 5.5951e+6 6.7923e+5 2.8343e+6 5.5877e+5 1.4756e+6 5.9100e+5 – –
9 1.1849e+8 1.9004e+6 5.7747e+7 1.1585e+7 3.4211e+7 1.0256e+7 – –
10 2.5061e+9 9.1641e+7 1.2204e+9 1.6713e+8 6.6819e+8 2.5068e+8 – –
WFG5
2 1.9744e+0 8.7617e–3 1.9742e+0 3.6320e–3 1.9557e+0 1.2348e–2 1.9863e+0 8.0626e–4
3 2.1527e+1 1.0332e–1 1.9181e+1 1.3987e–1 1.8547e+1 4.4280e–1 2.2713e+1 9.5208e–2
4 2.1627e+2 1.4846e+0 1.4141e+2 1.5285e+1 9.4165e+1 1.3906e+1 2.4267e+2 1.3772e+0
5 2.4460e+3 2.3396e+1 1.4586e+3 2.1116e+2 7.3730e+2 2.4516e+2 2.8474e+3 1.3053e+1
6 3.1055e+4 2.8602e+2 1.8222e+4 3.3872e+3 1.0826e+4 2.7132e+3 – –
7 4.9329e+5 3.8980e+3 2.9817e+5 4.2444e+4 2.0540e+5 4.0107e+4 – –
8 6.3967e+6 8.2734e+5 3.3254e+6 6.2742e+5 2.8299e+6 4.7162e+5 – –
9 1.0386e+8 1.8554e+6 6.7921e+7 8.4544e+6 5.7919e+7 6.5907e+6 – –
10 2.3288e+9 1.0089e+8 1.4200e+9 1.6146e+8 1.2812e+9 1.1006e+8 – –
WFG6
2 2.0016e+0 3.8188e–2 1.9523e+0 7.0745e–2 1.9029e+0 5.3696e–2 2.0237e+0 3.3405e–2
3 2.1718e+1 3.4165e–1 1.9429e+1 4.6088e–1 1.6811e+1 4.5660e–1 2.2980e+1 2.5817e–1
4 2.1801e+2 4.2264e+0 1.2044e+2 9.6824e+0 7.6675e+1 5.4253e+0 2.4525e+2 2.7467e+0
5 2.4751e+3 4.3188e+1 1.0742e+3 2.4060e+2 4.8050e+2 1.8682e+2 2.8802e+3 2.8364e+1
6 3.1949e+4 5.1070e+2 1.5745e+4 2.0030e+3 7.7105e+3 3.2234e+3 – –
7 5.0517e+5 7.3397e+3 2.5832e+5 3.2184e+4 1.1052e+5 4.4845e+4 – –
8 7.5340e+6 2.4786e+5 3.1109e+6 6.3718e+5 1.5722e+6 6.1274e+5 – –
9 1.4395e+8 8.5955e+6 5.9082e+7 7.5921e+6 2.9056e+7 1.2641e+7 – –
10 2.9270e+9 2.3450e+8 1.2519e+9 1.8739e+8 5.8200e+8 2.5927e+8 – –
WFG7
2 2.2629e+0 1.6770e–2 2.2626e+0 1.5253e–2 2.1037e+0 3.9866e–2 2.2926e+0 2.3230e–3
3 2.3970e+1 1.5466e–1 2.1456e+1 3.0872e–1 1.7821e+1 4.4696e–1 2.5107e+1 1.7483e–2
4 2.3903e+2 3.1053e+0 1.5955e+2 1.3309e+1 9.3522e+1 6.6278e+0 2.6528e+2 2.1773e–1
5 2.7099e+3 3.0588e+1 1.6097e+3 2.4905e+2 5.8980e+2 1.5366e+2 3.1071e+3 3.3224e+0
6 3.4511e+4 4.6692e+2 2.0480e+4 1.9261e+3 7.1816e+3 2.4886e+3 – –
7 5.5549e+5 6.8583e+3 2.9090e+5 3.2220e+4 1.3817e+5 3.6532e+4 – –
8 7.0186e+6 1.1503e+6 3.3345e+6 4.8791e+5 1.7186e+6 4.5193e+5 – –
9 1.1961e+8 1.8194e+7 5.7631e+7 7.5320e+6 3.2986e+7 8.4257e+6 – –
10 2.6271e+9 2.0710e+8 1.0537e+9 1.6437e+8 7.9013e+8 1.9823e+8 – –
Contin´ua en la p´agina siguiente
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 73
Tabla 5.10: – Continuaci´on de la p´agina anterior
objs
HDE MOEA/D MOEA/D-DE SMS-EMOA
Media std Media std Media std Media std
WFG8
2 1.6464e+0 2.3835e–2 1.7022e+0 1.5460e–2 1.4921e+0 4.1715e–2 1.7265e+0 1.0239e–2
3 1.8655e+1 2.2357e–1 1.7345e+1 4.7993e–1 1.1906e+1 7.9548e–1 2.0535e+1 9.7033e–2
4 1.8585e+2 3.2584e+0 8.0244e+1 3.0331e+0 3.6867e+1 8.1230e+0 2.1454e+2 1.3971e+0
5 2.0681e+3 2.9858e+1 1.5664e+2 4.6711e+1 1.9779e+2 1.6380e+2 2.4641e+3 1.5199e+1
6 2.7065e+4 5.9405e+2 2.8161e+3 1.9212e+3 3.3064e+3 2.0889e+3 – –
7 4.4837e+5 2.9287e+3 6.3579e+4 3.3658e+4 5.9693e+4 4.2108e+4 – –
8 6.5144e+6 3.5781e+5 1.0807e+6 5.3275e+5 1.1759e+6 6.9146e+5 – –
9 1.2827e+8 7.4524e+6 2.4163e+7 1.1378e+7 2.1738e+7 1.1237e+7 – –
10 2.8061e+9 1.0340e+8 4.9522e+8 2.1741e+8 5.5101e+8 2.0526e+8 – –
WFG9
2 1.9145e+0 2.5083e–1 2.0112e+0 1.6355e–1 1.8958e+0 1.9455e–1 2.0384e+0 2.4703e–1
3 1.9950e+1 1.1337e+0 1.8478e+1 1.3562e+0 1.7294e+1 8.1366e–1 2.3290e+1 1.0594e+0
4 1.9804e+2 1.6192e+0 9.8328e+1 1.2736e+1 7.0913e+1 1.6170e+1 2.3524e+2 1.2811e+1
5 2.2329e+3 1.6778e+1 4.1546e+2 2.7580e+2 5.6140e+2 2.3798e+2 2.6644e+3 1.5119e+2
6 2.8098e+4 3.4284e+2 6.0832e+3 2.6547e+3 7.7966e+3 1.2340e+3 – –
7 4.4032e+5 3.7539e+3 1.2941e+5 2.8421e+4 1.2079e+5 3.0877e+4 – –
8 6.4912e+6 1.8377e+5 1.8736e+6 4.5375e+5 1.6649e+6 4.8520e+5 – –
9 1.1915e+8 6.6487e+6 3.6992e+7 6.6917e+6 3.0484e+7 7.9363e+6 – –
10 2.4908e+9 5.8922e+7 7.8442e+8 1.4421e+8 6.4012e+8 1.6453e+8 – –
En el caso de EDH, su buen desempe˜no se mantiene tanto en los problemas DTLZ
como en los WFG, lo que no sucede con MOEA/D y MOEA/D-DE. Adem´as, su
capacidad de convergencia en varios problemas es competitiva con respecto a SMS-
EMOA, y en otros lo supera. A lo anterior se debe agregar que la diversidad de
las soluciones de EDH mejora la obtenida por SMS-EMOA en un gran n´umero de
problemas (ver figuras 5.3 y 5.6).
Otro aspecto relevante al comparar estos algoritmos es el costo computacional de
cada uno de ellos durante la soluci´on de los problemas de prueba. En la figura 5.7 se
presentan los tiempos de ejecuci´on de cada AEMO en los problemas DTLZ y WFG.
En esta figura se puede observar el crecimiento exponencial del tiempo de c´omputo
de SMS-EMOA, que en problemas con 4 objetivos tiene un valor del orden de 103
segundos (equivalente a horas) y en instancias de 5 objetivos es del orden de 105
segundos (correspondiente a d´ıas). Por ejemplo, en los problemas DTLZ3, DTLZ4,
WFG1, WFG2, WFG4 y WFG7 utiliza m´as de una hora de c´omputo en las instancias
de 4 objetivos y m´as de un d´ıa en las instancias de 5 objetivos.
El orden computacional m´as bajo lo poseen MOEA/D y MOEA/D-DE, pues utili-
zan menos de 10 segundos en cualquiera de las instancias. Esto se debe principalmente
a que no comparan todas las soluciones durante el proceso de selecci´on, sino aquellas
que pertenecen a una misma vecindad. El tama˜no de la vecindad durante los expe-
rimentos fue de 20 individuos (como recomiendan sus autores [9, 10]), lo cual es un
valor muy inferior al tama˜no de la poblaci´on (se utilizaron entre 120 y 220 indivi-
duos).
CINVESTAV-IPN Departamento de Computaci´on
74 Cap´ıtulo 5
WFG1−−EDH
1
2
f1
2
4
f2
0
1
2
3
4
5
6
f3
WFG1−−MOEA/D
1
2
f1
2
4
f2
0
1
2
3
4
5
6
f3
WFG1−−MOEA/D−DE
1
2
f1
2
4
f2
0
1
2
3
4
5
6
f3
WFG1−−SMS−EMOA
1
2
f1
2
4
f2
0
1
2
3
4
5
6
f3
WFG2−−EDH
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG2−−MOEA/D
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG2−−MOEA/D−DE
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG2−−SMS−EMOA
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG3−−EDH
012
f1
2
f2
0
1
2
3
4
5
6
f3
WFG3−−MOEA/D
012
f1
2
f2
0
1
2
3
4
5
6
f3
WFG3−−MOEA/D−DE
012
f1
2
f2
0
1
2
3
4
5
6
f3
WFG3−−SMS−EMOA
012
f1
2
f2
0
1
2
3
4
5
6
f3
WFG4−−EDH
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG4−−MOEA/D
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG4−−MOEA/D−DE
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG4−−SMS−EMOA
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG5−−EDH
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG5−−MOEA/D
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG5−−MOEA/D−DE
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG5−−SMS−EMOA
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
Figura 5.5: Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los
problemas WFG1 a 5 con 3 objetivos.
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 75
WFG6−−EDH
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG6−−MOEA/D
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG6−−MOEA/D−DE
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG6−−SMS−EMOA
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG7−−EDH
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG7−−MOEA/D
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG7−−MOEA/D−DE
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG7−−SMS−EMOA
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG8−−EDH
0
1
2
f1
2
4f2
0
1
2
3
4
5
6
f3
WFG8−−MOEA/D
0
1
2
f1
2
4f2
0
1
2
3
4
5
6
f3
WFG8−−MOEA/D−DE
0
1
2
f1
2
4f2
0
1
2
3
4
5
6
f3
WFG8−−SMS−EMOA
0
1
2
f1
2
4f2
0
1
2
3
4
5
6
f3
WFG9−−EDH
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG9−−MOEA/D
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG9−−MOEA/D−DE
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
WFG9−−SMS−EMOA
0
1
2 f1
2
4f2
0
1
2
3
4
5
6
f3
Figura 5.6: Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los
problemas WFG6 a 9 con 3 objetivos.
CINVESTAV-IPN Departamento de Computaci´on
76 Cap´ıtulo 5
Tabla 5.11: Distancia Generacional Invertida obtenida por cada AEMO en los problemas
WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes.
objs
EDH MOEA/D MOEA/D-DE SMS-EMOA
Media std Media std Media std Media std
WFG1
2 3.8666e–1 3.5757e–2 1.2064e+0 8.1454e–2 1.1456e+0 4.5669e–2 1.4134e+0 7.5783e–2
3 1.0994e+0 1.2595e–2 1.3974e+0 5.9382e–2 1.4346e+0 7.0895e–2 1.3377e+0 3.8107e–2
4 1.4759e+0 2.1153e–2 2.2284e+0 5.0201e–1 2.0815e+0 4.0397e–1 2.2113e+0 1.4243e–1
5 1.8345e+0 1.1321e–1 2.9054e+0 5.6321e–1 2.6831e+0 6.4153e–1 3.1712e+0 1.8135e–1
6 2.1961e+0 3.5298e–1 4.1615e+0 1.1152e+0 3.3758e+0 8.7616e–1 – –
7 2.2248e+0 2.4665e–1 4.7549e+0 1.4742e+0 3.6921e+0 1.1424e+0 – –
8 3.2363e+0 1.8585e+0 6.6483e+0 1.5466e+0 5.0024e+0 1.9136e+0 – –
9 3.9205e+0 2.2862e+0 7.3004e+0 1.6847e+0 5.9622e+0 2.2287e+0 – –
10 3.9811e+0 2.5311e+0 8.1072e+0 1.9411e+0 6.4262e+0 2.2754e+0 – –
WFG2
2 4.7636e–2 1.5357e–2 6.8575e–2 2.3530e–2 7.9691e–2 2.0596e–2 1.2243e–2 5.8072e–3
3 1.8071e–1 2.5435e–2 5.5454e–1 1.1517e–1 4.9419e–1 8.7594e–2 1.9342e–1 6.3159e–2
4 4.9969e–1 1.4864e–1 1.4734e+0 3.8008e–1 1.5780e+0 2.7189e–1 8.1514e–1 1.6913e–1
5 8.8060e–1 1.9579e–1 1.6350e+0 5.4523e–1 2.3911e+0 4.0419e–1 2.1514e+0 7.3690e–1
6 1.2492e+0 5.1240e–1 2.0541e+0 6.8578e–1 2.5829e+0 5.8660e–1 – –
7 2.1043e+0 2.0246e+0 2.4603e+0 9.4973e–1 2.8101e+0 6.9711e–1 – –
8 1.4792e+0 1.7270e+0 2.5881e+0 7.7446e–1 2.8150e+0 7.2319e–1 – –
9 1.3701e+0 5.4077e–1 2.6337e+0 7.3148e–1 3.0778e+0 7.7991e–1 – –
10 2.4977e+0 2.1205e+0 2.9459e+0 9.0681e–1 3.3438e+0 7.4821e–1 – –
WFG3
2 3.5784e–2 9.4992e–3 2.7385e–2 1.2747e–2 7.3358e–2 1.8267e–2 1.3238e–2 3.3001e–3
3 5.4965e–2 1.5099e–2 1.3995e–1 4.2019e–2 2.5909e–1 3.7456e–2 3.7819e–2 9.5079e–3
4 1.0697e–1 2.2539e–2 9.1615e–1 2.3103e–1 9.6341e–1 1.1108e–1 8.6824e–2 1.3689e–2
5 1.1404e–1 2.4876e–2 2.7230e+0 1.1480e–1 1.9930e+0 2.2517e–1 1.3349e–1 2.1730e–2
6 1.4661e–1 2.5651e–2 4.0047e+0 1.6926e–1 3.0009e+0 4.6391e–1 – –
7 9.5693e–2 1.1861e–2 4.8194e+0 1.1828e–1 3.8061e+0 5.7087e–1 – –
8 1.9415e–1 2.7625e–2 5.7008e+0 3.1267e–1 4.5217e+0 4.4032e–1 – –
9 1.5264e–1 1.9846e–2 6.5573e+0 4.4948e–1 4.8844e+0 7.0400e–1 – –
10 1.4803e–1 1.7218e–2 7.2112e+0 3.5293e–1 5.0185e+0 7.0863e–1 – –
WFG4
2 1.2634e–2 7.6043e–4 1.8695e–2 2.1789e–3 7.0949e–2 9.6296e–3 8.2606e–3 3.1131e–4
3 1.7637e–1 2.5320e–3 3.6453e–1 1.2515e–2 4.4942e–1 1.2799e–2 2.0735e–1 5.4809e–3
4 5.1810e–1 1.6060e–2 2.0105e+0 2.3342e–1 2.0557e+0 1.1649e–1 6.5829e–1 2.4038e–2
5 9.3109e–1 5.2656e–2 3.1383e+0 8.0181e–1 3.6983e+0 2.6388e–1 1.2061e+0 6.7565e–2
6 1.4373e+0 1.5915e–1 3.5945e+0 9.6311e–1 4.3089e+0 4.9941e–1 – –
7 1.3596e+0 1.7772e–1 3.5320e+0 5.1332e–1 4.7405e+0 7.9692e–1 – –
8 1.5463e+0 1.2767e–1 3.9181e+0 4.9505e–1 4.5578e+0 9.9395e–1 – –
9 1.8034e+0 8.7096e–2 4.5684e+0 7.2085e–1 4.4965e+0 1.0770e+0 – –
10 1.7973e+0 6.9891e–2 5.0200e+0 7.0095e–1 5.0319e+0 9.4174e–1 – –
WFG5
2 6.8808e–2 1.8260e–3 6.8057e–2 6.7247e–4 7.2122e–2 2.8777e–3 6.6596e–2 2.1013e–5
3 2.2441e–1 1.6280e–3 3.1996e–1 2.7299e–3 3.5583e–1 9.9785e–3 2.3558e–1 3.7490e–3
4 5.9261e–1 7.8410e–3 1.6480e+0 1.8235e–1 1.7182e+0 9.2418e–2 7.9884e–1 1.3530e–2
5 1.0752e+0 1.8145e–2 2.8489e+0 2.7099e–1 3.1855e+0 4.1734e–1 1.4675e+0 3.5236e–2
6 1.6961e+0 5.1293e–2 3.2696e+0 4.6961e–1 3.4694e+0 3.3005e–1 – –
7 2.1008e+0 6.6684e–2 3.4070e+0 2.8290e–1 3.7344e+0 2.9209e–1 – –
8 2.6324e+0 2.4197e–1 4.4338e+0 5.1571e–1 4.3066e+0 3.7209e–1 – –
9 2.8096e+0 5.8215e–2 4.7073e+0 2.9137e–1 4.7267e+0 2.4938e–1 – –
10 3.0367e+0 5.5118e–2 5.2977e+0 2.9422e–1 5.1577e+0 1.8563e–1 – –
WFG6
2 6.2770e–2 7.6997e–3 6.2861e–2 1.2804e–2 7.5020e–2 1.2029e–2 5.7632e–2 6.7028e–3
3 2.3592e–1 5.9929e–3 3.1458e–1 4.1950e–3 3.8811e–1 1.4723e–2 2.4676e–1 5.0496e–3
4 6.3099e–1 1.0823e–2 1.7324e+0 6.8077e–2 1.7265e+0 3.5035e–2 8.3947e–1 1.3507e–2
5 1.1307e+0 2.1153e–2 3.3123e+0 4.0415e–1 3.9002e+0 2.6282e–1 1.5400e+0 3.0167e–2
6 1.7727e+0 4.1505e–2 3.7403e+0 2.7990e–1 5.1408e+0 5.4195e–1 – –
7 2.2345e+0 4.7112e–2 4.4190e+0 2.3412e–1 5.9428e+0 7.4367e–1 – –
8 3.1385e+0 1.0797e–1 5.5038e+0 5.4257e–1 6.9005e+0 9.1470e–1 – –
9 3.7022e+0 1.6442e–1 6.2183e+0 4.9999e–1 8.0180e+0 1.1007e+0 – –
10 4.1174e+0 4.5558e–1 7.0280e+0 4.6679e–1 9.0888e+0 1.1693e+0 – –
WFG7
2 1.5777e–2 2.1127e–3 1.4571e–2 6.4873e–4 3.5921e–2 3.6510e–3 9.1563e–3 1.1148e–4
3 2.1793e–1 9.5213e–4 2.9794e–1 1.2380e–3 4.2577e–1 3.3285e–2 2.3224e–1 4.2886e–3
4 6.2292e–1 8.6051e–3 1.6715e+0 8.4471e–2 1.7713e+0 3.4370e–2 8.6464e–1 1.3311e–2
5 1.1238e+0 2.4406e–2 3.3297e+0 4.2718e–1 3.7826e+0 4.8013e–1 1.5901e+0 3.5563e–2
6 1.8042e+0 4.9544e–2 3.9934e+0 4.1321e–1 4.9662e+0 4.8486e–1 – –
7 2.2493e+0 5.9535e–2 4.7232e+0 2.9298e–1 5.3885e+0 5.7323e–1 – –
8 2.9423e+0 3.3169e–1 6.0329e+0 5.4481e–1 6.4274e+0 1.0585e+0 – –
9 3.5003e+0 2.9592e–1 6.7827e+0 6.2858e–1 7.0727e+0 8.9896e–1 – –
10 3.6346e+0 1.5355e–1 7.7078e+0 7.7156e–1 7.6256e+0 9.3139e–1 – –
Contin´ua en la p´agina siguiente
CINVESTAV-IPN Departamento de Computaci´on
Estudio Experimental 77
Tabla 5.11: – Continuaci´on de la p´agina anterior
objs
HDE MOEA/D MOEA/D-DE SMS-EMOA
Media std Media std Media std Media std
WFG8
2 5.8891e–1 8.5729e–3 6.0791e–1 5.4448e–3 5.4022e–1 1.5403e–2 6.1629e–1 3.2071e–3
3 7.3587e–1 8.7101e–3 7.8708e–1 1.4485e–2 5.4455e–1 2.4154e–2 7.6167e–1 5.1497e–3
4 1.0090e+0 2.2756e–2 2.3019e+0 5.6569e–2 1.9591e+0 5.4270e–2 1.1180e+0 1.4131e–2
5 1.3722e+0 2.4662e–2 4.8610e+0 2.3386e–1 4.0180e+0 6.0268e–1 1.7910e+0 4.1264e–2
6 1.8588e+0 6.6010e–2 6.0215e+0 5.5451e–1 5.2831e+0 6.4748e–1 – –
7 2.2464e+0 3.8205e–2 6.8487e+0 7.7869e–1 6.1043e+0 8.6834e–1 – –
8 2.9411e+0 1.8357e–1 7.9005e+0 8.4380e–1 6.8417e+0 9.6879e–1 – –
9 3.3090e+0 1.2869e–1 8.4591e+0 1.2058e+0 7.5451e+0 1.1727e+0 – –
10 3.6633e+0 1.3392e–1 9.4610e+0 1.2012e+0 8.3477e+0 1.2652e+0 – –
WFG9
2 8.4959e–2 5.6234e–2 5.9251e–2 3.8618e–2 8.9495e–2 4.3415e–2 5.5850e–2 5.7045e–2
3 2.1478e–1 2.2300e–2 3.7245e–1 1.9748e–2 4.0496e–1 1.2550e–2 2.0251e–1 1.3173e–2
4 5.2611e–1 7.9880e–3 1.9021e+0 5.0635e–2 1.7936e+0 1.0983e–1 6.1367e–1 1.5598e–2
5 9.6823e–1 2.0531e–2 3.6772e+0 3.2480e–1 2.4817e+0 5.0831e–1 1.1861e+0 3.6623e–2
6 1.4892e+0 3.2068e–2 4.0416e+0 7.1408e–1 2.9995e+0 1.7312e–1 – –
7 1.8157e+0 3.7793e–2 4.1814e+0 4.8445e–1 3.7429e+0 4.0486e–1 – –
8 2.5348e+0 9.6788e–2 4.9399e+0 6.2633e–1 4.7922e+0 7.4548e–1 – –
9 2.9304e+0 1.4077e–1 5.5382e+0 5.4967e–1 5.5657e+0 7.0692e–1 – –
10 3.2411e+0 1.4390e–1 6.1620e+0 7.0675e–1 6.3033e+0 7.9088e–1 – –
El tiempo de ejecuci´on de EDH no depende del n´umero de objetivos, como en
el caso de SMS-EMOA, sino del n´umero de soluciones deseadas. Esto ocurre porque
el esquema de selecci´on utiliza el algoritmo de Kuhn-Munkres para decidir los n in-
dividuos que pasan a la siguiente generaci´on y la complejidad de este algoritmo es
O(n3
). En EDH se incorpor´o un m´etodo para generar un n´umero arbitrario de vecto-
res de pesos, que permite utilizar una poblaci´on de tama˜no independiente al n´umero
de objetivos, algo que no sucede con MOEA/D y MOEA/D-DE. De esta manera,
nuestra propuesta puede escalar con relaci´on al n´umero de objetivos sin que aumente
su tiempo de ejecuci´on. En la figura 5.7 se puede observar que los mayores tiempos
corresponden precisamente a las instancias para las cuales se utilizaron los mayores
tama˜nos de poblaci´on (210 individuos para 7 objetivos y 220 para 10 objetivos). El
mayor tiempo registrado para EDH fue de 5 minutos, pero los valores m´as frecuentes
no superan los 20 segundos, pues la mediana del tiempo empleado por EDH en la
soluci´on de las 144 instancias es igual a 15.3 segundos.
CINVESTAV-IPN Departamento de Computaci´on
78 Cap´ıtulo 5
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
DTLZ1
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
DTLZ2
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
10
6
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
DTLZ3
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
10
6
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
DTLZ4
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
DTLZ5
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
DTLZ6
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
DTLZ7
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
10
6
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
WFG1
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
10
6
2 3 4 5 6 7 8 9 10Tiempo(segundos)
Número de objetivos
WFG2
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
WFG3
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
10
6
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
WFG4
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
WFG5
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
WFG6
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
−1
10
0
10
1
10
2
10
3
10
4
10
5
10
6
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
WFG7
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
WFG8
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
10
0
10
1
10
2
10
3
10
4
10
5
2 3 4 5 6 7 8 9 10
Tiempo(segundos)
Número de objetivos
WFG9
EDH
MOEA/D
MOEA/D−DE
SMS−EMOA
Figura 5.7: Tiempo de ejecuci´on promedio considerando 30 corridas independientes de EDH,
MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas DTLZ y WFG.
CINVESTAV-IPN Departamento de Computaci´on
Cap´ıtulo 6
Conclusiones
En esta tesis se present´o una revisi´on de los principales AEMOs propuestos du-
rante los ´ultimos 10 a˜nos, resaltando sus ventajas y limitaciones. Entre ellos destacan
los basados en indicadores y los basados en descomposici´on. En el primer caso, la
mejor aproximaci´on del frente de Pareto se obtiene con los AEMOs basados en el
hipervolumen, pero el principal inconveniente es que el costo computacional de este
indicador aumenta de manera exponencial con el n´umero de objetivos. En cuanto a
los basados en descomposici´on, la opci´on m´as popular ha sido MOEA/D, pero existen
pocos estudios que analicen su desempe˜no en problemas con m´as de cuatro objetivos.
En este trabajo se propuso un nuevo algoritmo evolutivo para solucionar problemas
con un gran n´umero de objetivos. El aspecto principal de nuestra propuesta es que
transforma el proceso de selecci´on en un problema de asignaci´on lineal, el cual se
soluciona utilizando el algoritmo de Kuhn-Munkres (tambi´en conocido como m´etodo
h´ungaro). Para construir el problema de asignaci´on lineal emplea un conjunto de
vectores de pesos uniformemente distribuidos en el espacio objetivo y una funci´on de
utilidad (o funci´on de costo). Adem´as, para generar las nuevas soluciones utiliza los
operadores de la evoluci´on diferencial, debido a lo cual hemos denominado a nuestra
propuesta evoluci´on diferencial h´ungara (EDH). El conjunto de vectores de pesos que
requiere EDH se obtiene mediante un m´etodo de dise˜no uniforme y como funci´on de
utilidad se seleccion´o la descomposici´on de Tchebycheff modificada.
La evaluaci´on de EDH se realiz´o comparando su desempe˜no con dos AEMOs basa-
dos en descomposici´on (MOEA/D y MOEA/D-DE) y uno basado en el hipervolumen
(SMS-EMOA). Para ello, se utilizaron 16 problemas de prueba, de los cuales se ob-
tienen 144 instancias al variar el n´umero de objetivos entre 2 y 10. Los conjuntos
de prueba fueron los denominados Deb-Thiele-Laumanns-Zitzler (DTLZ) y Walking-
Fish-Group (WFG), que poseen una amplia variedad de caracter´ısticas representativas
de los problemas reales. SMS-EMOA solo fue aplicado en problemas con 5 objetivos
o menos, debido a su elevado tiempo de ejecuci´on, que asciende a d´ıas cuando el
n´umero de objetivos es mayor o igual a 5. Adem´as, SMS-EMOA present´o dificultad
para converger en problemas con m´ultiples ´optimos locales (DTLZ1 y 3) y con fren-
tes de Pareto degenerados (DTLZ6 y WFG3). El aspecto m´as negativo a destacar en
SMS-EMOA es la pobre distribuci´on de sus soluciones en gran parte de los problemas.
79
80 Cap´ıtulo 6
Aunque la aproximaci´on del frente de Pareto la obtiene al maximizar el hipervolumen,
se puede observar en un gran n´umero de problemas (DTLZ2 y 4, WFG4 a 9) que un
alto valor de este indicador no garantiza una buena distribuci´on. Es por esta raz´on,
que al evaluar sus soluciones con la distancia generacional invertida, su desempe˜no se
muestra inferior al de EDH en un mayor n´umero de instancias.
MOEA/D y MOEA/D-DE poseen un orden computacional muy inferior al de
SMS-EMOA e incluso al de EDH, siendo escalables a cualquier n´umero de objetivos en
este sentido. En baja dimensionalidad (problemas con dos o tres objetivos) alcanzan
resultados cercanos a EDH y SMS-EMOA, sin llegar a superarlos. Sin embargo, en la
medida que aumenta el n´umero de objetivos, la capacidad de convergencia de ambos
algoritmos disminuye y en mayor medida se ve afectada la diversidad de las soluciones
que obtienen. Esto tiene relaci´on en primer lugar con el esquema de reemplazo de
las soluciones de cada subproblema, pues busca el ´optimo de manera independiente
y esto no siempre representa la mejor opci´on para el conjunto de soluciones. En
segundo lugar, la generaci´on de nuevas soluciones depende en mayor medida de los
individuos de una misma vecindad, lo cual puede provocar la p´erdida de la diversidad
en la poblaci´on. De manera general, MOEA/D y MOEA/D-DE no logran resultados
competitivos con respecto a SMS-EMOA y a nuestra propuesta.
EDH obtiene los mayores valores del hipervolumen en todas las instancias con
m´as de 5 objetivos, y en problemas como DTLZ1, DTLZ3 y DTLZ6 tambi´en supera
a SMS-EMOA en las instancias con menos de 5 objetivos. En cuanto a la distan-
cia generacional invertida, EDH obtiene el mejor valor en 126 de las 144 instancias
de los problemas DTLZ y WFG. Esto refleja la buena distribuci´on de las soluciones
obtenidas por EDH con respecto a las de SMS-EMOA, algo que en varios casos el
hipervolumen no puede diferenciar debido a sus limitaciones. Por su parte, el tiem-
po de ejecuci´on de EDH no depende del n´umero de objetivos. En los experimentos
realizados con poblaciones de hasta 220 individuos el tiempo m´aximo que utiliz´o fue
de 5 minutos, siendo los valores m´as frecuentes inferiores a 20 segundos (la mediana
del tiempo de ejecuci´on en las 144 instancias fue de 15.3 segundos). La calidad de la
soluciones encontradas por EDH en problemas de entre 2 y 10 objetivos, y el tiempo
de ejecuci´on utilizado para solucionarlos, lo hacen ver como una opci´on competitiva
frente a otros AEMOs.
6.1. Trabajo futuro
La propuesta realizada en esta tesis utiliza el algoritmo de Kuhn-Munkres para so-
lucionar el problema de asignaci´on lineal en que se transforma el proceso de selecci´on.
Debido a que el m´etodo h´ungaro es de orden O(n3
) y en EDH el valor de n est´a dado
por el n´umero de soluciones que se desean sobre el frente de Pareto, de requerirse un
elevado valor de n, aumenta considerablemente el tiempo de ejecuci´on de EDH. Ante
esta situaci´on, es recomendable implementar otro algoritmo de asignaci´on con menor
orden computacional o un m´etodo de programaci´on lineal.
CINVESTAV-IPN Departamento de Computaci´on
Conclusiones 81
Otra caracter´ıstica mejorable en nuestra propuesta es el m´etodo de dise˜no uni-
forme que se introdujo para generar los vectores de pesos. Este algoritmo, basado
en el m´etodo de Hammersley y en el dise˜no uniforme de experimentos con mezclas,
posee un bajo costo computacional y obtiene un n´umero arbitrario de vectores con
una buena distribuci´on. Sin embargo, a medida que aumenta el n´umero de objetivos,
los vectores se concentran en el interior del simplex, contrario a lo que sucede con
el simplex-lattice. Por lo tanto, es necesario generar un conjunto que incluya tanto
vectores del interior del simplex como de la frontera.
Una ´ultima modificaci´on que podr´ıa mejorar el desempe˜no de EDH es la construc-
ci´on de una funci´on de utilidad m´as efectiva. Mientras mayor sea la capacidad de la
funci´on de costo para evaluar la pertinencia de cada soluci´on, mejor ser´a la poblaci´on
seleccionada como aproximaci´on del frente de Pareto. En EDH se considera cu´an bien
representa una soluci´on una secci´on o zona del frente de Pareto, pero la capacidad de
medir esto depende de la funci´on de utilidad.
CINVESTAV-IPN Departamento de Computaci´on
82 Cap´ıtulo 6
CINVESTAV-IPN Departamento de Computaci´on
Bibliograf´ıa
[1] Carlos A. Coello Coello, Gary B. Lamont, and David A. Van Veldhuizen. Evolu-
tionary Algorithms for Solving Multi-Objective Problems. Springer, New York,
second edition, September 2007. ISBN 978-0-387-33254-3.
[2] Kalyanmoy Deb. Multi-Objective Optimization using Evolutionary Algorithms.
John Wiley & Sons, Chichester, UK, 2001. ISBN 0-471-87339-X.
[3] Eckart Zitzler, Lothar Thiele, Marco Laumanns, Carlos M. Fonseca, and Vivia-
ne Grunert da Fonseca. Performance Assessment of Multiobjective Optimizers:
An Analysis and Review. IEEE Transactions on Evolutionary Computation,
7(2):117–132, April 2003.
[4] Robin C. Purshouse and Peter J. Fleming. On the Evolutionary Optimization of
Many Conflicting Objectives. IEEE Transactions on Evolutionary Algorithms,
11(6):770–784, December 2007.
[5] Joshua Knowles and David Corne. Quantifying the Effects of Objective Space
Dimension in Evolutionary Multiobjective Optimization. In Shigeru Obayashi,
Kalyanmoy Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko Murata, edi-
tors, Evolutionary Multi-Criterion Optimization, volume 4403 of Lecture Notes
in Computer Science, pages 757–771. Springer Berlin Heidelberg, 2007.
[6] Hisao Ishibuchi, Noritaka Tsukamoto, and Yusuke Nojima. Evolutionary many-
objective optimization: A short review. In Evolutionary Computation, 2008.
CEC 2008. (IEEE World Congress on Computational Intelligence). IEEE Con-
gress on, pages 2424–2431, Hong Kong, June 2008.
[7] M. Farina and P. Amato. On the optimal solution definition for many-criteria
optimization problems. In Fuzzy Information Processing Society, 2002. Procee-
dings. NAFIPS. 2002 Annual Meeting of the North American, pages 233–238,
June 2002.
[8] Christian von L¨ucken, Benjam´ın Bar´an, and Carlos Brizuela. A survey on multi-
objective evolutionary algorithms for many-objective problems. Computational
Optimization and Applications, 58(3):707–756, July 2014.
83
84 BIBLIOGRAF´IA
[9] Qingfu Zhang and Hui Li. MOEA/D: A Multiobjective Evolutionary Algorithm
Based on Decomposition. IEEE Transactions on Evolutionary Computation,
11(6):712–731, December 2007.
[10] Hui Li and Qingfu Zhang. Multiobjective Optimization Problems With Compli-
cated Pareto Sets, MOEA/D and NSGA-II. IEEE Transactions on Evolutionary
Computation, 13(2):284–302, April 2009.
[11] Siwei Jiang, Zhihua Cai, Jie Zhang, and Yew-Soon Ong. Multiobjective op-
timization by decomposition with Pareto-adaptive weight vectors. In Natural
Computation (ICNC), 2011 Seventh International Conference on, volume 3,
pages 1260–1264, July 2011.
[12] Yan-Yan Tan, Yong-Chang Jiao, Hong Li, and Xin-Kuan Wang. A modification
to MOEA/D-DE for multiobjective optimization problems with complicated
Pareto sets. Information Sciences, 213:14–38, December 2012.
[13] Yan-Yan Tan, Yong-Chang Jiao, Hong Li, and Xin-Kuan Wang. MOEA/D +
uniform design: A new version of MOEA/D for optimization problems with
many objectives. Computers & Operations Research, 40(6):1648–1660, June
2013.
[14] Xiaoliang Ma, Yutao Qi, Lingling Li, Fang Liu, Licheng Jiao, and Jianshe Wu.
MOEA/D with uniform decomposition measurement for many-objective pro-
blems. Soft Computing, pages 1–24, 2014.
[15] Hisao Ishibuchi, Yuji Sakane, Noritaka Tsukamoto, and Yusuke Nojima. Adap-
tation of Scalarizing Functions in MOEA/D: An Adaptive Scalarizing Function-
Based Multiobjective Evolutionary Algorithm. In Matthias Ehrgott, Carlos M.
Fonseca, Xavier Gandibleux, Jin-Kao Hao, and Marc Sevaux, editors, Evolutio-
nary Multi-Criterion Optimization, volume 5467 of Lecture Notes in Computer
Science, pages 438–452. Springer Berlin Heidelberg, 2009.
[16] K. Deb and H. Jain. An Evolutionary Many-Objective Optimization Algorithm
Using Reference-Point-Based Nondominated Sorting Approach, Part I: Solving
Problems With Box Constraints. IEEE Transactions on Evolutionary Compu-
tation, 18(4):577–601, August 2014.
[17] A. Mohammadi, M.N. Omidvar, and Xiaodong Li. Reference point based multi-
objective optimization through decomposition. In Evolutionary Computation
(CEC), 2012 IEEE Congress on, pages 1–8, Brisbane, Australia, June 2012.
[18] Nicola Beume, Boris Naujoks, and Michael Emmerich. SMS-EMOA: Multiob-
jective selection based on dominated hypervolume. European Journal of Ope-
rational Research, 181(3):1653–1669, September 2007.
CINVESTAV-IPN Departamento de Computaci´on
BIBLIOGRAF´IA 85
[19] Dimo Brockhoff, Tobias Friedrich, and Frank Neumann. Analyzing Hypervo-
lume Indicator Based Algorithms. In G¨unter Rudolph, Thomas Jansen, Simon
Lucas, Carlo Poloni, and Nicola Beume, editors, Parallel Problem Solving from
Nature PPSN X, volume 5199 of Lecture Notes in Computer Science, pages
651–660. Springer Berlin Heidelberg, September 2008.
[20] M. Fleischer. The Measure of Pareto Optima. Applications to Multi-objective
Metaheuristics. In Carlos M. Fonseca, Peter J. Fleming, Eckart Zitzler, Kalyan-
moy Deb, and Lothar Thiele, editors, EMO 2003, pages 519–533, Faro, Portugal,
April 2003. Springer. Lecture Notes in Computer Science. Volume 2632.
[21] Michael Emmerich, Nicola Beume, and Boris Naujoks. An EMO Algorithm
Using the Hypervolume Measure as Selection Criterion. In Carlos A. Coello
Coello, Arturo Hern´andez Aguirre, and Eckart Zitzler, editors, EMO 2005, pages
62–76, Guanajuato, M´exico, March 2005. Springer. Lecture Notes in Computer
Science Vol. 3410.
[22] Karl Bringmann and Tobias Friedrich. Approximating the least hypervolume
contributor: NP-hard in general, but fast in practice. Theoretical Computer
Science, 425:104–116, March 30 2012.
[23] Dimo Brockhoff and Eckart Zitzler. Improving Hypervolume-based Multiobjec-
tive Evolutionary Algorithms by Using Objective Reduction Methods. In 2007
IEEE Congress on Evolutionary Computation (CEC’2007), pages 2086–2093,
Singapore, Sep 2007. IEEE Press.
[24] Johannes Bader and Eckart Zitzler. HypE: An Algorithm for Fast Hypervolume-
Based Many-Objective Optimization. Evolutionary Computation, 19(1):45–76,
Spring, 2011.
[25] Oliver Sch¨utze, Xavier Esquivel, Adriana Lara, and Carlos A. Coello Coello.
Using the averaged hausdorff distance as a performance measure in evolu-
tionary multiobjective optimization. IEEE Trans. Evolutionary Computation,
16(4):504–522, 2012.
[26] Michael Pilegaard Hansen. Metaheuristics for multiple objective combinatorial
optimization. PhD thesis, Institute of Mathematical Modelling, Technical Uni-
versity of Denmark, March 1998.
[27] Cynthia A. Rodr´ıguez Villalobos and Carlos A. Coello Coello. A New Multi-
Objective Evolutionary Algorithm Based on a Performance Assessment In-
dicator. In 2012 Genetic and Evolutionary Computation Conference (GEC-
CO’2012), pages 505–512, Philadelphia, USA, July 2012. ACM Press. ISBN:
978-1-4503-1177-9.
CINVESTAV-IPN Departamento de Computaci´on
86 BIBLIOGRAF´IA
[28] Heike Trautmann, G¨unter Rudolph, Christian Dominguez-Medina, and Oliver
Sch¨utze. Finding Evenly Spaced Pareto Fronts for Three-Objective Optimiza-
tion Problems. In Oliver Sch¨utze, Carlos A. Coello Coello, Alexandru-Adrian
Tantar, Emilia Tantar, Pascal Bouvry, Pierre Del Moral, and Pierrick Legrand,
editors, EVOLVE - A Bridge between Probability, Set Oriented Numerics, and
Evolutionary Computation II, pages 89–105. Springer, Advances in Intelligent
Systems and Computing Vol. 175, Berlin, Germany, 2012. ISBN 978-3-642-
31519-0.
[29] Heike Trautmann, Tobias Wagner, and Dimo Brockhoff. R2-EMOA: Focused
Multiobjective Search Using R2-Indicator-Based Selection. In Giuseppe Nicosia
and Panos Pardalos, editors, Learning and Intelligent Optimization, Lecture
Notes in Computer Science, pages 70–74. Springer Berlin Heidelberg, 2013.
[30] D H Phan and J Suzuki. R2-IBEA: R2 Indicator Based Evolutionary Algorithm
for Multiobjective Optimization. In IEEE Congress on Evolutionary Compu-
tation (CEC’2013), pages 1836–1845, 2013.
[31] Dimo Brockhoff, Tobias Wagner, and Heike Trautmann. On the Properties of
the R2 Indicator. In 2012 Genetic and Evolutionary Computation Conference
(GECCO’2012), pages 465–472, Philadelphia, USA, July 2012. ACM Press.
ISBN: 978-1-4503-1177-9.
[32] William Karush. Minima of Functions of Several Variables with Inequalities as
Side Constraints. Master’s thesis, Department of Mathematics, University of
Chicago, Chicago, Illinois, 1939.
[33] Harold W Kuhn and A. W. Tucker. Nonlinear programming. In Proceedings
of the Second Berkeley Symposium on Mathematical Statistics and Probability,
pages 481–492, Berkeley, Calif., 1951. University of California Press.
[34] A. M. Turing. Computing Machinery and Intelligence. Mind, 59(236):433–460,
1950.
[35] Alexander S. Fraser and D. Burnell. Computer Models in Genetics. McGraw–
Hill, New York, 1970.
[36] George E. P. Box. Evolutionary operation: A method for increasing indus-
trial productivity. Journal of the Royal Statistical Society. Series C (Applied
Statistics), 6(2):81–101, June 1957.
[37] Lawrence J. Fogel. Artificial Intelligence through Simulated Evolution. John
Wiley, New York, 1966.
[38] Thomas B¨ack, David B. Fogel, and Zbigniew Michalewicz, editors. Handbook
of Evolutionary Computation. Institute of Physics Publishing and Oxford Uni-
versity Press, 1997.
CINVESTAV-IPN Departamento de Computaci´on
BIBLIOGRAF´IA 87
[39] Ingo Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme nach
Prinzipien der biologischen Evolution. Frommann–Holzboog, Stuttgart, Alema-
nia, 1973.
[40] Hans-Paul Schwefel. Numerische Optimierung von Computer-Modellen mittels
der Evolutionsstrategie. Birkh¨auser, Basel, Alemania, 1977.
[41] John H. Holland. Outline for a Logical Theory of Adaptive Systems. Journal
of the Association for Computing Machinery, 9(3):297–314, July 1962.
[42] G. Rudolph. Convergence analysis of canonical genetic algorithms. Neural
Networks, IEEE Transactions on, 5(1):96–101, Jan 1994.
[43] David E. Goldberg. Genetic Algorithms in Search, Optimization and Machine
Learning. Addison-Wesley Longman Publishing Co., Inc., Boston, MA, USA,
1st edition, 1989.
[44] S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi. Optimization by simulated
annealing. Science, 220(4598):671–680, 1983.
[45] V. ˇCern´y. Thermodynamical approach to the traveling salesman problem: An
efficient simulation algorithm. Journal of Optimization Theory and Applica-
tions, 45(1):41–51, January 1985.
[46] B. Suman and P. Kumar. A survey of simulated annealing as a tool for single
and multiobjective optimization. Journal of the Operational Research Society,
57(10):1143–1160, October 2006.
[47] Fred Glover. Future Paths for Integer Programming and Links to Artificial
Intelligence. Computers and Operations Research, 13(5):533–549, 1986.
[48] Fred Glover and Manuel Laguna. Tabu Search. Kluwer Academic Publishers,
Norwell, MA, USA, 1997.
[49] J. Kennedy and R. Eberhart. Particle Swarm Optimization. In Proceedings of
the 1995 IEEE International Conference on Neural Networks, volume 4, pages
1942–1948, Nov 1995.
[50] Margarita Reyes-Sierra and Carlos A. Coello Coello. Multi-Objective Particle
Swarm Optimizers: A Survey of the State-of-the-Art. International Journal of
Computational Intelligence Research, 2(3):287–308, 2006.
[51] Rainer Storn and Kenneth Price. Differential evolution: A simple and efficient
heuristic for global optimization over continuous spaces. Journal of Global Op-
timization, 11(4):341–359, 1997.
CINVESTAV-IPN Departamento de Computaci´on
88 BIBLIOGRAF´IA
[52] John David Schaffer. Multiple Objective Optimization with Vector Evaluated
Genetic Algorithms. PhD thesis, Vanderbilt University, Nashville, Tennessee,
USA, 1984.
[53] Carlos A. Coello Coello. A Comprehensive Survey of Evolutionary-Based Mul-
tiobjective Optimization Techniques. Knowledge and Information Systems. An
International Journal, 1(3):269–308, August 1999.
[54] Carlos M. Fonseca and Peter J. Fleming. Genetic Algorithms for Multiobjec-
tive Optimization: Formulation, Discussion and Generalization. In Stephanie
Forrest, editor, Proceedings of the Fifth International Conference on Genetic
Algorithms, pages 416–423, San Mateo, California, 1993. University of Illinois
at Urbana-Champaign, Morgan Kauffman Publishers.
[55] Jeffrey Horn and Nicholas Nafpliotis. Multiobjective Optimization using the
Niched Pareto Genetic Algorithm. Technical Report IlliGAl Report 93005,
University of Illinois at Urbana-Champaign, Urbana, Illinois, USA, 1993.
[56] N. Srinivas and Kalyanmoy Deb. Multiobjective Optimization Using Nondomi-
nated Sorting in Genetic Algorithms. Evolutionary Computation, 2(3):221–248,
Fall 1994.
[57] Eckart Zitzler and Lothar Thiele. Multiobjective Evolutionary Algorithms: A
Comparative Case Study and the Strength Pareto Approach. IEEE Transac-
tions on Evolutionary Computation, 3(4):257–271, November 1999.
[58] Joshua D. Knowles and David W. Corne. Approximating the Nondominated
Front Using the Pareto Archived Evolution Strategy. Evolutionary Compu-
tation, 8(2):149–172, 2000.
[59] David W. Corne, Joshua D. Knowles, and Martin J. Oates. The Pare-
to Envelope-based Selection Algorithm for Multiobjective Optimization. In
Marc Schoenauer, Kalyanmoy Deb, G¨unter Rudolph, Xin Yao, Evelyne Lutton,
Juan Julian Merelo, and Hans-Paul Schwefel, editors, Proceedings of the Para-
llel Problem Solving from Nature VI Conference, pages 839–848, Paris, France,
2000. Springer. Lecture Notes in Computer Science No. 1917.
[60] Carlos A. Coello Coello and Gregorio Toscano Pulido. Multiobjective Optimi-
zation using a Micro-Genetic Algorithm. In Lee Spector, Erik D. Goodman,
Annie Wu, W.B. Langdon, Hans-Michael Voigt, Mitsuo Gen, Sandip Sen, Mar-
co Dorigo, Shahram Pezeshk, Max H. Garzon, and Edmund Burke, editors,
Proceedings of the Genetic and Evolutionary Computation Conference (GEC-
CO’2001), pages 274–282, San Francisco, California, 2001. Morgan Kaufmann
Publishers.
CINVESTAV-IPN Departamento de Computaci´on
BIBLIOGRAF´IA 89
[61] Kalyanmoy Deb, Amrit Pratap, Sameer Agarwal, and T. Meyarivan. A Fast
and Elitist Multiobjective Genetic Algorithm: NSGA–II. IEEE Transactions
on Evolutionary Computation, 6(2):182–197, April 2002.
[62] Eckart Zitzler, Marco Laumanns, and Lothar Thiele. SPEA2: Improving the
Strength Pareto Evolutionary Algorithm. In K. Giannakoglou, D. Tsahalis,
J. Periaux, P. Papailou, and T. Fogarty, editors, EUROGEN 2001. Evolutionary
Methods for Design, Optimization and Control with Applications to Industrial
Problems, pages 95–100, Athens, Greece, 2002.
[63] Gregorio Toscano Pulido and Carlos A. Coello Coello. The Micro Genetic
Algorithm 2: Towards Online Adaptation in Evolutionary Multiobjective Opti-
mization. In Carlos M. Fonseca, Peter J. Fleming, Eckart Zitzler, Kalyanmoy
Deb, and Lothar Thiele, editors, Evolutionary Multi-Criterion Optimization.
Second International Conference, EMO 2003, pages 252–266, Faro, Portugal,
April 2003. Springer. Lecture Notes in Computer Science. Volume 2632.
[64] J. L. Bentley, H. T. Kung, M. Schkolnick, and C. D. Thompson. On the average
number of maxima in a set of vectors and applications. J. ACM, 25(4):536–543,
1978.
[65] Ikeda Kokolo, Kita Hajime, and Kobayashi Shigenobu. Failure of Pareto-based
MOEAs: Does Non-dominated Really Mean Near to Optimal? In Proceedings of
the Congress on Evolutionary Computation 2001 (CEC’2001), volume 2, pages
957–962, Piscataway, New Jersey, May 2001. IEEE Service Center.
[66] Thomas Hanne. Global Multiobjective Optimization with Evolutionary Algo-
rithms: Selection Mechanisms and Mutation Control. In Eckart Zitzler, Kal-
yanmoy Deb, Lothar Thiele, Carlos A. Coello Coello, and David Corne, editors,
First International Conference on Evolutionary Multi-Criterion Optimization,
pages 197–212. Springer-Verlag. Lecture Notes in Computer Science No. 1993,
2001.
[67] Kalyanmoy Deb, Lothar Thiele, Marco Laumanns, and Eckart Zitzler. Scalable
Multi-Objective Optimization Test Problems. In Congress on Evolutionary
Computation (CEC’2002), volume 1, pages 825–830, Piscataway, New Jersey,
May 2002. IEEE Service Center.
[68] Thomas Hanne. On the convergence of multiobjective evolutionary algorithms.
European Journal of Operational Research, 117(3):553–564, 1999.
[69] D.K. Saxena, J.A. Duro, A. Tiwari, K. Deb, and Qingfu Zhang. Objective re-
duction in many-objective optimization: Linear and nonlinear algorithms. Evo-
lutionary Computation, IEEE Transactions on, 17(1):77–99, Feb 2013.
CINVESTAV-IPN Departamento de Computaci´on
90 BIBLIOGRAF´IA
[70] David Hadka and Patrick Reed. Diagnostic Assessment of Search Controls and
Failure Modes in Many-Objective Evolutionary Optimization. Evolutionary
Computation, 20(3):423–452, Fall 2012.
[71] Olivier Teytaud. On the hardness of offline multi-objective optimization. Evo-
lutionary Computation, 15(4):475–491, December 2007.
[72] Tobias Friedrich, Nils Hebbinghaus, and Frank Neumann. Plateaus can be har-
der in multi-objective optimization. Theoretical Computer Science, 411(6):854–
864, February 6 2010.
[73] Dimo Brockhoff, Tobias Friedrich, Nils Hebbinghaus, Christian Klein, Frank
Neumann, and Eckart Zitzler. Do Additional Objectives Make a Problem Har-
der? In Dirk Thierens, editor, 2007 Genetic and Evolutionary Computation
Conference (GECCO’2007), volume 1, pages 765–772, London, UK, July 2007.
ACM Press.
[74] Oliver Sch¨utze, Adriana Lara, and Carlos A. Coello Coello. On the Influence
of the Number of Objectives on the Hardness of a Multiobjective Optimization
Problem. IEEE Transactions on Evolutionary Computation, 15(4):444–455, Au-
gust 2011.
[75] P. Sen and J. B. Yang. Multiple Criteria Decision Support in Engineering
Design. Springer-Verlag, London, 1998.
[76] Aimin Zhou, Bo-Yang Qu, Hui Li, Shi-Zheng Zhao, Ponnuthurai Nagaratnam
Suganthan, and Qingfu Zhang. Multiobjective evolutionary algorithms: A sur-
vey of the state of the art. Swarm and Evolutionary Computation, 1(1):32–49,
March 2011.
[77] Kaisa Miettinen. Graphical illustration of pareto optimal solutions. In Multi-
Objective Programming and Goal Programming, volume 21 of Advances in Soft
Computing, pages 197–202. Springer Berlin Heidelberg, 2003.
[78] Andy Pryke, Sanaz Mostaghim, and Alireza Nazemi. Heatmap Visualization
of Population Based Multi Objective Algorithms. In Shigeru Obayashi, Kal-
yanmoy Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko Murata, editors,
Evolutionary Multi-Criterion Optimization, 4th International Conference, EMO
2007, pages 361–375, Matshushima, Japan, March 2007. Springer. Lecture No-
tes in Computer Science Vol. 4403.
[79] David Walker, Jonathan Fieldsend, and Richard Everson. Visualising many-
objective populations. In Proceedings of the 14th Annual Conference Companion
on Genetic and Evolutionary Computation, GECCO ’12, pages 451–458, New
York, NY, USA, 2012. ACM.
CINVESTAV-IPN Departamento de Computaci´on
BIBLIOGRAF´IA 91
[80] Shigeru Obayashi and Daisuke Sasaki. Visualization and Data Mining of Pa-
reto Solutions Using Self-Organizing Map. In Carlos M. Fonseca, Peter J. Fle-
ming, Eckart Zitzler, Kalyanmoy Deb, and Lothar Thiele, editors, Evolutionary
Multi-Criterion Optimization. Second International Conference, EMO 2003, pa-
ges 796–809, Faro, Portugal, April 2003. Springer. Lecture Notes in Computer
Science. Volume 2632.
[81] Mario K¨oppen and Kaori Yoshida. Visualization of pareto-sets in evolutionary
multi-objective optimization. In Proceedings of the 7th International Conference
on Hybrid Intelligent Systems, HIS ’07, pages 156–161, Washington, DC, USA,
2007. IEEE Computer Society.
[82] Peter Fleming, Robin C. Purshouse, and Robert J. Lygoe. Many-Objective
Optimization: An Engineering Design Perspective. In Carlos A. Coello Coello,
Arturo Hern´andez Aguirre, and Eckart Zitzler, editors, Evolutionary Multi-
Criterion Optimization. Third International Conference, EMO 2005, pages 14–
32, Guanajuato, M´exico, March 2005. Springer. Lecture Notes in Computer
Science Vol. 3410.
[83] Nicole Drechsler, Rolf Drechsler, and Bernd Becker. Multi-objective Optimi-
sation Based on Relation favour. In Eckart Zitzler, Kalyanmoy Deb, Lothar
Thiele, Carlos A. Coello Coello, and David Corne, editors, First Internatio-
nal Conference on Evolutionary Multi-Criterion Optimization, pages 154–166.
Springer-Verlag. Lecture Notes in Computer Science No. 1993, 2001.
[84] Andr´e S¨ulflow, Nicole Drechsler, and Rolf Drechsler. Robust Multi-objective
Optimization in High Dimensional Spaces. In Shigeru Obayashi, Kalyanmoy
Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko Murata, editors, Evolutio-
nary Multi-Criterion Optimization, 4th International Conference, EMO 2007,
pages 715–726, Matshushima, Japan, March 2007. Springer. Lecture Notes in
Computer Science Vol. 4403.
[85] Francesco di Pierro, Shoon-Thiam Khu, and Dragan A. Savi´c. An Investi-
gation on Preference Order Ranking Scheme for Multiobjective Evolutionary
Optimization. IEEE Transactions on Evolutionary Computation, 11(1):17–45,
February 2007.
[86] Kalyanmoy Deb and Dhish Kumar Saxena. Searching for Pareto-optimal so-
lutions through dimensionality reduction for certain large-dimensional multi-
objective optimization problems. In 2006 IEEE Congress on Evolutionary
Computation (CEC’2006), pages 3353–3360, Vancouver, BC, Canada, July
2006. IEEE.
[87] Dimo Brockhoff and Eckart Zitzler. Objective Reduction in Evolutionary Mul-
tiobjective Optimization: Theory and Applications. Evolutionary Computation,
17(2):135–166, Summer 2009.
CINVESTAV-IPN Departamento de Computaci´on
92 BIBLIOGRAF´IA
[88] Antonio L´opez Jaimes, Carlos A. Coello Coello, Hern´an Aguirre, and Kiyoshi
Tanaka. Objective space partitioning using conflict information for solving
many-objective problems. Information Sciences, 268:305 – 327, 2014.
[89] Kalyanmoy Deb, J. Sundar, Udaya Bhaskara Rao N., and Shamik Chaudhuri.
Reference Point Based Multi-Objective Optimization Using Evolutionary Algo-
rithms. International Journal of Computational Intelligence Research, 2(3):273–
286, 2006.
[90] Lothar Thiele, Kaisa Miettinen andPekka J. Korhonen, and Julian Molina.
A Preference-Based Evolutionary Algorithm for Multi-Objective Optimization.
Evolutionary Computation, 17(3):411–436, Fall 2009.
[91] Eckart Zitzler and Simon K¨unzli. Indicator-based Selection in Multiobjective
Search. In Xin Yao et al., editor, Parallel Problem Solving from Nature - PPSN
VIII, pages 832–842, Birmingham, UK, September 2004. Springer-Verlag. Lec-
ture Notes in Computer Science Vol. 3242.
[92] Hiroyuki Sato, Hern´an E. Aguirre, and Kiyoshi Tanaka. Controlling Dominance
Area of Solutions and Its Impact on the Performance of MOEAs. In Shigeru
Obayashi, Kalyanmoy Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko
Murata, editors, Evolutionary Multi-Criterion Optimization, 4th International
Conference, EMO 2007, pages 5–20, Matshushima, Japan, March 2007. Sprin-
ger. Lecture Notes in Computer Science Vol. 4403.
[93] Antonio L´opez Jaimes and Carlos A. Coello Coello. Study of Preference Re-
lations in Many-Objective Optimization. In 2009 Genetic and Evolutionary
Computation Conference (GECCO’2009), pages 611–618, Montreal, Canada,
July 8–12 2009. ACM Press. ISBN 978-1-60558-325-9.
[94] Andre B. de Carvalho and Aurora Pozo. Measuring the Convergence and Di-
versity of CDAS Multi-Objective Particle Swarm Optimization Algorithms: A
Study of Many-objective Problems. Neurocomputing, 75(1):43–51, Jan 2012.
[95] M. Farina and P. Amato. A fuzzy definition of “optimality” for many-criteria
optimization problems. IEEE Transactions on Systems, Man, and Cybernetics
Part A—Systems and Humans, 34(3):315–326, May 2004.
[96] David Corne and Joshua Knowles. Techniques for Highly Multiobjective Op-
timisation: Some Nondominated Points are Better than Others. In Dirk Thie-
rens, editor, 2007 Genetic and Evolutionary Computation Conference (GEC-
CO’2007), volume 1, pages 773–780, London, UK, July 2007. ACM Press.
[97] P. J. Bentley and J. P. Wakefield. Finding Acceptable Solutions in the Pareto-
Optimal Range using Multiobjective Genetic Algorithms. In P. K. Chawdhry,
R. Roy, and R. K. Pant, editors, Soft Computing in Engineering Design and
CINVESTAV-IPN Departamento de Computaci´on
BIBLIOGRAF´IA 93
Manufacturing, Part 5, pages 231–240, London, June 1997. Springer Verlag
London Limited.
[98] Hern´an Aguirre and Kiyoshi Tanaka. Many-Objective Optimization by Space
Partitioning and Adaptive -Ranking on MNK-Landscapes. In Matthias Ehr-
gott, Carlos M. Fonseca, Xavier Gandibleux, Jin-Kao Hao, and Marc Sevaux,
editors, Evolutionary Multi-Criterion Optimization. 5th International Confe-
rence, EMO 2009, pages 407–422. Springer. Lecture Notes in Computer Science
Vol. 5467, Nantes, France, April 2009.
[99] Robin C. Purshouse and Peter J. Fleming. An Adaptive Divide-and-Conquer
Methodology for Evolutionary Multi-criterion Optimisation. In Carlos M. Fon-
seca, Peter J. Fleming, Eckart Zitzler, Kalyanmoy Deb, and Lothar Thiele, edi-
tors, Evolutionary Multi-Criterion Optimization. Second International Confe-
rence, EMO 2003, pages 133–147, Faro, Portugal, April 2003. Springer. Lecture
Notes in Computer Science. Volume 2632.
[100] Kalyanmoy Deb, Manikanth Mohan, and Shikhar Mishra. A Fast Multi-
Objective Evolutionary Algorithm for Finding Well–Spread Pareto–Optimal
Solutions. KanGAL report 2003002, Indian Institute of Technology, Kanpur,
India, 2003.
[101] Antonio L´opez Jaimes, Carlos A. Coello Coello, and Debrup Chakraborty. Ob-
jective Reduction Using a Feature Selection Technique. In 2008 Genetic and
Evolutionary Computation Conference (GECCO’2008), pages 674–680, Atlan-
ta, USA, July 2008. ACM Press. ISBN 978-1-60558-131-6.
[102] Carlos M. Fonseca and Peter J. Fleming. Multiobjective Optimization and
Multiple Constraint Handling with Evolutionary Algorithms—Part I: A Unified
Formulation. IEEE Transactions on Systems, Man, and Cybernetics, Part A:
Systems and Humans, 28(1):26–37, 1998.
[103] Kalyanmoy Deb. Solving Goal Programming Problems Using Multi-Objective
Genetic Algorithms. In 1999 Congress on Evolutionary Computation, pages
77–84, Washington, D.C., July 1999. IEEE Service Center.
[104] J¨urgen Branke, Thomas Kaußler, and Hartmut Schmeck. Guiding Multi Objec-
tive Evolutionary Algorithms Towards Interesting Regions. Technical Report
398, Institute f¨ur Angewandte Informatik und Formale Beschreibungsverfahren,
Universit¨at Karlsruhe, Karlsruhe, Germany, February 2000.
[105] Kalyanmoy Deb and J. Sundar. Reference Point Based Multi-Objective Op-
timization Using Evolutionary Algorithms. In Maarten Keijzer et al., editor,
2006 Genetic and Evolutionary Computation Conference (GECCO’2006), volu-
me 1, pages 635–642, Seattle, Washington, USA, July 2006. ACM Press. ISBN
1-59593-186-4.
CINVESTAV-IPN Departamento de Computaci´on
94 BIBLIOGRAF´IA
[106] Antonio L´opez Jaimes and Carlos A. Coello Coello. Including preferences into a
multiobjective evolutionary algorithm to deal with many-objective engineering
optimization problems. Information Sciences, 277:1 – 20, 2014.
[107] Juli´an Molina, Luis V. Santana, Alfredo G. Hern´andez-D´ıaz, Carlos A. Coello
Coello, and Rafael Caballero. g-dominance: Reference point based dominance
for MultiObjective Metaheuristics. European Journal of Operational Research,
197(2):685–692, September 2009.
[108] Karthik Sindhya, Ana Belen Ruiz, and Kaisa Miettinen. A Preference Based
Interactive Evolutionary Algorithm for Multi-objective Optimization: PIE. In
Ricardo H.C. Takahashi, Kalyanmoy Deb, Elizabeth F. Wanner, and Salvatore
Grecco, editors, Evolutionary Multi-Criterion Optimization, 6th International
Conference, EMO 2011, pages 212–225, Ouro Preto, Brazil, April 2011. Sprin-
ger. Lecture Notes in Computer Science Vol. 6576.
[109] Maoguo Gong, Fang Liu, Wei Zhang, Licheng Jiao, and Qingfu Zhang. Inter-
active MOEA/D for Multi-Objective DEcision Making. In 2011 Genetic and
Evolutionary Computation Conference (GECCO’2011), pages 721–728, Dublin,
Ireland, July 12-16 2011. ACM Press.
[110] H. Jain and K. Deb. An Evolutionary Many-Objective Optimization Algo-
rithm Using Reference-Point Based Nondominated Sorting Approach, Part II:
Handling Constraints and Extending to an Adaptive Approach. Evolutionary
Computation, IEEE Transactions on, 18(4):602–622, Aug 2014.
[111] Eckart Zitzler and Lothar Thiele. Multiobjective Optimization Using Evolu-
tionary Algorithms—A Comparative Study. In A. E. Eiben, editor, Parallel
Problem Solving from Nature V, pages 292–301, Amsterdam, September 1998.
Springer-Verlag.
[112] Joshua Knowles and David Corne. Properties of an Adaptive Archiving Algo-
rithm for Storing Nondominated Vectors. IEEE Transactions on Evolutionary
Computation, 7(2):100–116, April 2003.
[113] Tobias Wagner, Nicola Beume, and Boris Naujoks. Pareto-, Aggregation-, and
Indicator-Based Methods in Many-Objective Optimization. In Shigeru Obayas-
hi, Kalyanmoy Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko Murata,
editors, Evolutionary Multi-Criterion Optimization, 4th International Confe-
rence, EMO 2007, pages 742–756, Matshushima, Japan, March 2007. Springer.
Lecture Notes in Computer Science Vol. 4403.
[114] Hiroyuki Sato, Hern´an E. Aguirre, and Kiyoshi Tanaka. Pareto partial dominan-
ce MOEA and hybrid archiving strategy included CDAS in many-objective op-
timization. In 2010 IEEE Congress on Evolutionary Computation (CEC’2010),
pages 3720–3727, Barcelona, Spain, July 18–23 2010. IEEE Press.
CINVESTAV-IPN Departamento de Computaci´on
BIBLIOGRAF´IA 95
[115] K. Gerstl, G. Rudolph, O. Schutze, and H. Trautmann. Finding evenly spaced
fronts for multiobjective control via averaging hausdorff-measure. In Electri-
cal Engineering Computing Science and Automatic Control (CCE), 2011 8th
International Conference on, pages 1–6, Oct 2011.
[116] G¨unter Rudolph, Heike Trautmann, Soumyadip Sengupta, and Oliver Sch¨utze.
Evenly spaced pareto front approximations for tricriteria problems based on
triangulation. In RobinC. Purshouse, PeterJ. Fleming, CarlosM. Fonseca, Sal-
vatore Greco, and Jane Shaw, editors, Evolutionary Multi-Criterion Optimiza-
tion, volume 7811 of Lecture Notes in Computer Science, pages 443–458. Sprin-
ger Berlin Heidelberg, 2013.
[117] Harold W Kuhn. The Hungarian Method for the Assignment Problem. Naval
Research Logistics Quarterly, 2(1–2):83–97, March 1955.
[118] James Munkres. Algorithms for the Assignment and Transportation Problems.
Journal of the Society for Industrial and Applied Mathematics, 5(1):32–38,
March 1957.
[119] Fran¸cois Bourgeois and Jean-Claude Lassalle. An Extension of the Munkres
Algorithm for the Assignment Problem to Rectangular Matrices. Commun.
ACM, 14(12):802–804, December 1971.
[120] K T Fang and Y Wang. Number-Theoretic Methods in Statistics. Chapman &
Hall/CRC Monographs on Statistics & Applied Probability. Taylor & Francis,
1994.
[121] John A. Cornell. Experiments with Mixtures: Designs, Models, and the Analysis
of Mixture Data. Wiley Series in Probability and Statistics. John Wiley & Sons,
Inc., New York, third edition, 2002.
[122] Henry Scheff´e. Experiments with mixtures. Journal of the Royal Statistical
Society. Series B (Methodological), 20(2):344–360, 1958.
[123] N M Korobov. The approximate computation of multiple integrals. Doklady
Akademii Nauk SSSR, 124:1207–1210, 1959.
[124] Kai-Tai Fang and Ling-Yau Chan. Uniform design and its industrial applica-
tions. In Hoang Pham, editor, Springer Handbook of Engineering Statistics,
pages 229–247. Springer London, 2006.
[125] J M Hammersley. Monte-Carlo methods for solving multivariable problems.
Annals of the New York Academy of Sciences, 86(3):844–874, 1960.
[126] Y Wang and K T Fang. Number-Theoretic Method in Applied statistics (II).
Chinese Annals of Mathematics. Serie B, 11:859–914, 1990.
CINVESTAV-IPN Departamento de Computaci´on
96 BIBLIOGRAF´IA
[127] R. E. Steuer. Multiple Criteria Optimization: Theory, Computation and Appli-
cation. John Wiley, New York, 1986.
[128] Kalyanmoy Deb, Lothar Thiele, Marco Laumanns, and Eckart Zitzler. Sca-
lable Test Problems for Evolutionary Multiobjective Optimization. In Ajith
Abraham, Lakhmi Jain, and Robert Goldberg, editors, Evolutionary Multiob-
jective Optimization. Theoretical Advances and Applications, pages 105–145.
Springer, USA, 2005.
[129] Simon Huband, Phil Hingston, Luigi Barone, and Lyndon While. A Review
of Multiobjective Test Problems and a Scalable Test Problem Toolkit. IEEE
Transactions on Evolutionary Computation, 10(5):477–506, October 2006.
[130] Eckart Zitzler, Kalyanmoy Deb, and Lothar Thiele. Comparison of Multiobjec-
tive Evolutionary Algorithms: Empirical Results. Evolutionary Computation,
8(2):173–195, Summer 2000.
CINVESTAV-IPN Departamento de Computaci´on

Más contenido relacionado

PDF
Optimización multiobjetivo para distribución en planta
PPS
TESIS: "Resolución de Problema Militar de Búsqueda de Camino Óptimo Multiobje...
PDF
computacion evolutiva y computacion neuronal
DOCX
Int.art.equipo02
PPT
Ayrn aforo aticanov2010grupo
PDF
Apuntes Coello Coello 2009
Optimización multiobjetivo para distribución en planta
TESIS: "Resolución de Problema Militar de Búsqueda de Camino Óptimo Multiobje...
computacion evolutiva y computacion neuronal
Int.art.equipo02
Ayrn aforo aticanov2010grupo
Apuntes Coello Coello 2009

Similar a Thesis Evolutionary Many-Objective Optimization (20)

PDF
Computación evolutiva
PDF
Inteligencia Artificial Proyecto LATIn Ccesa007.pdf
DOCX
Optimización con redes neuronales, lógica difusa y algoritmos genéticos
PDF
Documentación doctorado
PPTX
Modelos de Algoritmo Genetico
PPT
Algoritmos Evolutivos
PDF
CC_019_art_4.pdf
PPT
Funcion objetivo
PDF
385321913-Apuntes-Optimizacio-n-Ferrer-Munoz-pdf.pdf
PDF
PDF
Tutorial algoritmosgeneticos
PDF
Tutorial algoritmosgeneticos
PPT
Algoritmos evolutivos ii
PPTX
Resumenes: Investigación de Operaciones e Historia-Métodos Cuantitativos
PDF
Algoritmos genéticos
DOCX
Organizadores i.o
PDF
Algoritmo NVMO para problemas multimodales
PPT
Presentacion
PPTX
Int.art.equipo02 (1)
PPT
Unidad 1 IO.ppt
Computación evolutiva
Inteligencia Artificial Proyecto LATIn Ccesa007.pdf
Optimización con redes neuronales, lógica difusa y algoritmos genéticos
Documentación doctorado
Modelos de Algoritmo Genetico
Algoritmos Evolutivos
CC_019_art_4.pdf
Funcion objetivo
385321913-Apuntes-Optimizacio-n-Ferrer-Munoz-pdf.pdf
Tutorial algoritmosgeneticos
Tutorial algoritmosgeneticos
Algoritmos evolutivos ii
Resumenes: Investigación de Operaciones e Historia-Métodos Cuantitativos
Algoritmos genéticos
Organizadores i.o
Algoritmo NVMO para problemas multimodales
Presentacion
Int.art.equipo02 (1)
Unidad 1 IO.ppt
Publicidad

Thesis Evolutionary Many-Objective Optimization

  • 1. Centro de Investigaci´on y de Estudios Avanzados del Instituto Polit´ecnico Nacional Unidad Zacatenco Departamento de Computaci´on Optimizaci´on Evolutiva Multiobjetivo basada en el Algoritmo de Kuhn-Munkres Tesis que presenta Jos´e Antonio Molinet Berenguer para obtener el Grado de Maestro en Ciencias en Computaci´on Director de la Tesis Dr. Carlos Artemio Coello Coello M´exico, Distrito Federal Octubre, 2014
  • 2. ii
  • 3. Resumen Un gran n´umero de problemas presentes en diversas ´areas del conocimiento re- quieren la optimizaci´on simult´anea de varios objetivos en conflicto. Estos problemas, denominados Problemas de Optimizaci´on Multiobjetivo (POMs), no poseen una solu- ci´on ´unica, sino un conjunto de soluciones que representan los distintos compromisos entre los objetivos. Los Algoritmos Evolutivos Multiobjetivo (AEMOs) se han conver- tido en una de las t´ecnicas m´as utilizadas para lidiar con POMs, pues han mostrado gran efectividad al solucionar problemas con dos y tres objetivos. Sin embargo, a me- dida que aumenta el n´umero de objetivos en conflicto, el desempe˜no de la mayor´ıa de los AEMOs se deteriora dr´asticamente. Esto ha provocado un creciente inter´es en el desarrollo de AEMOs que puedan solucionar POMs con m´as de tres objetivos, debido a la frecuencia con que surge este tipo de problemas en la ciencia y la ingenier´ıa. En esta tesis se propone un nuevo algoritmo evolutivo multiobjetivo para resolver problemas con m´as de tres objetivos. Nuestra propuesta transforma el proceso de selecci´on de un AEMO en un problema de asignaci´on lineal utilizando un conjunto de vectores de pesos uniformemente distribuidos y una funci´on de costo. El problema de asignaci´on obtenido se soluciona mediante el algoritmo de Kuhn-Munkres (cono- cido tambi´en como m´etodo h´ungaro). Para construir el conjunto de vectores de pesos proponemos un algoritmo basado en el dise˜no uniforme que evita las deficiencias del m´etodo simplex-lattice, el cual es com´unmente utilizado en los AEMOs basados en descomposici´on. En nuestra propuesta se generan las soluciones utilizando los opera- dores de recombinaci´on de la evoluci´on diferencial, debido a lo cual denominamos al AEMO propuesto evoluci´on diferencial h´ungara (EDH). EDH se compar´o con respecto a tres de los AEMOs con mejor desempe˜no registra- do en la literatura especializada, dos de ellos basados en descomposici´on (MOEA/D y MOEA/D-DE) y uno basado en el hipervolumen (SMS-EMOA). Los resultados obte- nidos en 16 problemas de prueba con 144 instancias de entre 2 y 10 objetivos, indican que nuestra propuesta supera a MOEA/D y MOEA/D-DE tanto en convergencia como en diversidad de las soluciones. Adem´as, EDH obtiene resultados competitivos con respecto a SMS-EMOA y en varias instancias supera a ´este en cuanto a diver- sidad de las soluciones. Asimismo, el costo computacional de EDH no depende del n´umero de funciones objetivo, mientras que el tiempo de ejecuci´on de SMS-EMOA crece exponencialmente con el n´umero de objetivos. iii
  • 4. iv
  • 5. Abstract A large number of problems in a wide variety of domains involve simultaneous optimization of several conflicting objectives. These problems, called Multi-objective Optimization Problems (MOPs), do not have a single optimal solution, but rather a set of solution that represent the best trade-offs among all the objectives. Among the different techniques available to solve MOPs, Multi-objective Evolutionary Al- gorithms (MOEAs) have become very popular, mainly because of their effectiveness in problems with two and three objectives. However, as the number of conflicting objectives increases, the performance of most MOEAs severely deteriorates. This has motivated a growing interest for developing MOEAs for handling four or more objec- tives, due to the frequency with such problems arise in science and engineering. In this work, we propose a new multi-objective evolutionary algorithm to solve optimization problems having four or more objectives. Our proposal transforms the selection process of a MOEA into a linear assignment problem using a set of weight vectors uniformly scattered and a cost function. The Kuhn-Munkres or Hungarian algorithm is used to solve the resulting assignment problem. We propose an algorithm based on uniform design to obtain the set of weights and avoid the shortcomings of the simplex-lattice design method, which is the approach most commonly adopted in decomposition-based MOEAs. Differential evolution is used as our search engine giving rise to the so-called hungarian differential evolution (HDE) algorithm. Our proposed approach is compared with respect to three well-known MOEAs, two of them based on decomposition (MOEA/D and MOEA/D-DE) and one based on hypervolume (SMS-EMOA). The results obtained in 16 test problems with 144 instances having 2 to 10 objectives, indicate that HDE outperforms MOEA/D and MOEA/D-DE both in terms of convergence and diversity of the solutions obtained. Furthermore, our approach obtains competitive results with respect to SMS-EMOA and, in several instances, outperforms it in terms of the diversity of solutions. Addi- tionally, the computational cost of EDH does not depend on the number of objective functions, whereas SMS-EMOA has an execution time which grows exponentially on the number of objectives. v
  • 6. vi
  • 7. Dedicatoria A mis padres y a mi hermano, por ser el faro que descifra mi destino A mi novia Carolina, eterna brisa encantadora que logra lo mejor de m´ı A Luis Manuel, esta tambi´en es tu tesis de maestr´ıa, seguiremos A la Dra. Aurora Pons Porrata, ejemplo de mujer investigadora y proa de muchas generaciones. vii
  • 9. Agradecimientos Esta tesis y el programa de maestr´ıa que con ella culmino han sido realizados con el apoyo de una gran familia, que re´une personas excepcionales de Cuba y de M´exico. A mis padres y a mi hermano agradezco enormemente la confianza y el apoyo que me han brindado durante estos dos a˜nos. A pesar de la gran distancia que nos separa, sus palabras y ejemplo iluminaron mis decisiones. Ha sido muy dif´ıcil estar tanto tiempo alejado de seres tan especiales en mi vida, espero que el resultado est´e a la altura de la nostalgia que han sentido mis padres. A mi novia Carolina, su hermana y sus padres les estar´e eternamente agradecido por considerarme parte de su familia, por dejarme conocer un maravilloso hogar mexicano, por cuidarme como un hijo y protegerme en todo momento. El cari˜no que me han brindado me uni´o mucho m´as con M´exico, su cultura y su gente. Este trabajo de tesis se deriv´o del proyecto CONACyT titulado Nuevos Para- digmas Algor´ıtmicos en Optimizaci´on Evolutiva Multi-Objetivo (Ref. 221551), cuyo responsable es el Dr. Carlos A. Coello Coello y a quien deseo agradecer la oportunidad de trabajar bajo su supervisi´on. Su gu´ıa, sus comentarios y su apoyo en los momentos m´as dif´ıciles reflejan su grandeza como investigador y como ser humano. Agradezco la beca terminal de maestr´ıa de un mes otorgada por el Dr. Oliver Sch¨utze, quien adem´as de ser un excelente profesor e investigador, es un ejemplo de valent´ıa y empe˜no. Mis agradecimientos a los sinodales Dr. Luis Gerardo de la Fraga y Dr. Gregorio Toscano Pulido por sus observaciones y oportunos comentarios. Quiero darle las gracias a un gran n´umero de amigos, todos atentos a mis progre- sos en los estudios y en la salud. A Erick y Day, por mantenerse a mi lado y al de mi familia. A Adanay y Yiny por compartir tantos desvelos en la maestr´ıa y tanta alegr´ıa de conocer a M´exico. A Napole´on por brindarme su conocimiento y su con- fianza. A la Sra. Franca por recibirme en su casa y hacerme sentir como en la m´ıa. A Vicente, Esthela, Edgar, Luis, Petlachi e Imanti por darme la bienvenida y conservar la curiosidad. A Mireya, Hugo, Tania, Hegel, Alejandro, M´onica y Ana, quienes junto a todos los dem´as amigos mencionados, permanecieron a mi lado durante mi cirug´ıa y posterior recuperaci´on. Gracias a todos por ser mi familia en M´exico, por su amistad incondicional y su sonrisa inmensa. Agradezco a CONACyT la beca de maestr´ıa que me otorg´o durante dos a˜nos para cursar estudios en el CINVESTAV-IPN. Ambas instituciones hacen realidad los sue˜nos de muchos j´ovenes mexicanos y extranjeros. El apoyo y consideraci´on del personal que trabaja en el departamento de computaci´on es fundamental para nuestro desempe˜no. Gracias Sofi por siempre ayudarnos a todos. Gracias a Felipa, a Erika y a Santiago. ix
  • 10. x
  • 11. ´Indice general ´Indice de figuras XII ´Indice de tablas XIII 1. Introducci´on 1 1.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2. Descripci´on del problema . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.3. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.4. Estructura del documento . . . . . . . . . . . . . . . . . . . . . . . . 4 2. Fundamentos Te´oricos 5 2.1. Optimizaci´on multiobjetivo . . . . . . . . . . . . . . . . . . . . . . . 5 2.1.1. Problemas de prueba . . . . . . . . . . . . . . . . . . . . . . . 7 2.1.2. Indicadores de desempe˜no . . . . . . . . . . . . . . . . . . . . 9 2.2. Computaci´on evolutiva . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2.1. Programaci´on evolutiva . . . . . . . . . . . . . . . . . . . . . . 13 2.2.2. Estrategias evolutivas . . . . . . . . . . . . . . . . . . . . . . . 13 2.2.3. Algoritmos gen´eticos . . . . . . . . . . . . . . . . . . . . . . . 14 2.2.4. Ventajas de los algoritmos evolutivos . . . . . . . . . . . . . . 15 2.3. Metaheur´ısticas Alternativas . . . . . . . . . . . . . . . . . . . . . . . 15 2.3.1. Evoluci´on diferencial . . . . . . . . . . . . . . . . . . . . . . . 17 3. Optimizaci´on Evolutiva de Muchos Objetivos 19 3.1. Dificultades en el manejo de muchos objetivos . . . . . . . . . . . . . 20 3.1.1. Deterioro de la capacidad de b´usqueda . . . . . . . . . . . . . 20 3.1.2. Representaci´on del frente de Pareto . . . . . . . . . . . . . . . 22 3.1.3. Visualizaci´on del frente de Pareto . . . . . . . . . . . . . . . . 22 3.2. Algoritmos Evolutivos para la optimizaci´on de muchos objetivos . . . 23 3.2.1. Relaciones de preferencia alternativas . . . . . . . . . . . . . . 24 3.2.2. Reducci´on de la dimensi´on del espacio objetivo . . . . . . . . 26 3.2.3. Basados en informaci´on de preferencia . . . . . . . . . . . . . 29 3.2.4. Basados en indicadores . . . . . . . . . . . . . . . . . . . . . . 32 3.2.5. Basados en descomposici´on . . . . . . . . . . . . . . . . . . . 36 xi
  • 12. xii ´INDICE GENERAL 4. Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn- Munkres 39 4.1. Evoluci´on diferencial h´ungara . . . . . . . . . . . . . . . . . . . . . . 39 4.2. Algoritmo de Kuhn-Munkres . . . . . . . . . . . . . . . . . . . . . . . 45 4.3. Generaci´on de vectores de pesos . . . . . . . . . . . . . . . . . . . . . 48 5. Estudio Experimental 55 5.1. Dise˜no experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.2. Estudio de los componentes del algoritmo propuesto . . . . . . . . . . 58 5.3. Comparaci´on de la propuesta con otros algoritmos . . . . . . . . . . . 66 6. Conclusiones 79 6.1. Trabajo futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Bibliograf´ıa 82
  • 13. ´Indice de figuras 2.1. Caracter´ısticas del conjunto de soluciones que aproximan a un frente de Pareto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 4.1. Deficiencia del algoritmo MOEA/D en su proceso de actualizaci´on de las soluciones vecinas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 4.2. Proceso de actualizaci´on de las soluciones de una vecindad en los al- goritmos basados en descomposici´on. . . . . . . . . . . . . . . . . . . 42 4.3. Soluci´on de un problema de asignaci´on lineal (PAL). . . . . . . . . . 46 4.4. Ejemplo de la ejecuci´on del algoritmo de Kuhn-Munkres. . . . . . . . 48 4.5. Deficiencias del m´etodo simplex-lattice. . . . . . . . . . . . . . . . . . 50 4.6. Vectores de pesos obtenidos en los s´ımplex de 3 y 4 dimensiones por los m´etodos simplex-lattice, dise˜no uniforme y Monte Carlo. . . . . . 52 5.1. Soluciones obtenidas por las distintas variantes de EDH en el problema DTLZ2 con 6 objetivos. . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.2. Soluciones obtenidas por las distintas variantes de EDH en problemas con 3 objetivos de los conjuntos DTLZ y WFG. . . . . . . . . . . . . 61 5.3. Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas DTLZ1 a 4 con 3 objetivos. . . . . . . . . . . . . . . 68 5.4. Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas DTLZ5 a 7 con 3 objetivos. . . . . . . . . . . . . . . 70 5.5. Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas WFG1 a 5 con 3 objetivos. . . . . . . . . . . . . . . 74 5.6. Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas WFG6 a 9 con 3 objetivos. . . . . . . . . . . . . . . 75 5.7. Tiempo de ejecuci´on promedio considerando 30 corridas independientes de EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas DTLZ y WFG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 xiii
  • 14. xiv ´INDICE DE FIGURAS
  • 15. ´Indice de tablas 2.1. Propiedades de los problemas de prueba DTLZ y WFG. . . . . . . . . 8 4.1. Uniformidad de los conjuntos de vectores de pesos generados con el m´etodo simplex-lattice, dise˜no uniforme y Monte Carlo. . . . . . . . . 53 5.1. Puntos de referencia seleccionados para calcular el hipervolumen de las soluciones de cada problema con m objetivos. . . . . . . . . . . . . . 56 5.2. Valores asignados a los par´ametros de los AEMOs. . . . . . . . . . . 56 5.3. Tama˜no de la poblaci´on y n´umero m´aximo de generaciones utilizados en la ejecuci´on de cada algoritmo. . . . . . . . . . . . . . . . . . . . . 57 5.4. Hipervolumen obtenido por las variantes de EDH en los problemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.5. Distancia Generacional Invertida de las variantes de EDH en los pro- blemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . 60 5.6. Hipervolumen obtenido por las variantes de EDH en los problemas WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 5.7. Distancia Generacional Invertida de cada variante de EDH en los pro- blemas WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . 64 5.8. Hipervolumen obtenido por cada AEMO en los problemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones indepen- dientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.9. Distancia Generacional Invertida obtenida por cada AEMO en los pro- blemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . 69 5.10. Hipervolumen obtenido por cada AEMO en los problemas WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones indepen- dientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 5.11. Distancia Generacional Invertida obtenida por cada AEMO en los pro- blemas WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. . . . . . . . . . . . . . . . . . . . . . . . . 76 xv
  • 16. xvi ´INDICE DE TABLAS
  • 17. Cap´ıtulo 1 Introducci´on La optimizaci´on simult´anea de varios objetivos en conflicto es uno de los proble- mas m´as frecuentes en la ciencia y la ingenier´ıa [1], al cual se le conoce como Problema de Optimizaci´on Multiobjetivo (POM). A diferencia de los problemas donde se opti- miza un solo objetivo, los POMs no poseen una soluci´on ´unica, sino un conjunto de soluciones que representan los diferentes compromisos entre los objetivos. La noci´on de ´optimo m´as com´unmente empleada en este tipo de problemas es la optimalidad de Pareto, la cual considera como soluciones ´optimas a las no dominadas. Se dice que una soluci´on domina a otra si no es peor en ninguno de los objetivos y es mejor en al menos uno. El conjunto de soluciones no dominadas se conoce como conjunto de ´optimos de Pareto y su proyecci´on en el espacio de los objetivos se denomina frente de Pareto (FP). Los Algoritmos Evolutivos Multiobjetivo (AEMOs) se han convertido en una de las t´ecnicas m´as populares para solucionar POMs, debido fundamentalmente a su flexibilidad y f´acil uso [1, 2]. Los AEMOs simulan los principios b´asicos de la evo- luci´on natural planteados en el Neo-Darwinismo. Estos algoritmos aplican sobre una poblaci´on de individuos (soluciones) operadores de selecci´on, asignaci´on de aptitud, mutaci´on, reproducci´on y elitismo, con el fin de lograr la mejor aproximaci´on posible del frente de Pareto. Para determinar la calidad de una aproximaci´on del frente de Pareto se consideran dos criterios b´asicos [3]: el primero es la cercan´ıa entre las solu- ciones encontradas y el frente de Pareto verdadero; el segundo es la diversidad de las soluciones, que comprende tanto la uniformidad de su distribuci´on como su extensi´on por todo el frente de Pareto. Durante varios a˜nos, el mecanismo de selecci´on de los AEMOs estuvo mayormente basado en la dominancia de Pareto, pues permite diferenciar soluciones en problemas con dos o tres objetivos. Sin embargo, en a˜nos recientes, diversos estudios han com- probado que al incrementarse el n´umero de funciones objetivo a optimizar, resulta ineficaz el uso de la dominancia de Pareto para lograr convergencia y buena distri- buci´on de las soluciones [4, 5, 6]. Esto ocurre porque a medida que el n´umero de objetivos aumenta, la proporci´on de individuos no dominados en la poblaci´on cre- ce, lo cual deteriora la capacidad de la dominancia de Pareto para discriminar entre soluciones [7]. 1
  • 18. 2 Cap´ıtulo 1 1.1. Antecedentes El buen desempe˜no de los algoritmos evolutivos al solucionar problemas de opti- mizaci´on con dos y tres objetivos ha provocado un creciente inter´es en su aplicaci´on en problemas con cuatro o m´as objetivos. Para extender el uso de los AEMOs a este tipo de problema ha sido necesario el desarrollo de criterios de selecci´on distintos a la dominancia de Pareto, que puedan ser capaces de diferenciar soluciones con un gran n´umero de objetivos [6, 8]. Dentro de estas nuevas propuestas, los m´etodos de escalarizaci´on se han hecho populares debido al surgimiento del algoritmo evolutivo multiobjetivo basado en des- composici´on (MOEA/D) [9]. Este algoritmo utiliza una funci´on de escalarizaci´on para transformar un POM en varios subproblemas de un solo objetivo, los cuales se op- timizan simult´aneamente mediante la evoluci´on de una poblaci´on de soluciones. El buen desempe˜no de MOEA/D ha generado cada vez m´as atenci´on y se han propues- to varios AEMOs inspirados en su funcionamiento [10]. Algunas de las propuestas se han enfocado en mejorar la uniformidad de los vectores de pesos utilizados por MOEA/D [11, 12, 13, 14]. Otras emplean funciones de escalarizaci´on alternativas para construir los subproblemas [14, 15]. Recientemente, se ha empleado la descom- posici´on en un esquema basado en dominancia de Pareto para diferenciar soluciones no dominadas [16] y en un mecanismo de selecci´on basados en puntos de referencia para guiar la b´usqueda en regiones espec´ıficas del frente de Pareto [17]. Pero, sin duda, son los AEMOs basados en indicadores los que m´as han llamado la atenci´on de los investigadores del ´area [18, 19]. Estos algoritmos utilizan un indicador de calidad para asignar la aptitud de cada individuo en la poblaci´on, transformando as´ı el problema original en el de maximizar el valor del indicador. Entre los indicadores existentes, el hipervolumen ha sido el m´as empleado [19], debido principalmente a que es compatible con la dominancia de Pareto y a que se ha podido demostrar que su maximizaci´on es equivalente a encontrar el frente de Pareto ´optimo [20, 21]. La desventaja de emplear el hipervolumen radica en su alto costo computacional, el cual crece exponencialmente con el n´umero de objetivos [18, 22]. Algunas propuestas han tratado de reducir el costo computacional del c´alculo del hipervolumen [22, 23, 24]. Sin embargo, al aumentar el n´umero de objetivos, la calidad de las soluciones obtenidas con este tipo de m´etodos se ve afectada en gran medida. En los ´ultimos a˜nos, los indicadores de desempe˜no ∆p [25] y R2 [26] se han uti- lizado dentro de esquemas de selecci´on de AEMOs como alternativas al hipervolu- men [27, 28, 29, 30], debido principalmente a sus bajos costos computacionales. ∆p puede ser visto como la distancia Hausdorff promedio entre un conjunto de soluciones y el frente de Pareto. Este indicador est´a constituido por la modificaci´on de otros dos indicadores de desempe˜no: la distancia generacional y la distancia generacional invertida. Por su parte, el indicador R2 fue propuesto inicialmente para comparar aproximaciones del frente de Pareto con base en un conjunto de funciones de uti- lidad [31]. Su caracter´ıstica m´as relevante es ser d´ebilmente mon´otono, adem´as de poseer cierta correlaci´on con el hipervolumen [31]. CINVESTAV-IPN Departamento de Computaci´on
  • 19. Introducci´on 3 1.2. Descripci´on del problema En la actualidad, existe un gran n´umero de problemas con varios objetivos en conflicto que deben ser optimizados. En muchos de ellos, son m´as de tres las funciones objetivo que deben optimizarse simult´aneamente. Sin embargo, la dominancia de Pareto ha demostrado ser insuficiente para diferenciar los individuos en espacios de soluci´on con alta dimensionalidad. Varios mecanismos de selecci´on han sido desarrollados para enfrentar esta dificul- tad. Se han propuesto formas relajadas de la dominancia de Pareto, reducir el n´umero de objetivos, enfocarse en ´areas espec´ıficas del espacio de los objetivos o utilizar fun- ciones de escalarizaci´on. Sin embargo, son los AEMOs basados en el hipervolumen los que han mostrado el mejor desempe˜no. No obstante, los algoritmos basados en el hipervolumen o bien poseen un costo computacional muy elevado, o la calidad de las soluciones que producen se degrada r´apidamente seg´un aumenta el n´umero de ob- jetivos. Otros indicadores poseen menor complejidad computacional, pero la calidad de sus soluciones no iguala la obtenida con el hipervolumen. Debido a esto, persiste la necesidad de buscar esquemas de selecci´on escalables con el n´umero de objetivos. Esto es, se requieren mecanismos de selecci´on tales que al aumentar el n´umero de objetivos, tengan un costo computacional bajo y sean capaces de obtener una buena aproximaci´on del frente de Pareto. 1.3. Objetivos En este trabajo se pretende desarrollar un algoritmo evolutivo multiobjetivo capaz de solucionar problemas con m´as de tres objetivos. Nos enfocaremos principalmente en el mecanismo de selecci´on, pues se desea que este escale correctamente con el n´umero de objetivos. La idea principal radica en transformar el problema de seleccionar los individuos m´as aptos en un problema de asignaci´on lineal, el cual pueda ser resuelto mediante el algoritmo de Kuhn-Munkres. General Proponer un algoritmo evolutivo multiobjetivo basado en un nuevo esquema de selecci´on que mejore el desempe˜no de los algoritmos representativos del estado del arte en la optimizaci´on de muchas funciones objetivo. Particulares 1. Estudio de los algoritmos evolutivos para la optimizaci´on de muchos objetivos. 2. Adaptar el problema de la selecci´on de individuos en una poblaci´on para ser resuelto con el algoritmo de asignaci´on lineal de Kuhn-Munkres. CINVESTAV-IPN Departamento de Computaci´on
  • 20. 4 Cap´ıtulo 1 3. Implementar un m´etodo de dise˜no uniforme para generar conjuntos de vectores de pesos uniformemente espaciados. 4. Implementar un algoritmo evolutivo multiobjetivo con un esquema de selecci´on basado en el algoritmo de Kuhn-Munkres. 5. Comparar el algoritmo propuesto con otros representativos del estado del arte, utilizando diversos problemas de prueba. 1.4. Estructura del documento El presente documento consta de seis cap´ıtulos que describen el trabajo realizado y los resultados experimentales obtenidos. A continuaci´on, se describe de forma breve el contenido de los siguientes cap´ıtulos. En el Cap´ıtulo 2, se especifican formalmente los problemas de optimizaci´on mul- tiobjetivo sobre los que trabajaremos, se describen las caracter´ısticas principales de la computaci´on evolutiva, as´ı como los distintos paradigmas que la componen. Adem´as, se presentan otras metaheur´ısticas que han sido empleadas con ´exito en la optimiza- ci´on multiobjetivo. El Cap´ıtulo 3 contiene una revisi´on de las principales t´ecnicas inspiradas en los algoritmos evolutivos y otras metaheur´ısticas para solucionar problemas con m´as de tres funciones objetivo. Estas t´ecnicas se dividen en distintas categor´ıas seg´un las caracter´ısticas de su mecanismo de selecci´on. Nuestra propuesta se introduce en el Cap´ıtulo 4, donde se describen cada uno de los componentes de nuestro algoritmo, as´ı como los conceptos fundamentales en los que se basa su funcionamiento. En el Cap´ıtulo 5 se explican los problemas utilizados para evaluar el desempe˜no de nuestra propuesta con respecto a otros algoritmos evolutivos del estado del arte y se presentan las medidas de desempe˜no utilizadas en la comparaci´on. Adem´as, se muestran los resultados experimentales obtenidos y se realiza un an´alisis de sensibi- lidad de nuestro algoritmo con respecto a cada una de sus componentes. Finalmente, en el Cap´ıtulo 6, se discuten los principales resultados obtenidos y su relevancia, as´ı como los trabajos futuros a desarrollar como consecuencia de la investigaci´on presente. CINVESTAV-IPN Departamento de Computaci´on
  • 21. Cap´ıtulo 2 Fundamentos Te´oricos En este cap´ıtulo se presentan los conceptos b´asicos necesarios para comprender el resto del documento. La secci´on 2.1 contiene una serie de definiciones matem´aticas relacionadas con la optimizaci´on multiobjetivo. En esta secci´on tambi´en se describen las principales caracter´ısticas de los problemas de prueba utilizados para evaluar los algoritmos de optimizaci´on multiobjetivo. Adem´as, se explican las propiedades deseables en el conjunto de soluciones de un problema de optimizaci´on multiobjetivo y se especifican algunos de los indicadores m´as utilizados para medir estas propiedades. En la secci´on 2.2 se realiza una breve descripci´on de las caracter´ısticas fundamentales de la computaci´on evolutiva y sus paradigmas m´as representativos. Finalmente, en la secci´on 2.3 se comentan diversas metaheur´ısticas recientes que han sido aplicadas en la optimizaci´on multiobjetivo. 2.1. Optimizaci´on multiobjetivo Un problema de optimizaci´on consiste en seleccionar el mejor elemento de un con- junto con base en alg´un criterio, i.e., encontrar un vector de variables de decisi´on que satisfaga un conjunto de restricciones y maximice (o minimice) una o m´as funciones objetivo. Los problemas de optimizaci´on que poseen una ´unica funci´on objetivo se denominan problemas de optimizaci´on mono-objetivo y aquellos con dos o m´as fun- ciones objetivo se conocen como problemas de optimizaci´on multiobjetivo (POMs). En la mayor´ıa de las ocasiones, las funciones objetivo de un POM se expresan en unidades diferentes y se encuentran en conflicto entre s´ı. A continuaci´on se presenta una definici´on formal de los POMs. Definici´on 1 (Problema de optimizaci´on multiobjetivo) Sea Ω el espacio de definici´on de las variables de decisi´on, encontrar un vector x∗ = [x∗ 1, x∗ 2, . . . , x∗ n]T ∈ Ω que satisfaga las m restricciones de desigualdad gi (x) ≤ 0, i = 1, 2, . . . , m, las p res- tricciones de igualdad hj (x) = 0, j = 1, 2, . . . , p y maximice (o minimice) el vector de funciones objetivo f(x) = [f1(x), f2(x), . . . , fk(x)]T , donde x = [x1, x2, . . . , xn]T ∈ Ω. 5
  • 22. 6 Cap´ıtulo 2 Definici´on 2 (Regi´on factible) Es el conjunto F de todos los vectores de variables de decisi´on x = [x1, x2, . . . , xn]T ∈ Ω que satisfacen las m restricciones de desigualdad gi (x) ≤ 0, i = 1, 2, . . . , m y las p restricciones de igualdad hj (x) = 0, j = 1, 2, . . . , p. En los problemas de optimizaci´on mono-objetivo el espacio de definici´on de la funci´on objetivo posee un orden total, permitiendo la comparaci´on de todo par de valores. Debido a lo anterior, este tipo de problemas tiene generalmente una ´unica soluci´on. Sin embargo, en los POMs los objetivos pueden estar en conflicto, haciendo incomparables a las soluciones. En este caso, la noci´on de ´optimo m´as aceptada es la propuesta originalmente por Francis Ysidro Edgeworth en 1881 y generalizada posteriormente por Vilfredo Pareto en 1896, m´as conocida por el nombre de ´optimo de Pareto. Seg´un este criterio, la soluci´on de un POM no es ´unica, sino un conjunto de soluciones que representa los mejores compromisos posibles entre las funciones objetivo. Este conjunto de soluciones se denomina conjunto de ´optimos de Pareto y su imagen en el espacio de los objetivos se nombra frente de Pareto. A continuaci´on, se presentar´an varias definiciones relacionadas con el concepto de ´optimo de Pareto, en las cuales se asume (sin perder generalidad) solo problemas de minimizaci´on y que el vector de funciones objetivo es f : Rn → Rk . Definici´on 3 (Dominancia de Pareto) Dados dos vectores x, y ∈ Rk , se dice que x domina a y (denotado por x y) si y solo si xi ≤ yi, i = 1, ..., k y x = y. Definici´on 4 (Vector no dominado) Se dice que un vector de variables de deci- si´on x ∈ X ⊂ Rn es no dominado con respecto a X, si no existe otro x ∈ X tal que f(x ) f(x). Definici´on 5 (´Optimo de Pareto) Un vector de variables de decisi´on x∗ ∈ F ⊂ Rn (F es la regi´on factible) se dice que es un ´optimo de Pareto, si es no dominado con respecto a F. Definici´on 6 (Conjunto de ´optimos de Pareto) Sea F la regi´on factible de un problema de optimizaci´on multiobjetivo, el conjunto de ´optimos de Pareto P∗ se define como: P∗ = {x ∈ F | x es un ´optimo de Pareto} Definici´on 7 (Frente de Pareto) Sea P∗ el conjunto de ´optimos de Pareto de un problema de optimizaci´on multiobjetivo, el frente de Pareto PF∗ se define como: PF∗ = {f(x) ∈ Rk | x ∈ P∗ } De acuerdo con las condiciones de Karush-Kuhn-Tucker [32, 33], en los problemas de optimizaci´on continuos con k objetivos, el frente de Pareto es una variedad continua a trozos de dimensi´on k − 1. Por ejemplo, en el caso m´as simple de dos objetivos, el frente de Pareto ser´a una curva (o un conjunto de segmentos de curva). En general, no es f´acil encontrar una expresi´on anal´ıtica de la curva, superficie o variedad de mayor CINVESTAV-IPN Departamento de Computaci´on
  • 23. Fundamentos Te´oricos 7 dimensi´on que corresponda al frente de Pareto de un POM y, de hecho, en la mayor´ıa de los casos resulta imposible. El procedimiento usual para generar el frente de Pareto es encontrar un gran n´umero de soluciones no dominadas y evaluarlas en las funciones objetivo [1]. El frente de Pareto as´ı obtenido estar´a conformado por un n´umero finito de soluciones computacionalmente representables y a las que denominaremos en esta tesis como frente de Pareto aproximado. 2.1.1. Problemas de prueba En la literatura especializada se han propuesto varios problemas que permiten evaluar el desempe˜no de los algoritmos de optimizaci´on multiobjetivo. Entre los m´as representativos y de mayor uso se encuentran los conjuntos de prueba Deb-Thiele- Laumanns-Zitzler (DTLZ) [128] y Walking-Fish-Group (WFG) [129]. Estos conjun- tos contienen 16 problemas artificiales que son escalables con respecto al n´umero de variables de decisi´on y al n´umero de objetivos. Adem´as, a estos problemas se les co- noce el conjunto de soluciones ´optimas de Pareto y la geometr´ıa del frente de Pareto. Tanto los problemas DTLZ como los WFG permiten analizar la capacidad que tiene un algoritmo de converger hacia el frente de Pareto y mantener una buena diversi- dad de las soluciones, al mismo tiempo que enfrenta una serie de dificultades. Estas dificultades est´an relacionadas con las propiedades de cada problema, tales como la geometr´ıa del frente de Pareto, la presencia de varios ´optimos locales, la variaci´on de la distribuci´on de las soluciones en el espacio objetivo y la existencia de vectores de variables que corresponden a un mismo vector soluci´on. En la tabla 2.1 se presenta un resumen de estas caracter´ısticas para cada problema. Los problemas clasificados como separables se pueden optimizar considerando una sola variable a la vez, de manera independiente al resto de las variables. Los problemas DTLZ1 a 4 no son estrictamente separables, pues no se puede garantizar que al optimizarlos de esta manera se obtengan todas las soluciones ´optimas. En cuanto a los problemas que poseen varios ´optimos locales, ´estos representan un verdadero reto para los algoritmos de optimizaci´on. Por ejemplo, DTLZ1 tiene 11k − 1 frentes de Pareto locales (k es un par´ametro), en los cuales puede quedar atrapado un algoritmo de optimizaci´on antes de alcanzar el verdadero frente de Pareto. En el caso de DTLZ3 el n´umero de frentes de Pareto locales es 3k −1. Un caso especial dentro de los problemas con m´ultiples ´optimos locales son los problemas deceptivos. Estos problemas est´an compuestos por una o m´as funciones objetivo que tienen al menos dos ´optimos, el ´optimo verdadero y un ´optimo falso, siendo este ´ultimo el m´as f´acil de localizar en el espacio de b´usqueda. En la tabla 2.1 se puede observar la diversidad que presentan los conjuntos de prueba DTLZ y WFG en cuanto a la geometr´ıa del frente de Pareto. Algunos de estos frentes de Pareto se consideran mixtos porque tienen secciones de distintas geometr´ıas. En problemas como DTLZ7 y WFG2 el frente de Pareto no es una variedad continua, sino que est´a constituido por secciones desconectadas entre s´ı. En el caso de DTLZ7, el n´umero de regiones desconectadas es 2m−1 , donde m es el n´umero de objetivos. CINVESTAV-IPN Departamento de Computaci´on
  • 24. 8 Cap´ıtulo 2 Tabla 2.1: Propiedades de los problemas de prueba DTLZ y WFG. Problema Separable M´ultiples ´optimos locales Geometr´ıa del frente de Pareto Distribuci´on de las soluciones DTLZ1 si∗ si lineal uniforme DTLZ2 si∗ no c´oncavo uniforme DTLZ3 si∗ si c´oncavo uniforme DTLZ4 si∗ no c´oncavo polinomial DTLZ5 desconocido no degenerado, arco uniforme DTLZ6 desconocido no degenerado, arco dependiente de par´ametro DTLZ7 fm si f1:m−1 no, fm si desconectado, mixto uniforme WFG1 si no f1:m−1 convexo, fm mixto polinomial, regiones planas WFG2 no f1:m−1 no, fm si desconectado, convexo uniforme WFG3 no no degenerado, lineal uniforme WFG4 si si c´oncavo uniforme WFG5 si deceptivo c´oncavo uniforme WFG6 no no c´oncavo uniforme WFG7 si no c´oncavo dependiente de par´ametro WFG8 no no c´oncavo dependiente de par´ametro WFG9 no si, deceptivo c´oncavo dependiente de par´ametro En DTLZ5, DTLZ6 y WFG3, el frente de Pareto es degenerado, debido a que su dimensi´on es inferior a m − 1 en un espacio objetivo de dimensi´on m. Una de las propiedades que influye directamente en el proceso de b´usqueda de un algoritmo de optimizaci´on multiobjetivo es la distribuci´on de las soluciones en el espacio objetivo. Este impacto es m´as negativo mientras mayor sea el grado de variaci´on de la densidad de las soluciones. En varios de los problemas de la tabla 2.1, las soluciones uniformemente dispersas en el espacio de las variables no se distribuyen de manera uniforme en el espacio objetivo. Un caso especial se presenta en problemas CINVESTAV-IPN Departamento de Computaci´on
  • 25. Fundamentos Te´oricos 9 que poseen un conjunto de vectores de variables a los cuales les corresponde la misma soluci´on en el espacio objetivo; esto se conoce como regi´on plana. En los problemas DTLZ la relaci´on entre el n´umero de variables (n) y el n´umero de objetivos (m) est´a dada por la expresi´on n = m + k − 1, donde k es un par´ametro definido por el usuario y determina el grado de dificultad del problema. El dominio de las variables en estos problemas est´a acotado entre 0 y 1 (xi ∈ [0, 1], ∀i ∈ {1 . . . n}). El valor de los objetivos en las soluciones del frente de Pareto se encuentra en [0, 0.5] para DTLZ1 y en [0, 1] para DTLZ2 a 7. Dado que el valor de todos los objetivos se encuentra en un mismo rango, estos problemas se consideran normalizados. Por el contrario, los problemas WFG tienen un rango distinto para el valor de cada objetivo (fj(x) ∈ [0, 2j], ∀j ∈ {1, . . . , m}) y para el dominio de cada variable (xi ∈ [0, 2i], ∀i ∈ {1 . . . n}). Adem´as, el n´umero de variables lo determinan los par´ametros k y l (n = k + l), que representan el grado de dificultad del problema en cuanto a convergencia y distribuci´on de las soluciones, respectivamente. 2.1.2. Indicadores de desempe˜no Cuando se utiliza un algoritmo evolutivo multiobjetivo (AEMO) para solucionar un problema de optimizaci´on multiobjetivo se obtiene un conjunto de vectores no dominados entre s´ı, los cuales se espera que aproximen lo mejor posible el frente de Pareto. Generalmente, para evaluar la calidad de esta aproximaci´on se consideran tres aspectos [3, 130]: 1. Convergencia de las soluciones, de tal forma que la distancia entre el conjunto obtenido y el verdadero frente de Pareto sea m´ınima. 2. Buena distribuci´on de las soluciones en el espacio objetivo, es decir, una distri- buci´on de las soluciones lo m´as uniforme posible. 3. La extensi´on del conjunto de soluciones en el espacio objetivo debe cubrir la mayor regi´on posible. En la figura 2.1.2 (a) se presenta un conjunto de soluciones que cumplen con los criterios 1 y 3, pero no poseen una distribuci´on uniforme. El ejemplo mostrado en (b) posee buena extensi´on y distribuci´on, pero no una buena convergencia. En (c), los criterios 1 y 2 se satisfacen, siendo la extensi´on la caracter´ıstica deficiente de este conjunto. La aproximaci´on deseada del frente de Pareto es la mostrada en (d), pues satisface los tres criterios simult´aneamente. Para referirse tanto a la extensi´on como a la buena distribuci´on de un conjunto de soluciones es com´un utilizar el t´ermino diversidad. De esta manera, las caracter´ısticas deseadas en una aproximaci´on del frente de Pareto se reducen a dos: la convergencia y la diversidad de las soluciones. A continuaci´on, se describen dos indicadores de desempe˜no utilizados frecuen- temente para evaluar la calidad de las soluciones obtenidas con los AEMOs y que cuentan con una amplia aceptaci´on en la literatura especializada [3, 19, 25]. Es- tos indicadores son el Hipervolumen (IHV ) y la Distancia Generacional Invertida CINVESTAV-IPN Departamento de Computaci´on
  • 26. 10 Cap´ıtulo 2 f2 f1 (a) f2 f1 (b) f2 f1 (c) f2 f1 (d) Figura 2.1: Caracter´ısticas del conjunto de soluciones que aproximan a un frente de Pareto. En (a) las soluciones no poseen una distribuci´on uniforme, en (b) las soluciones no convergen al frente de Pareto verdadero y en (c) las soluciones no se extienden por todo el frente. Las soluciones presentadas en (d) si poseen al mismo tiempo las tres propiedades deseables en una aproximaci´on del frente de Pareto: distribuci´on uniforme, convergencia y extensi´on. (IIGD). Cada una de estas medidas refleja en un ´unico valor la convergencia y la diversidad de un conjunto de soluciones no dominadas. El hipervolumen es el vo- lumen del espacio objetivo dominado por las soluciones que aproximan el frente de Pareto P = f(x∗ 1 ), . . . , f(x∗ N ) y acotado por un punto de referencia r, tal que ∀i ∈ [1, N], f(x∗ i ) r. Por tanto, se puede expresar matem´aticamente el hipervolu- men como IHV (P , r) = volumen N i=1 vi , (2.1) donde vi representa el hiper-rect´angulo que se forma entre el punto de referencia r y la soluci´on no dominada f(x∗ i ). Entre dos conjuntos que aproximen un frente de Pareto, se considera mejor aquel con mayor hipervolumen. Por su parte, el indicador IIGD es una distancia promedio entre las soluciones aproximadas P y el verdadero frente de Pareto, siendo mejor el conjunto de soluciones que posea el menor valor de IIGD. Sin embargo, para la mayor´ıa de los problemas de prueba no es pr´actico calcular el frente de Pareto en su totalidad. Debido a esto, el valor de IIGD se obtiene utilizando un conjunto ˜P representativo del verdadero frente de Pareto. Es importante resaltar que ˜P debe cumplir con los tres criterios mencionados al inicio de esta secci´on. La expresi´on matem´atica que define a IIGD es IIGD(P , ˜P) = ν∈ ˜P d(ν, P ) | ˜P | , (2.2) donde d(ν, P ) es la m´ınima distancia euclidiana entre ν ∈ ˜P y las soluciones en P . La precisi´on con que IIGD puede medir la uniformidad y la convergencia de las soluciones en P depende del conjunto ˜P. Por tanto, ˜P debe ser lo suficientemente grande para representar el verdadero frente de Pareto en toda su extensi´on y con distribuci´on uniforme. CINVESTAV-IPN Departamento de Computaci´on
  • 27. Fundamentos Te´oricos 11 2.2. Computaci´on evolutiva La Computaci´on Evolutiva es la rama de la Inteligencia Artificial que re´une las t´ecnicas inspiradas en los mecanismos de la evoluci´on y la selecci´on natural. A estas t´ecnicas se les conoce como Algoritmos Evolutivos (AEs) y simulan los procesos evo- lutivos enunciados en el Neo-Darwinismo. El t´ermino Neo-Darwinismo representa la uni´on de tres teor´ıas principales: la teor´ıa de la selecci´on natural de Charles Darwin, la gen´etica de Gregor Mendel y la teor´ıa del plasma germinal de August Weismann. La teor´ıa de la evoluci´on por selecci´on natural planteada por Darwin considera que toda poblaci´on se compone de individuos ligeramente distintos entre s´ı y, debido a estas peque˜nas variaciones, cada uno tiene distintas capacidades para adaptarse a su medio ambiente. Los individuos con mayor aptitud para adaptarse son selecciona- dos con mayor probabilidad para reproducirse y transmitir sus rasgos a la pr´oxima generaci´on. De esta forma, las caracter´ısticas necesarias para sobrevivir se vuelven m´as comunes, haciendo que la poblaci´on, en su conjunto, evolucione. La gen´etica de Mendel consiste en tres leyes que explican c´omo se heredan y expresan en los descendientes las caracter´ısticas de sus progenitores. La Ley de la Segregaci´on establece que durante la formaci´on de los gametos se separan los dos alelos que codifican cada caracter´ıstica y se combina un alelo materno con uno paterno para formar el par descendiente, asegurando la variaci´on. La Ley de la Independencia plantea que diferentes rasgos son heredados independientemente unos de otros y no existe relaci´on entre ellos. Por lo tanto, el patr´on de herencia de un rasgo no afectar´a al patr´on de herencia de otro. Por ´ultimo, la Ley de la Uniformidad manifiesta que al cruzar dos individuos con caracter´ısticas puras y distintas entre s´ı, los descendientes de la primera generaci´on ser´an todos iguales entre s´ı, e iguales a uno de los progenitores. La teor´ıa del plasma germinal de August Weismann expresa que los organismos pluricelulares est´an constituidos por c´elulas germinales, encargadas de transmitir la informaci´on hereditaria a la descendencia, y c´elulas som´aticas, responsables de las dem´as funciones en el organismo. Las c´elulas germinales producen c´elulas som´aticas, pero estas ´ultimas no pueden transmitir informaci´on a las c´elulas germinales, lo cual se conoce como la barrera de Weismann. Por tanto, las habilidades aprendidas por el individuo durante su vida no pueden ser heredadas a la siguiente generaci´on. Las tres teor´ıas anteriores forman las bases del Neo-Darwinismo, el cual establece a manera de s´ıntesis que la diversidad de la vida en el planeta se puede explicar mediante cuatro procesos estoc´asticos: Reproducci´on: es el proceso mediante el cual se producen nuevos individuos, asegurando la permanencia del material gen´etico de la especie en las futuras generaciones y el surgimiento de nuevas caracter´ısticas, debido a la combinaci´on de los individuos progenitores. Mutaci´on: se produce durante la reproducci´on, debido a un error en la copia del material gen´etico, alterando as´ı la informaci´on transmitida al individuo. Las nuevas caracter´ısticas surgidas por la mutaci´on pueden ser heredadas a CINVESTAV-IPN Departamento de Computaci´on
  • 28. 12 Cap´ıtulo 2 la descendencia y en algunas ocasiones, estas caracter´ısticas incrementan la aptitud del individuo para adaptarse a su medio ambiente. Competencia: es la rivalidad entre los individuos que comparten un h´abitat, debido a la limitada disponibilidad de los recursos necesarios para sobrevivir. Selecci´on: es el proceso que otorga mayor oportunidad de reproducirse a los individuos m´as aptos para sobrevivir, transmitiendo su informaci´on gen´etica a una mayor proporci´on de la poblaci´on. La idea de aplicar los procesos de la evoluci´on natural en la computaci´on tiene uno de sus primeros antecedentes en el trabajo de Alan M. Turing de 1950 [34]. Pero no es sino hasta finales de los 1950s cuando se publican una serie de estudios que sirven de inspiraci´on para el posterior desarrollo de lo que hoy se conoce como la Compu- taci´on Evolutiva. Entre ellos se destacan los del bi´ologo Alexander S. Fraser [35]. Una de las primeras aplicaciones en la soluci´on de un problema pr´actico fue el enfoque evolutivo propuesto por George E. P. Box [36] para la optimizaci´on de la producci´on industrial. Desde entonces, la optimizaci´on ha sido uno de los objetivos principales de los Algoritmos Evolutivos. La simulaci´on en una computadora de los procesos evolutivos planteados por el Neo-Darwinismo requiere de cuatro aspectos b´asicos: Codificar las estructuras que se replicar´an. Esto se logra utilizando estructuras de datos para representar las posibles soluciones del problema, tambi´en conoci- das como individuos. Operaciones que afecten a los individuos. Se deben crear operadores de variaci´on basados en los principios de la reproducci´on y la mutaci´on, los cuales puedan generar nuevos individuos. Una funci´on de aptitud. Esta funci´on se encarga de evaluar la calidad de la soluci´on y, a la vez, permite establecer la competencia entre individuos. Un mecanismo de selecci´on. Se basa en la funci´on de aptitud para decidir los individuos con m´as probabilidad de transmitir sus caracter´ısticas. En sus inicios, desde los a˜nos 1960s, los algoritmos inspirados en el Neo-Darwinismo se desarrollaron bajo tres paradigmas principales, que se originaron de manera in- dependiente y con motivaciones distintas. Estos son: Programaci´on Evolutiva, Es- trategias Evolutivas y Algoritmos Gen´eticos. Posteriormente, se agruparon bajo el nombre de Algoritmos Evolutivos y, en la actualidad, las algoritmos propuestos usan indistintamente caracter´ısticas de uno y otro paradigma. Los tres paradigmas poseen elementos comunes en su funcionamiento, los cuales se presentan en el Algoritmo 1. En las secciones siguientes se destacan las caracter´ısticas espec´ıficas de cada tipo de algoritmo evolutivo. CINVESTAV-IPN Departamento de Computaci´on
  • 29. Fundamentos Te´oricos 13 Algoritmo 1 Esquema general de un algoritmo evolutivo 1: Generar una poblaci´on inicial con soluciones candidatas aleatorias 2: Calcular la aptitud de cada soluci´on candidata 3: while no se satisfaga la condici´on de terminaci´on do 4: Seleccionar los individuos padres 5: Aplicar operadores de variaci´on a los padres y obtener los hijos 6: Calcular la aptitud de cada hijo 7: Determinar los individuos que pasan a la pr´oxima generaci´on 8: end while 2.2.1. Programaci´on evolutiva La Programaci´on Evolutiva (PE) fue propuesta por Lawrence J. Fogel en los a˜nos 1960s [37], quien entend´ıa la inteligencia como un comportamiento adaptativo. Seg´un Fogel, el comportamiento inteligente requiere de dos habilidades: 1) la habilidad de un organismo para hacer predicciones correctas dentro de su ambiente y 2) la capacidad de traducir estas predicciones en una respuesta adecuada para una meta dada. Los aut´omatas de estado finito fueron la representaci´on ideal para modelar este comportamiento. La PE enfatiza los nexos de comportamiento entre padres e hijos y se inspira en la evoluci´on al nivel de las especies, por lo que no utiliza un operador de recombinaci´on (diferentes especies no se pueden cruzar entre s´ı). El ´unico operador de variaci´on que incorpora es la mutaci´on. La selecci´on en la PE se realiza normalmente mediante un torneo estoc´astico, que consiste en comparar un n´umero de individuos entre s´ı y seleccionar, con determinada probabilidad, el de mayor aptitud. 2.2.2. Estrategias evolutivas Las Estrategias Evolutivas (EEs) tienen su origen en 1964, con los trabajos de los alemanes Peter Bienert, Ingo Rechenberg y Hans-Paul Schwefel [38]. Este modelo fue inicialmente concebido para resolver problemas hidrodin´amicos de alto grado de complejidad. La representaci´on de cada individuo fue un vector de valores reales, el cual era manipulado, principalmente, por operadores de mutaci´on que perturbaban los valores reales. La versi´on original, denotada por (1+1)-EE, usa un solo padre y produce en cada iteraci´on un solo hijo, mediante un operador de mutaci´on. Si el hijo obtenido tiene mayor aptitud que el padre (i.e., representa una mejor soluci´on) es seleccionado para ser el padre de la pr´oxima generaci´on. En caso contrario, es eliminado y se conserva el mismo padre. Este tipo de selecci´on se llama extintiva porque los peores individuos no tienen oportunidad de ser seleccionados. En la (1+1)-EE, a partir de un padre x(t) = (x (t) 1 , x (t) 2 , . . . , x (t) n ), se genera al hijo mediante la expresi´on: x (t+1) i = x (t) i + Ni(0, σi) CINVESTAV-IPN Departamento de Computaci´on
  • 30. 14 Cap´ıtulo 2 donde t es la generaci´on a la que pertenece el individuo padre y corresponde al n´umero de iteraciones realizadas por el algoritmo. El valor de Ni(0, σi) es un n´umero aleatorio, generado con una distribuci´on normal de media cero y desviaci´on est´andar σi En trabajos posteriores, se desarrollaron distintas variantes de la (1+1)-EE. Re- chenberg propuso en [39] la estrategia evolutiva (µ+1)-EE, en donde los padres se seleccionan de entre µ individuos para generar un solo hijo. De esta forma se introdu- ce el concepto de poblaci´on en las EEs, pues en cada generaci´on se tiene un conjunto de µ individuos. En la (µ+1)-EE, el hijo reemplaza al peor individuo de la poblaci´on, lo cual coincide con la selecci´on extintiva de la (1+1)-EE. Sin embargo, es en los trabajos de Schwefel [40] que aparece el uso de m´ultiples hijos, con las estrategias evolutivas (µ,λ)-EE y (µ+λ)-EE. En la primera estrategia se producen λ hijos, de los cuales los µ mejores pasan a la siguiente generaci´on como ´unicos sobrevivientes. En cambio, la estrategia (µ+λ)-EE selecciona como sobrevivientes a los µ mejores individuos de la combinaci´on entre padres e hijos. Una caracter´ıstica relevante de las estrategias evolutivas, conocida con el nom- bre de autoadaptaci´on, es que evoluciona no solo a las variables del problema, sino tambi´en a los par´ametros mismos de la t´ecnica (las desviaciones est´andar). La adap- taci´on autom´atica de la desviaci´on est´andar fue propuesta Schwefel [40] y consiste en representar cada individuo con la tupla (x(t) , σ(t) ). 2.2.3. Algoritmos gen´eticos Los Algoritmos Gen´eticos (AGs) fueron propuestos por John H. Holland a princi- pios de los 1960s [41], motivado por su inter´es en resolver problemas de aprendizaje de m´aquina, y se han convertido en la t´ecnica evolutiva m´as popular. El desarrollo de los AGs estuvo influenciado por el estudio formal de los procesos de adaptaci´on natural y el traslado de estos mecanismos a la computaci´on. Por lo cual, en los AGs se utilizan conceptos gen´eticos que no aparecen en los otros dos paradigmas, tales como: genotipo y fenotipo. En la evoluci´on natural, el genotipo representa la infor- maci´on gen´etica de un individuo, que ha sido heredada de sus antepasados y puede transmitir a sus descendientes. En cuanto al fenotipo, son las caracter´ısticas que se manifiestan en un individuo por la expresi´on de su genotipo. Una de las particularidades de los AGs es la codificaci´on del fenotipo (soluciones potenciales del problema) en el genotipo (generalmente una cadena binaria). Por tanto, los individuos se representan con una secuencia de ceros y unos, a la cual se le llama cromosoma. A cada posici´on del cromosoma se le denomina gene y al valor dentro de esta posici´on se le llama alelo. La representaci´on empleada en los AGs hace que los operadores de variaci´on act´uen directamente sobre el genotipo, a diferencia de lo que ocurre en las EEs y la PE, donde estos operadores act´uan sobre el fenotipo. Adem´as, los algoritmos gen´eticos reconocen la importancia de la cruza sexual (la cual es su operador principal) sobre la mutaci´on. La cruza sexual utilizada en los AGs tiene su inspiraci´on en las Leyes de Mendel. Este operador de reproducci´on se aplica sobre dos padres y genera dos CINVESTAV-IPN Departamento de Computaci´on
  • 31. Fundamentos Te´oricos 15 hijos, los cuales poseen genes heredados de ambos padres. Por su parte, el operador de mutaci´on puede modificar uno o m´as genes de cada cromosoma hijo. El mecanismo de selecci´on utilizado en los AGs permite elegir a los individuos de acuerdo a su aptitud. Generalmente la selecci´on es proporcional al valor de la aptitud y se aplica de manera estoc´astica (otorga a los menos aptos cierta probabilidad de reproducirse). Otro mecanismo importante dentro de los AGs es el elitismo. Se ha demostrado [42] que los AGs requieren de elitismo, i.e., retener intacto al mejor individuo de cada generaci´on para poder converger a la soluci´on ´optima del problema. 2.2.4. Ventajas de los algoritmos evolutivos El uso de las algoritmos evolutivos para resolver problemas de b´usqueda y op- timizaci´on presenta diversas ventajas, lo que ha motivado su aplicaci´on en diversas ´areas [1]. Estas t´ecnicas han mostrado, en varios tipos de problemas, mejores desem- pe˜nos que las t´ecnicas tradicionales [43]. A continuaci´on, se presentan algunas de estas ventajas. Simplicidad conceptual y amplia aplicabilidad. Usan una poblaci´on de soluciones potenciales en vez de un solo individuo, lo cual las hace menos susceptibles a quedar atrapadas en ´optimos locales. No necesitan conocimientos espec´ıficos sobre el problema que intentan resolver. Pueden explotar f´acilmente las arquitecturas en paralelo. Son robustas a los cambios din´amicos y generalmente pueden auto-adaptar sus par´ametros. Tienen el potencial para incorporar conocimiento sobre el dominio del problema y formar h´ıbridos con otras t´ecnicas de optimizaci´on. 2.3. Metaheur´ısticas Alternativas Los Algoritmos Evolutivos se han utilizado con ´exito para resolver un gran n´ume- ro de problemas de b´usqueda y optimizaci´on, pero no han sido las ´unicas t´ecnicas desarrolladas para enfrentar esos problemas. Otras metaheur´ısticas propuestas, en su mayor´ıa en a˜nos posteriores al surgimiento de los AEs, se han inspirado en diversos fen´omenos que ocurren en la naturaleza. Entre las que han generado mayor atenci´on se encuentran: Recocido Simulado, B´usqueda Tab´u, Optimizaci´on por Enjambre de Part´ıculas y Evoluci´on Diferencial. El Recocido Simulado (RS) es un algoritmo de b´usqueda estoc´astica basado en la evoluci´on de un s´olido desde una temperatura inicial hasta alcanzar su equilibrio t´ermico. Fue propuesto por Kirkpatrick et al. (1983) [44] y ˇCerny (1985) [45], quienes CINVESTAV-IPN Departamento de Computaci´on
  • 32. 16 Cap´ıtulo 2 de forma independiente observaron la relaci´on entre el proceso de recocido y la opti- mizaci´on combinatoria. En el RS, el estado del s´olido es an´alogo a una soluci´on del problema. En cada iteraci´on se genera una nueva soluci´on mediante cambios locales y es aceptada en funci´on de su calidad y de la temperatura, la cual disminuye al acercarse al equilibrio t´ermico (equivalente al ´optimo). El RS se ha adaptado para problemas de optimizaci´on en espacios continuos y con varios objetivos [1, 46]. La B´usqueda Tab´u (BT) fue propuesta por Fred Glover [47] a mediados de los 1980s y se basa en la informaci´on hist´orica del proceso de b´usqueda. La BT posee tres componentes principales que gu´ıan la b´usqueda. El primero es una memoria de corto plazo que contiene las soluciones exploradas recientemente y las declara tab´u para no volver a visitarlas (evita los ciclos). El segundo componente es una memoria que almacena las mejores soluciones encontradas y las utiliza como semillas para intensificar la b´usqueda. El ´ultimo componente es una memoria de largo plazo que almacena las regiones exploradas y se usa para diversificar la b´usqueda. La BT se concibi´o inicialmente para problemas de optimizaci´on combinatoria, pero se han propuesto variantes para espacios continuos y problemas multiobjetivo [1, 48]. La Optimizaci´on por Enjambre de Part´ıculas fue propuesta en 1995 por James Kennedy y Russell Eberhart [49], inspirados en el comportamiento social de las aves durante el vuelo. En esta t´ecnica, la b´usqueda se realiza utilizando un enjambre de part´ıculas, cada una de las cuales representa una posible soluci´on del problema. El movimiento a realizar por cada part´ıcula es determinado por su velocidad, una componente social y una componente cognitiva. La velocidad de la part´ıcula indica la direcci´on actual de su desplazamiento. La componente social se refiere a la mejor soluci´on alcanzada entre todo el enjambre (o parte de ´el) y la cognitiva a la mejor soluci´on explorada por la part´ıcula. Esta heur´ıstica fue desarrollada para la b´usqueda en espacios continuos, pero tambi´en se ha utilizado con ´exito en espacios discretos y problemas multiobjetivo [1, 50]. La Evoluci´on Diferencial (ED) fue propuesta a mediados de 1990s por Rainer Storn y Kenneth Price [51] y su origen estuvo motivado por la optimizaci´on en espacios continuos. Esta metaheur´ıstica evoluciona una poblaci´on de individuos, sobre los que se aplican operadores de variaci´on. En ese sentido, posee una serie de similitudes con los Algoritmos Evolutivos tradicionales, pero la representaci´on de los individuos y los operadores que los modifican, la distinguen de los dem´as paradigmas. En la ED, cada una de las posibles soluciones del problema se representa mediante un vector de n´umeros reales; de esta forma, el algoritmo opera a nivel de fenotipo. La exploraci´on de nuevas soluciones se realiza perturbando cada vector con la diferencia de otros vectores. Debido a que la evoluci´on diferencial es la heur´ıstica utilizada en el algoritmo propuesto en este trabajo, sus caracter´ısticas ser´an explicadas con mayor detalle en la siguiente secci´on. CINVESTAV-IPN Departamento de Computaci´on
  • 33. Fundamentos Te´oricos 17 2.3.1. Evoluci´on diferencial Los operadores de la evoluci´on diferencial pueden adoptar diferentes estrategias, bas´andose en la selecci´on del vector que ser´a perturbado, el n´umero de padres a utilizar y el tipo de cruza. Las combinaciones de estos elementos generan distintas variantes de la ED, debido a lo cual, se ha desarrollado una nomenclatura para identificar a cada variante. La m´as popular se denomina DE/rand/1/bin, donde DE significa evoluci´on diferencial, rand indica que los individuos a utilizar en la mutaci´on son seleccionados de forma aleatoria, 1 es el n´umero de pares de soluciones a emplear en la mutaci´on y bin representa el uso de la recombinaci´on binaria. En el Algoritmo 2 se muestra el pseudoc´odigo de DE/rand/1/bin. Algoritmo 2 Evoluci´on Diferencial (DE/rand/1/bin) 1: Generar una poblaci´on inicial aleatoria: P(1) = (x (1) 1 , x (1) 2 , . . . , x (1) N ) 2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , N 3: for g = 1 to gmax do 4: for i = 1 to N do 5: Seleccionar de forma aleatoria r1, r2, r3 ∈ [1, 2, . . . , N], r1 = r2 = r3 6: Seleccionar de forma aleatoria jrand ∈ [1, 2, . . . , n] 7: for j = 1 to n do 8: if rand[0, 1) < CR or j = jrand then 9: u (g+1) i,j = x (g) r3,j + F(x (g) r1,j − x (g) r2,j) 10: else 11: u (g+1) i,j = x (g) i,j 12: end if 13: end for 14: if f(u (g+1) i ) ≤ f(x (g) i ) then 15: x (g+1) i = u (g+1) i 16: else 17: x (g+1) i = x (g) i 18: end if 19: end for 20: end for En la variante DE/rand/1/bin, la poblaci´on inicial se genera de manera aleatoria, aunque se usan reglas de reparaci´on para asegurar que cada variable pertenezca al dominio. Posteriormente, se selecciona un individuo para reemplazo y tres individuos aleatorios como padres (uno de los cuales es el padre principal). Los individuos se- leccionados se utilizar´an para generar un hijo. Con una probabilidad CR, se cambia cada variable del padre principal, de tal forma que al menos una de sus variables sea modificada. El cambio se efect´ua agregando al valor de la variable una raz´on F de la diferencia entre los valores de esta variable en los otros dos padres. De esta forma, el hijo tendr´a valores del vector perturbado del padre principal y valores del individuo para reemplazo. El hijo sustituye al individuo elegido para reemplazo solo CINVESTAV-IPN Departamento de Computaci´on
  • 34. 18 Cap´ıtulo 2 si representa una mejor soluci´on. De lo contrario, se retiene el vector elegido para reemplazo. El par´ametro CR controla la influencia de los padres en la descendencia, los valores m´as altos significan mayor influencia de los padres. Por su parte, el par´ametro F escala la influencia del conjunto de pares de soluciones seleccionados para el c´alculo del valor de mutaci´on. Un aumento del tama˜no de la poblaci´on o del n´umero de pares de soluciones involucrados en la mutaci´on puede incrementar la diversidad de las nuevas soluciones y permitir una mayor exploraci´on del espacio. Sin embargo, esto disminuye la probabilidad de encontrar una buena direcci´on de b´usqueda. Por tanto, el balance entre el tama˜no de la poblaci´on y el n´umero de diferencias utilizadas en la mutaci´on determinan la eficiencia del algoritmo. CINVESTAV-IPN Departamento de Computaci´on
  • 35. Cap´ıtulo 3 Optimizaci´on Evolutiva de Muchos Objetivos Los algoritmos evolutivos se han utilizado con ´exito en una amplia variedad de pro- blemas de optimizaci´on multiobjetivo. En 1984, David Schaffer [52] propuso el Vector Evaluated Genetic Algorithm (VEGA), que es considerado como el primer algoritmo evolutivo multiobjetivo (AEMO) capaz de aproximar varias soluciones del conjunto de ´optimos de Pareto en una sola ejecuci´on. Sin embargo, este algoritmo es incapaz de obtener soluciones ´optimas en regiones no convexas del frente de Pareto [53]. Con el fin de evitar los problemas presentados por VEGA, Goldberg [43] propuso en 1989 utilizar la dominancia de Pareto para asignar la aptitud de los individuos de una poblaci´on. En 1993, Fonseca y Fleming [54] presentaron una variaci´on de la idea propuesta por Goldberg, a la que llamaron Multiobjective Genetic Algorithm (MOGA). ´Este fue uno de los primeros algoritmos con un esquema de selecci´on basado en la dominancia de Pareto. Posteriormente, se desarrollaron varios AEMOs con selecci´on basada en la dominancia de Pareto, entre los que destacan el Niched Pareto Genetic Algorithm (NPGA) [55] y el Nondominated Sorting Genetic Algorithm (NSGA) [56]. Estos algo- ritmos incorporaron en su mecanismo de selecci´on un segundo criterio, el cual estaba generalmente relacionado con el mantenimiento de la diversidad en la poblaci´on. De esta forma, trataban de evitar la convergencia prematura y, a la vez, generar la mayor porci´on posible del frente de Pareto. A finales de los a˜nos 1990s se introduce el concepto de elitismo en los AEMOs y se hace popular el uso de poblaciones secundarias. Entre las propuestas m´as re- presentativas de esos a˜nos se encuentran el Strength Pareto Evolutionary Algorithm (SPEA) [57], la Pareto Archived Evolution Strategy (PAES) [58], el Pareto Envelope based Selection Algorithm (PESA) [59] y el Micro Genetic Algorithm (µGA) para la optimizaci´on multiobjetivo [60]. Posteriormente, se desarrollaron versiones mejoradas de algunos de los AEMOs propuestos haste ese momento, dando origen a una nueva generaci´on. Entre estos AEMOs se destacaron el NSGA-II [61], el SPEA2 [62] y el µGA2 [63]. 19
  • 36. 20 Cap´ıtulo 3 Los AEMOs mencionados han mostrado un buen desempe˜no en problemas de dos y tres objetivos [1, 2]. Sin embargo, estudios reciente han mostrado que la dominancia de Pareto no es efectiva como criterio de selecci´on en problemas de cuatro o m´as objetivos [4, 6]. Esto ha motivado un gran n´umero de investigaciones para mejorar el rendimiento de los AEMOs en este tipo de problemas. Las principales propuestas se han enfocado en el desarrollo de mecanismos de selecci´on alternativos, la reducci´on del n´umero de objetivos y la exploraci´on de s´olo algunas regiones del espacio de soluciones. En la primera secci´on de este cap´ıtulo se presentar´an los principales desaf´ıos que debe enfrentar un AEMO para solucionar problemas de optimizaci´on con m´as de tres objetivos. A continuaci´on, se describir´an las t´ecnicas m´as representativas que se han propuesto para la optimizaci´on de este tipo de problemas, haciendo ´enfasis en sus ventajas y limitaciones. 3.1. Dificultades en el manejo de muchos objetivos Los problemas de optimizaci´on con cuatro o m´as funciones objetivo presentan una serie de retos que hacen dif´ıcil su soluci´on. Algunas de estas dificultades son propias de los mecanismos de selecci´on que poseen los AEMOs, las cuales deterioran su capacidad de b´usqueda. Otras son inherentes al problema de optimizaci´on, tales como la aproximaci´on del frente de Pareto en su totalidad o la visualizaci´on misma de las soluciones. 3.1.1. Deterioro de la capacidad de b´usqueda Desde principios de los 1990s, la dominacia de Pareto se hizo popular como cri- terio de selecci´on en los algoritmos evolutivos multiobjetivo. Estudios realizados en a˜nos posteriores han mostrado que la proporci´on de soluciones no dominadas en una poblaci´on aumenta de manera exponencial con el n´umero de objetivos. Esto limita la capacidad de la dominancia de Pareto para discriminar entre soluciones en problemas con muchos objetivos. En 1978, Bentley et al. [64] determinaron que en un conjunto de N vectores k−dimensionales, generados de manera aleatoria, el n´umero esperado de vectores no dominados es de orden O(logk−1 N). Sin embargo, no es sino hasta con los traba- jos de Deb [2] y Farina et al. [7] que este tipo de an´alisis se extiende al ´area de la optimizaci´on multiobjetivo. Deb [2] present´o un estudio experimental donde calcula- ba el n´umero de soluciones no dominadas que exist´ıan en poblaciones aleatorias con distintos tama˜nos y n´umero de objetivos. Los resultados obtenidos mostraron que el aumento del n´umero de objetivos causa un mayor n´umero de soluciones no domina- das en la poblaci´on. Seg´un [2], esto provoca que la presi´on de selecci´on disminuya considerablemente, lo cual reduce la posibilidad de aplicar el elitismo y deteriora la capacidad de b´usqueda de los AEMOs basados en la dominancia de Pareto. CINVESTAV-IPN Departamento de Computaci´on
  • 37. Optimizaci´on Evolutiva de Muchos Objetivos 21 Por su parte, Farina y Amato [7] proponen la expresi´on 3.1 para determinar, en un espacio de dimensi´on k, la proporci´on e de vectores no comparables (seg´un la dominancia de Pareto) con respecto a un vector dado. De acuerdo a 3.1, a medida que aumenta el n´umero de objetivos, la proporci´on de soluciones no comparables con respecto a una soluci´on determinada crece de manera exponencial. De esta forma, Farina y Amato explican c´omo la dominancia de Pareto puede resultar inadecuada para discriminar entre soluciones en espacios de b´usqueda con muchos objetivos. e = 2k − 2 2k (3.1) La expresi´on 3.1 tambi´en representa la forma en que se reduce la proporci´on de soluciones que pueden dominar a una soluci´on determinada. Debido a esta reducci´on, la probabilidad de generar descendientes que dominen a sus ancestros disminuye de manera exponencial. Este problema tiene una relaci´on directa con el fen´omeno cono- cido como resistencia a la dominancia [65, 66, 67]. Este fen´omeno se manifiesta en aquellas soluciones que poseen un valor deficiente en al menos uno de los objetivos, pero en las cuales, en el resto de los objetivos tienen valores cercanos al ´optimo. Este tipo de soluciones se encuentran distantes del frente de Pareto, pero generalmente son no dominadas y resulta dif´ıcil generar soluciones que las dominen [4]. Cuando la dominancia de Pareto es insuficiente para identificar a los sobrevivientes en una poblaci´on, el operador de diversidad se convierte en el mecanismo principal dentro del esquema de selecci´on [4]. Esto puede provocar que se deteriore la capacidad de b´usqueda de los AEMOs y, en algunos casos, que las soluciones diverjan, alej´andose del verdadero frente de Pareto [68]. Varios algoritmos representativos del estado del arte presentan este problema. Por ejemplo, los operadores de diversidad en NSGA- II [61] y SPEA2 [62] otorgan mayor preferencia a las soluciones no dominadas que sean aisladas y fronterizas. Debido a esto, los puntos con mayor diversidad resultan ser las soluciones con peor convergencia [69]. Diversos estudios experimentales [5, 6, 70] han comprobado el pobre desempe˜no de los AEMOs basados en la dominancia de Pareto cuando optimizan problemas con cuatro o m´as objetivos. Estos resultados han sido respaldados por el trabajo te´orico de Teytau [71], seg´un el cual, comparar las soluciones utilizando s´olo la dominancia de Pareto provoca que la velocidad de convergencia de los AEMOs no sea mucho mejor que la de una b´usqueda aleatoria. Friedrich et al. [72] tambi´en demuestran la deficiencia de la dominancia de Pareto para guiar la b´usqueda de los AEMOs en cierto tipo de problemas, aunque sean relativamente sencillos y con pocos objetivos. Sin embargo, en a˜nos recientes, algunos autores han manifestado que aumentar el n´umero de objetivos de un problema no necesariamente lo hace m´as dif´ıcil. Brockhoff et al. [73] realizaron un an´alisis te´orico del tiempo de ejecuci´on de un AEMO en un problema espec´ıfico y mostraron c´omo, al aumentar el n´umero de objetivos, el problema puede volverse m´as o menos complejo. En tanto, Sch¨utze et al. [74] llevaron a cabo un estudio te´orico sobre la influencia del n´umero de objetivos en la convergencia de un AEMO, concluyendo que agregar m´as objetivos a un problema puede hacerlo m´as dif´ıcil, pero no en una medida significativa. CINVESTAV-IPN Departamento de Computaci´on
  • 38. 22 Cap´ıtulo 3 3.1.2. Representaci´on del frente de Pareto En los problemas de optimizaci´on continuos con k objetivos en conflicto, el frente de Pareto es una variedad de dimensi´on k − 1 [33]. Debido a esto, el n´umero de solu- ciones necesarias para aproximar el frente de Pareto aumenta de manera exponencial con el n´umero de objetivos. Formalmente, el n´umero de soluciones requeridas es de orden O(krk−1 ), donde r es la resoluci´on por cada dimensi´on [75]. Por ejemplo, cuan- do se aproxima el FP de un problema de 2 objetivos es com´un utilizar 100 soluciones (r = 50). Sin embargo, para mantener la misma precisi´on al aproximar el FP de un problema de 5 objetivos ser´ıan necesarias m´as de 3 · 107 soluciones. Este crecimiento exponencial del n´umero de soluciones necesarias para aproximar el FP provoca dos dificultades principales. La primera se produce por el aumento del n´umero de evaluaciones de las funciones objetivo, ya que en varios problemas reales estas evaluaciones tienen un elevado costo computacional [1]. En segundo lugar, aunque se pueda obtener una aproximaci´on precisa de todo el FP, el gran n´umero de soluciones har´ıa dif´ıcil la selecci´on de un subconjunto por parte del tomador de decisiones. Esto ha motivado el desarrollo de AEMOs basados en preferencias [76], los cuales puedan aproximar regiones espec´ıficas del frente de Pareto que sean de inter´es para el tomador de decisiones. 3.1.3. Visualizaci´on del frente de Pareto Los algoritmos evolutivos multiobjetivos por lo general producen un conjunto de soluciones como aproximaci´on del frente de Pareto. Este conjunto es analizado por un tomador de decisiones para seleccionar una soluci´on particular entre las distintas alternativas. La visualizaci´on del FP es fundamental para el proceso de toma de deci- siones. Sin embargo, a medida que el n´umero de objetivos aumenta, la visualizaci´on de las soluciones no dominadas se hace m´as dif´ıcil. Actualmente, existen diversos m´etodos para visualizar el conjunto de soluciones de un problema de cuatro o m´as objetivos, los cuales se pueden agrupar en tres clases principales. En la primera clase, los objetivos se muestran en grupos de dos y tres a la vez. Un ejemplo de estos m´etodos es la matriz de diagramas de dispersi´on [2], que visualiza los compromisos entre los distintos pares de objetivos. Sin embargo, mostrar todos los pares de objetivos no resulta pr´actico cuando el n´umero de objetivos es elevado. Adem´as, puede limitar el an´alisis de las relaciones existentes entre el conjunto total de objetivos. En la segunda clase se encuentran los m´etodos que visualizan todos los objetivos al mismo tiempo. Algunos de los m´as representativos en esta categor´ıa son: los dia- gramas de coordenadas paralelas, las gr´aficas de barras, los diagramas de p´etalos y la representaci´on pentagonal [77]. Entre estos m´etodos, los diagramas de coordenadas paralelas han sido los m´as populares [8]. Esta t´ecnica de visualizaci´on produce un gr´afico de dos dimensiones que contiene el nombre de cada objetivo en el eje horizon- tal y los valores normalizados de cada objetivo en el eje vertical. Recientemente, se ha propuesto utilizar mapas de calor para visualizar el conjunto de soluciones consi- CINVESTAV-IPN Departamento de Computaci´on
  • 39. Optimizaci´on Evolutiva de Muchos Objetivos 23 derando todos los objetivos simult´aneamente [78]. Un mapa de calor es una matriz donde cada fila representa una soluci´on, cada columna representa un objetivo y el color de una celda corresponde al valor en ella. Pryke et al. [78] proponen utilizar t´ecnicas de agrupamiento jer´arquico para mantener en filas vecinas las soluciones con valores similares en las funciones objetivo. Por su parte, Walker et al. [79] presentaron un m´etodo para ordenar las filas utilizando una medida de similitud que se basa en un an´alisis espectral. Por ´ultimo, existen varias t´ecnicas de visualizaci´on que reducen el n´umero de obje- tivos con base en las caracter´ısticas del conjunto de soluciones. En [80] se propone un m´etodo que consta de dos etapas; primero se utiliza un modelo de red neuronal arti- ficial para proyectar las soluciones en un espacio de menor dimensi´on y en la segunda etapa se aplica un algoritmo de agrupamiento jer´arquico para facilitar el an´alisis. Una idea distinta fue presentada por K¨oppen y Yoshida [81], quienes proponen transfor- mar el conjunto de soluciones en un conjunto de Pareto de dos dimensiones, tratando de conservar las relaciones de dominancia. 3.2. Algoritmos Evolutivos para la optimizaci´on de muchos objetivos Desde mediados de los a˜nos 1990s, los AEMOs basados en la dominancia de Pareto han sido una de las t´ecnicas m´as utilizadas en la optimizaci´on de problemas con dos y tres objetivos [1]. Sin embargo, se ha comprobado que el desempe˜no de estos algoritmos se deteriora a medida que aumenta el n´umero de objetivos en conflicto. Esto ha motivado el desarrollo de nuevos AEMOs que sean capaces de lidiar con problemas de m´as de tres objetivos, pues estos problemas son muy frecuentes en la ciencia y la ingenier´ıa [82]. En esta secci´on se estudiar´an algunas de las metodolog´ıas m´as populares que han sido propuestas para mejorar el desempe˜no de los AEMOs. Por cada metodolog´ıa (ser´an cinco en total), se analizar´an varios de sus algoritmos m´as representativos, as´ı como sus ventajas y deficiencias. En primer lugar, se presentar´an los AEMOs basados en relaciones de preferencia, los cuales comparan las soluciones considerando alguna informaci´on adicional. Por ejemplo, el n´umero de objetivos en los cuales una soluci´on es mejor que otra [7, 83], la magnitud de la mejora [7, 84] o el n´umero de subespacios en los que una soluci´on permanece no dominada [85]. Este grupo tambi´en incluye los algoritmos que usan funciones de pertenencia difusa para representar las preferencias [7]. En segundo lugar, se analizar´an las propuestas que reducen la dimensi´on del espacio objetivo y as´ı evitan las deficiencias de la dominancia de Pareto al comparar las soluciones [86, 87, 88]. A continuaci´on, se estudiar´an los AEMOs que utilizan la informaci´on sobre el inter´es del tomador de decisiones por determinadas regiones del frente de Pareto [89, 90, 16]. Posteriormente, se analizar´an los AEMOs que eval´uan las soluciones utilizando un indicador de desempe˜no, transformando as´ı el problema original en la optimizaci´on de un solo objetivo (el indicador) [91, 18, 30]. Finalmente, se presentar´an los AEMOs CINVESTAV-IPN Departamento de Computaci´on
  • 40. 24 Cap´ıtulo 3 basados en descomposici´on, los cuales dividen el problema original en una colecci´on de funciones escalares que deben ser optimizadas simult´aneamente [9, 10, 13]. 3.2.1. Relaciones de preferencia alternativas La selecci´on de los individuos que pasar´an a la siguiente generaci´on es una etapa fundamental en los algoritmos evolutivos multiobjetivo, pues permite conservar las mejores soluciones encontradas y guiar la b´usqueda hacia el frente de Pareto. Un gran n´umero de AEMOs han utilizado la dominancia de Pareto para comparar las soluciones y poder efectuar la selecci´on. Sin embargo, la dominancia de Pareto solo define un orden parcial en el espacio k−dimensional de los objetivos y a medida que aumenta el valor de k, disminuye su capacidad de diferenciar entre las distintas soluciones. Debido a esto, se han propuesto modificaciones de la dominancia de Pareto y otras relaciones de preferencia que permiten discriminar entre los individuos de manera m´as efectiva. La dominancia-α [65] es una de las primeras variantes de la dominancia de Pareto que fue propuesta para aumentar la presi´on de selecci´on en un AEMO. La idea prin- cipal de la dominancia-α es fijar un l´ımite superior (αji) y un l´ımite inferior (1/αij) para la raz´on del compromiso entre cada par de objetivos fi y fj. Seg´un este criterio, sean ∆fi y ∆fj variaciones equivalentes de fi y fj, se considera que αji ≤ ∆fi ∆fj ≤ 1 αij , αij, αji ≥ 0, i, j = 1 . . . k, (3.2) donde k es el n´umero de funciones objetivo en el problema. La dominancia-α considera la soluci´on x mejor que la soluci´on y (denotado por x α y) si y s´olo si gi(x, y) ≤ 0, i = 1 . . . k y g(x, y) = 0, donde gi(x, y) = k j=1 αij (fj(x) − fj(y)), αii = 1, i = 1 . . . k. (3.3) Esta relaci´on de preferencia aumenta la regi´on de dominancia de cada soluci´on, fa- cilitando la convergencia del algoritmo hacia el frente de Pareto. Sin embargo, las soluciones ´optimas seg´un la dominancia-α son un subconjunto del conjunto de ´opti- mos de Pareto. Debido a ello, esta relaci´on de preferencia no permite descubrir ciertas regiones del frente de Pareto [65]. Sato et al. [92] mostraron que al utilizar en NSGA-II una modificaci´on de la do- minancia de Pareto, en lugar de la dominancia de Pareto est´andar, se mejoraba su desempe˜no en problemas con m´as de tres objetivos. La relaci´on de preferencia pro- puesta en [92] es una modificaci´on de la dominancia de Pareto que permite variar el ´area de dominancia de cada soluci´on. Para controlar el grado de expansi´on o contrac- ci´on del ´area de dominancia, se transforma el valor de cada funci´on objetivo de la CINVESTAV-IPN Departamento de Computaci´on
  • 41. Optimizaci´on Evolutiva de Muchos Objetivos 25 siguiente manera: fi(x) = f(x) · sin(wi + si · π) sin(si · π) , i = 1 . . . k, (3.4) donde si ∈ [0.25, 0.75], i = 1 . . . k, son par´ametros definidos por los usuarios y wi es el ´angulo entre el vector de funciones objetivo f(x) y el eje de la funci´on objetivo fi. Un valor de si < 0.5 (∀i = 1 . . . k) aumenta el ´area de dominancia de las soluciones, lo cual produce mayor presi´on de selecci´on en la poblaci´on y posibilita la convergencia del AEMO hacia el frente de Pareto. Esta relaci´on de preferencia no s´olo ha mostrado su efectividad al ser utilizada en algoritmos evolutivos [92, 93], sino tambi´en en otras metaheur´ısticas como los algoritmos de optimizaci´on por enjambre de part´ıculas [94]. Sin embargo, esta relaci´on de preferencia, al igual que la α-dominancia, no permite descubrir el frente de Pareto en su totalidad [92, 93]. Farina y Amato [7] proponen la dominancia-(k − 1) como alternativa de la do- minancia de Pareto. Esta relaci´on se basa en el n´umero de objetivos para los cuales una soluci´on x es mejor, igual o peor que otra soluci´on y; estos valores se representan como nb(x, y), ne(x, y) y nw(x, y), respectivamente. Se dice entonces que una soluci´on x es mejor que otra soluci´on y seg´un la dominancia-(k −1) (denotado por x (k−1) y) si y s´olo si ne(x, y) < M y nb(x, y) ≥ M − ne k + 1 , (3.5) donde M es el n´umero de objetivos del problema. Cuando k = 0, esta relaci´on de preferencia es equivalente a la dominancia de Pareto y los distintos valores de k co- rresponden a diferentes subconjuntos de las soluciones ´optimas de Pareto. En [95] se comprueba la capacidad de esta relaci´on para discriminar entre soluciones no do- minadas tanto en problemas discretos como continuos, aumentando de esta forma la presi´on de selecci´on en los AEMOs. En [7] se propone una segunda relaci´on de dominancia, la cual considera no s´olo el n´umero de objetivos para los que una solu- ci´on es mejor que otra, sino tambi´en la diferencia entre esos valores objetivos. Esta relaci´on de preferencia se basa en reglas difusas para establecer la dominancia entre las soluciones. Otras relaciones de preferencia se diferencian un poco m´as de la definici´on est´andar de la dominancia de Pareto. Es el caso de la relaci´on favour propuesta por Drechsler et al. [83], la cual se basa en el n´umero de objetivos para los que una soluci´on es mejor que otra. Esta relaci´on considera que una soluci´on x es mejor que otra soluci´on y (denotado por x favour y) si y s´olo si ne(x, y) > nw(x, y). La relaci´on favour puede ser vista como un caso particular de la dominancia-(k − 1) donde k = 1. Una de las principales deficiencias de la relaci´on favour es que no puede lidiar con el fen´omeno de resistencia a la dominancia. Esto provoca que las soluciones se concentren en los extremos del frente de Pareto [93, 96]. S¨ulflow et al. [84] proponen la relaci´on de preferencia- como una extensi´on de la relaci´on favour. La principal diferencia es que considera el n´umero de objetivos CINVESTAV-IPN Departamento de Computaci´on
  • 42. 26 Cap´ıtulo 3 para los cuales una soluci´on excede por un umbral a la otra soluci´on. En caso de empate, la relaci´on favour es utilizada para determinar la mejor soluci´on. La relaci´on de preferencia- se utiliz´o en el NSGA-II y mostr´o mejor desempe˜no que la relaci´on favour [84]. Las relaciones de preferencia mencionadas comparan las soluciones considerando simult´aneamente el valor de todos los objetivos. En cambio, di Pierro et al. [85] proponen utilizar subconjuntos de objetivos al comparar las soluciones. La relaci´on presentada en [85] se basa en el concepto de orden de eficiencia. Una soluci´on x es eficiente de orden r si no es dominada por ninguna otra soluci´on considerando todos los k r subconjuntos de objetivos, donde k representa el n´umero total de objetivos. Se considera entonces que el orden de eficiencia de una soluci´on x es el m´ınimo valor de r para el cual x es eficiente. Esta relaci´on se incorpor´o a NSGA-II para diferenciar entre las soluciones no dominadas, lo cual mejor´o la convergencia del algoritmo en problemas de hasta ocho objetivos [85]. Sin embargo, esta relaci´on de preferencia causa p´erdida de diversidad en las soluciones encontradas. Bentley y Wakefield [97] proponen las relaciones de preferencia average ranking (AR) y maximum ranking (MR). AR ordena los valores de cada objetivo indepen- dientemente; de esta manera, obtiene, por cada objetivo, la posici´on que ocupa una soluci´on con respecto a las dem´as. La posici´on general de una soluci´on se obtiene al promediar las posiciones asignadas por cada objetivo. En el caso de MR, no se promedian las posiciones, sino que se asigna el mejor valor. La principal deficien- cia de MR es que favorece las soluciones extremas, limitando la convergencia de los AEMOs y deteriorando la diversidad de las soluciones [93]. El estudio realizado por Corne y Knowles [96] mostr´o que la relaci´on AR obten´ıa mejores resultados que otras relaciones de preferencia. Diversos estudios [93, 94, 96] han comprobado que las relaciones de preferencia mencionadas anteriormente mejoran la convergencia de los AEMOs cuando rempla- zan a la dominancia de Pareto. Sin embargo, varias de estas relaciones [65, 92, 7, 84] necesitan par´ametros adicionales, lo cual puede limitar su aplicaci´on en ciertos proble- mas reales. Adem´as, el conjunto de soluciones ´optimas que producen estas relaciones de preferencia es un subconjunto del conjunto de ´optimos de Pareto. Esto puede pro- vocar que los AEMOs s´olo converjan a regiones espec´ıficas del frente de Pareto y se pierda diversidad en las soluciones. 3.2.2. Reducci´on de la dimensi´on del espacio objetivo Un gran n´umero de los AEMOs propuestos para lidiar con muchos objetivos in- tentan convertir el problema original en instancias de menor dimensi´on (n´umero de objetivos) que puedan solucionarse con t´ecnicas ya existentes. Una etapa fundamen- tal de estos AEMOs consiste en determinar el grado de conflicto entre los objetivos y as´ı conservar lo m´as posible la relaci´on de dominancia inducida por el problema original. Estos algoritmos se pueden agrupar en dos clases principales. La primera re´une los m´etodos de partici´on del espacio, los cuales dividen el espacio objetivo del CINVESTAV-IPN Departamento de Computaci´on
  • 43. Optimizaci´on Evolutiva de Muchos Objetivos 27 problema original en varios subespacios disjuntos de menor dimensi´on que son explo- rados independientemente. La segunda clase se refiere a los m´etodos que reducen el n´umero de objetivos del problema. Estos m´etodos prescinden de aquellos objetivos con el menor grado de conflicto respecto a los dem´as objetivos. Aguirre y Tanaka [98] propusieron un esquema general para dividir el espacio objetivo en varios subespacios, cada uno de los cuales es explorado en distintas ge- neraciones del algoritmo evolutivo. Para dividir el espacio objetivo en subespacios de igual tama˜no se utilizaron tres estrategias distintas. La primera asigna de mane- ra aleatoria los objetivos que pertenecer´an a cada subespacio. La segunda estrategia establece desde un inicio los objetivos de cada subespacio y se mantiene la misma asignaci´on durante todas las generaciones. La ´ultima estrategia traslada un objeti- vo de un subespacio a otro en cada generaci´on. Este esquema fue incorporado en el NSGA-II y se aplic´o en problemas de cuatro a diez objetivos. Los resultados ob- tenidos mostraron que el m´etodo propuesto supera al NSGA-II original tanto en la convergencia como en la diversidad de las soluciones. El mejor desempe˜no se obtuvo al utilizar la estrategia aleatoria, lo que evidencia la importancia de explorar todos los subespacios posibles. L´opez et al. [88] proponen una modificaci´on del esquema general de Aguirre y Tanaka [98] y adem´as una nueva estrategia para dividir el espacio objetivo. La estra- tegia propuesta agrupa los objetivos seg´un el grado de conflicto entre ellos e intenta conservar lo m´as posible la estructura del problema original. Para determinar el grado de conflicto entre los objetivos, se construye una matriz de correlaci´on utilizando el valor de las soluciones encontradas en cada generaci´on. Este m´etodo fue incorporado en el NSGA-II y se compar´o su efectividad con respecto a otros tres algoritmos: una estrategia de divisi´on aleatoria, el m´etodo propuesto por Purshouse y Fleming [99] y la versi´on original del NSGA-II. Los resultados obtenidos en problemas de hasta 15 objetivos mostraron la superioridad de la estrategia propuesta tanto en convergencia como en distribuci´on de las soluciones. La estrategia basada en la informaci´on del con- flicto entre los objetivos obtuvo mejores resultados que la estrategia aleatoria. Esto demuestra la importancia de utilizar informaci´on espec´ıfica del problema al construir los subespacios. A diferencia de los m´etodos anteriores, que utilizan la informaci´on de todos los objetivos, otras t´ecnicas intentan eliminar los objetivos que no son fundamentales para describir el frente de Pareto. Saxena et al. [69] proponen un algoritmo para reducir el n´umero de objetivos basado en el an´alisis de componentes principales. Este m´etodo construye, cada cierto n´umero de generaciones, una matriz de correlaci´on utilizando los valores de las soluciones encontradas. Posteriormente, obtiene las componentes principales de esta matriz (calculando los vectores propios) y con esta informaci´on determina los objetivos en mayor conflicto. Este m´etodo fue incorporado en NSGA- II y en -MOEA [100] para eliminar sucesivamente los objetivos redundantes (los de menor grado de conflicto) seg´un la aproximaci´on del frente de Pareto obtenida. Los resultados experimentales mostraron la efectividad del algoritmo para solucionar problemas con un gran n´umero de objetivos redundantes, superando a otras t´ecnicas CINVESTAV-IPN Departamento de Computaci´on
  • 44. 28 Cap´ıtulo 3 de reducci´on propuestas en [87]. Sin embargo, el m´etodo presenta deficiencias para encontrar la correcta combinaci´on de objetivos en problemas con un frente de Pareto de alta dimensi´on (con poca redundancia entre los objetivos). Brockhoff y Zitzler [87] proponen un m´etodo para reducir el n´umero de objetivos que se basa en una idea distinta de conflicto. Seg´un [87] un objetivo est´a en conflic- to con el resto si al eliminarlo se modifican las relaciones de dominancias entre las soluciones. Este criterio se utiliz´o para construir un algoritmo exacto y otro con una estrategia voraz que solucionar´an dos problemas (δ-MOSS y k-EMOSS) relacionados con la reducci´on de objetivos. El primero de estos problemas consiste en encontrar el menor subconjunto de objetivos que conserve (con un error inferior a δ) las re- laciones de dominancia. En cambio, el problema k-EMOSS radica en descubrir el subconjunto de k objetivos que produzca el menor error posible. Cada uno de los algoritmos propuestos fue incorporado en el IBEA [91], mejorando su desempe˜no en varios problemas. Sin embargo, estos algoritmos se limitan a la reducci´on lineal de los objetivos y consideran que las soluciones est´an igualmente distribuidas en el espacio objetivo [69]. L´opez et al. [101] proponen dos algoritmos que se basan en una t´ecnica de selec- ci´on de rasgos para solucionar los problemas δ-MOSS y k-EMOSS. Estos algoritmos utilizan las soluciones no dominadas para construir una matriz de correlaci´on que representa el grado de conflicto entre los objetivos. El conflicto entre los objetivos es utilizado como una distancia para construir vecindades de tama˜no q alrededor de ca- da objetivo. Posteriormente, se selecciona la vecindad m´as compacta (con la m´ınima distancia entre los q vecinos) y se retiene el objetivo central eliminando el resto de los objetivos en la vecindad. De esta forma, se eliminan los objetivos con el menor conflicto hasta que la cantidad total de objetivos sea igual a k o no existan vecinda- des con un error inferior a δ. Los resultados experimentales mostraron un desempe˜no competitivo de estos algoritmos con respecto a los propuestos en [87] y al m´etodo basado en el an´alisis de componentes principales [69]. Sin embargo, resulta necesario analizar el papel del par´ametro q en la efectividad de los algoritmos propuestos y la posibilidad de un proceso adaptativo que reduzca el valor de q. Las t´ecnicas de partici´on del espacio objetivo y los m´etodos para reducir el n´umero de objetivos se han incorporado en el proceso de b´usqueda de varios AEMOs existen- tes, mejorando la efectividad de estos algoritmos en problemas con muchos objetivos. Sin embargo, estas t´ecnicas de reducci´on asumen la existencia de objetivos redun- dantes o la independencia entre subconjuntos de objetivos. Cuando el problema de optimizaci´on no cumple con estas caracter´ısticas, el espacio objetivo no se reduce suficientemente para ayudar a los AEMOs durante la b´usqueda o se prescinde de objetivos que son fundamentales para descubrir el frente de Pareto. Debido a esto, el uso de estas t´ecnicas est´a limitado a ciertos tipos de problemas. CINVESTAV-IPN Departamento de Computaci´on
  • 45. Optimizaci´on Evolutiva de Muchos Objetivos 29 3.2.3. Basados en informaci´on de preferencia En determinados problemas de optimizaci´on multiobjetivo, el tomador de decisio- nes (TD) solo est´a interesado en una regi´on espec´ıfica del frente de Pareto. Esto ha propiciado el desarrollo de varios AEMOs que utilizan la informaci´on de preferencia del TD para guiar la b´usqueda hacia la regi´on de inter´es. El uso de las preferencias del usuario permite evitar dos de las dificultades que se presentan en problemas con m´as de tres objetivos. En primer lugar, la b´usqueda se puede enfocar en la regi´on de inter´es para el tomador de decisiones y no es necesario aproximar todo el frente de Pareto; de esta manera, se reduce el n´umero de evaluaciones realizadas. En se- gundo lugar, la informaci´on sobre las preferencias del TD permite diferenciar entre soluciones no dominadas durante el proceso de b´usqueda. Esto aumenta la presi´on de selecci´on en la poblaci´on y ayuda a la convergencia del AEMO. Seg´un la interacci´on del tomador de decisiones con el proceso de b´usqueda, los AE- MOs basados en informaci´on de preferencia se pueden clasificar en: m´etodos a priori, m´etodos a posteriori y m´etodos interactivos. En un m´etodo a priori, la informaci´on de preferencia se conoce antes de iniciar el proceso de optimizaci´on. Si el tomador de decisiones est´a interesado en una ´unica soluci´on en el frente de Pareto, el problema multiobjetivos se puede transformar en una funci´on escalar. Los m´etodos a posteriori usan la informaci´on de preferencia despu´es de terminado el proceso de b´usqueda. En este caso, el TD selecciona la soluci´on que prefiere de la aproximaci´on del frente de Pareto. En cambio, los m´etodos interactivos muestran al tomador de decisiones las soluciones obtenidas en cada etapa del proceso de b´usqueda; de esta manera, el TD puede comprender mejor el problema y entregar m´as informaci´on sobre las soluciones deseadas. De las tres variantes existentes, los m´etodos a priori y los interactivos son los de m´as inter´es para solucionar problemas con muchos objetivos. La relaci´on de preferencia propuesta por Fonseca y Fleming [54, 102] fue uno de los primeros intentos de incorporar informaci´on de preferencia en un AEMO. Esta relaci´on considera tanto los valores del punto de referencia (soluci´on deseada por el TD) como la prioridad que otorga el TD a cada objetivo. Seg´un esta relaci´on, primero se comparan las soluciones teniendo en cuenta el grupo de objetivos con mayor prio- ridad. Si los valores de los objetivos en ambas soluciones igualan los valores del punto de referencia o difieren de ´estos en igual forma, entonces se comparan las soluciones considerando el siguiente grupo de objetivos con mayor prioridad. Este proceso con- tin´ua hasta alcanzar el grupo de objetivos con menor prioridad, donde las soluciones son comparadas utilizando la dominancia de Pareto. Una de las deficiencias de esta relaci´on es que depende de la factibilidad del punto de referencia. Si el punto de refe- rencia se encuentra alejado de la regi´on factible del problema, entonces las soluciones s´olo ser´an comparadas en t´erminos de la prioridad de cada objetivo. Adem´as, esta relaci´on no considera el grado de similitud entre una soluci´on y el punto de referencia. Deb [103] propone una t´ecnica para transformar un problema de programaci´on por metas en un problema de optimizaci´on multiobjetivo que es solucionado con un AEMO. En un problema de optimizaci´on por metas, el tomador de decisiones indica los valores que desea alcanzar en cada objetivo y estos valores son incorporados CINVESTAV-IPN Departamento de Computaci´on
  • 46. 30 Cap´ıtulo 3 al problema mediante restricciones. La funci´on objetivo se construye de forma tal que se minimice la diferencia entre el valor de los objetivos originales y los valores establecidos por el TD. El m´etodo presentado en [103], al igual que la propuesta de Fonseca y Fleming [102], es sensible a la factibilidad del punto de referencia. Si este punto se encuentra en la regi´on factible, puede impedir la generaci´on de una soluci´on mejor. En cambio, si se encuentra muy alejado de la regi´on factible, la informaci´on que brinda este punto de referencia no genera efecto alguno en la b´usqueda. Branke et al. [104] proponen un AEMO que incorpora las preferencias del tomador de decisiones mediante el grado de compromiso entre cada par de objetivos. En este m´etodo, el TD debe indicar, por cada par de objetivos fi y fj, el n´umero de unidades en fi que corresponden a un cambio de una unidad en fj y viceversa. Los autores proponen una relaci´on de preferencia que utiliza esta informaci´on para guiar el AEMO hacia regiones espec´ıficas del frente de Pareto. El principal inconveniente de esta propuesta es que requiere el grado de compensaci´on entre cada par de objetivos, lo cual es muy dif´ıcil obtener en problemas con un gran n´umero de objetivos. Adem´as, este m´etodo s´olo puede aplicarse en problemas con un frente de Pareto convexo. Deb y Sundar [105] modificaron el mecanismo de selecci´on en el NSGA-II para dirigir la b´usqueda hacia ciertas regiones del frente de Pareto que est´en representadas por puntos de referencia. En el algoritmo propuesto (R-NSGA-II) se utiliza un nuevo criterio de selecci´on para discriminar entre soluciones no dominadas. Este operador asigna mayor relevancia a las soluciones no dominadas que est´en m´as cercanas a los puntos de referencia. R-NSGA-II puede obtener varias soluciones no dominadas alrededor de cada punto de referencia. La deficiencia de este algoritmo es que s´olo puede garantizar soluciones d´ebilmente no dominadas, sobre todo en problemas con el frente de Pareto discontinuo [106]. Molina et al. [107] modificaron la dominancia de Pareto para incorporarle in- formaci´on de preferencia. La relaci´on obtenida, llamada dominancia-g, clasifica las soluciones en dos tipos. El primer tipo re´une las soluciones que satisfacen todos los valores del punto de referencia o que no satisfacen ninguno. Las dem´as soluciones forman parte del segundo tipo. Seg´un la dominancia-g, las soluciones del primer tipo son las preferidas. Esto tiene como consecuencia que las soluciones dominadas son preferidas sobre aquellas con mejores valores en alguno de los objetivos. Esta relaci´on puede ser utilizada en cualquier AEMO y permite obtener un conjunto de soluciones alrededor de cada punto de referencia. Thiele et al. [90] presentaron una variante del algoritmo evolutivo IBEA [91], en la cual incorporaron una funci´on de utilidad para manejar informaci´on de preferencia. Este algoritmo pertenece a la clase de m´etodos interactivos, pues en cada generaci´on le solicita al tomador de decisiones que especifique puntos de referencia. En esta versi´on de IBEA, la aptitud de cada individuo se obtiene al dividir el valor del indicador (el cual se maximiza) por el valor de la funci´on de utilidad. El valor de esta funci´on se reduce a medida que la soluci´on evaluada se acerca al punto de referencia. De esta manera, entre dos soluciones con igual valor en el indicador, es preferida la soluci´on m´as cercana al punto de referencia. CINVESTAV-IPN Departamento de Computaci´on
  • 47. Optimizaci´on Evolutiva de Muchos Objetivos 31 Sindhya et al. [108] tambi´en proponen un esquema interactivo basado en un algo- ritmo evolutivo. En este trabajo, el problema original se transforma en un problema mono-objetivo incorporando la informaci´on de preferencia mediante una funci´on de utilidad. El vector de pesos y el punto de referencia que utiliza esta funci´on son en- tregados por el tomador de decisiones en cada generaci´on del algoritmo. La principal limitaci´on de este algoritmo es que obtiene una ´unica soluci´on, lo cual ocurre por la transformaci´on del problema original en un problema mono-objetivo. Gong et al. [109] modificaron el algoritmo evolutivo basado en descomposici´on MOEA/D [9] para obtener un m´etodo interactivo que incorpore las preferencias del tomador de decisiones. En cada generaci´on del m´etodo propuesto, el TD selecciona su soluci´on preferida entre las encontradas en esa etapa. A continuaci´on, todos los vectores de pesos se redistribuyen alrededor de la soluci´on seleccionada y se realiza otra generaci´on del MOEA/D utilizando los nuevos vectores de pesos. El aspecto negativo de esta t´ecnica es que no permite explorar una vez m´as las regiones que ya han sido desestimadas. Esto puede provocar que la regi´on descubierta del frente de Pareto no sea la deseada por el TD. Recientemente, Deb y Jain [16] presentaron NSGA-III, que es una versi´on del NSGA-II basada en preferencias para lidiar con problemas de muchos objetivos. Este algoritmo utiliza un conjunto de puntos de referencia que pueden ser calculados por el propio m´etodo o entregados por el tomador de decisiones. Estos puntos de refe- rencia representan las regiones del frente de Pareto que deben ser descubiertas. Para discriminar entre dos soluciones no dominadas reemplazaron el segundo criterio de selecci´on del NSGA-II por una funci´on de utilidad. El valor de esta funci´on indica la relevancia de una soluci´on para aproximar un punto de referencia. La efectividad de este algoritmo fue analizada en varios problemas de hasta 15 objetivos. Los resulta- dos experimentales mostraron que posee un desempe˜no competitivo con respecto a MOEA/D. Un variante de NSGA-III para solucionar problemas con restricciones fue propuesta en [110]. L´opez y Coello [106] propusieron una relaci´on de preferencia que permite incorpo- rar en un AEMO las preferencias del tomador de decisiones, sin necesidad de modificar la estructura original del algoritmo. Adem´as, basado en esta relaci´on de preferencia, presentan un m´etodo interactivo que requiere una cantidad m´ınima de informaci´on del tomador de decisiones. La relaci´on propuesta divide el espacio objetivo en dos subespacios. Las soluciones presentes en el subespacio m´as cercano al punto de refe- rencia son comparadas utilizando la dominancia de Pareto y el resto de las soluciones son diferenciadas con base en una funci´on de utilidad. Esta relaci´on permite obtener un conjunto de soluciones no dominadas alrededor del punto de referencia. El algorit- mo propuesto fue utilizado para solucionar un problema de ingenier´ıa con instancias de hasta seis objetivos. Los resultados experimentales mostraron la efectividad del m´etodo para descubrir soluciones en regiones espec´ıficas del frente de Pareto. Una gran parte de las t´ecnicas propuestas para incorporar informaci´on de prefe- rencia en los AEMOs ha mostrado su efectividad al lidiar con problemas de cuatro o m´as objetivos. Sin embargo, estos m´etodos requieren de la intervenci´on del toma- CINVESTAV-IPN Departamento de Computaci´on
  • 48. 32 Cap´ıtulo 3 dor de decisiones para identificar las regiones de inter´es. Adem´as, cuando aumenta el n´umero de objetivos, la cantidad de informaci´on requerida se hace mayor y en los m´etodos interactivos la informaci´on se le solicita al TD varias veces durante la b´usque- da. Otro problema se presenta durante el an´alisis que debe realizar el TD para preferir una soluci´on (o regi´on del espacio objetivo) en una etapa intermedia de la b´usqueda, pues en problemas con m´as de tres objetivos resulta compleja la visualizaci´on de las soluciones. Por ´ultimo, la mayor parte de los m´etodos basados en informaci´on de pre- ferencia no son capaces de encontrar soluciones en diferentes regiones del frente de Pareto sin tener informaci´on previa (brindada por el TD) sobre su localizaci´on. 3.2.4. Basados en indicadores Entre las diversas t´ecnicas que se han desarrollado para mejorar el desempe˜no de los AEMOs en problemas con m´as de tres objetivos, los esquemas de selecci´on basados en un indicador de desempe˜no han sido de las m´as populares [6, 8, 19]. Un indicador de desempe˜no es una medida cuantitativa de la calidad con que un conjunto de soluciones no dominadas representa el frente de Pareto. Debido a que la efectividad de los AEMOs es generalmente evaluada con estos indicadores [3], cada vez son m´as las propuestas que transforman el problema multiobjetivo original en el problema de optimizar uno de estos indicadores [6]. Los indicadores n-arios comparan la calidad relativa de n conjuntos de soluciones no dominadas. En el caso de un indicador unario, su valor representa la calidad del conjunto de soluciones seg´un un criterio espec´ıfico (puede ser convergencia, diversidad o ambas). El hipervolumen [111] es un indicador unario que se ha convertido en la opci´on m´as popular de los AEMOs basados en indicadores [8, 19]. La principal ventaja del hipervolumen es su compatibilidad con la dominancia de Pareto [3]. Adem´as, se ha demostrado que maximizar su valor es equivalente a encontrar el frente de Pareto ´optimo [20, 21]. Knowles y Corne [112] presentaron uno de los primeros AEMOs que utiliza el hipervolumen en su esquema de selecci´on. Este algoritmo mantiene una poblaci´on secundaria con las mejores soluciones encontradas durante el proceso de b´usqueda. En cada generaci´on, una nueva soluci´on no dominada sustituye a otra de la poblaci´on secundaria si al agregarla aumenta el hipervolumen del conjunto. Los autores proba- ron (bajo ciertas condiciones) la convergencia y buena distribuci´on de las soluciones obtenidas con este algoritmo. Zitzler y K¨unzli [91] propusieron un esquema general (Indicator Based Evolutio- nary Algorithm IBEA) para incorporar un indicador arbitrario en el mecanismo de selecci´on de los AEMOs. En este esquema, las soluciones son comparadas utilizando un indicador binario que conserve la relaci´on de dominancia. En [91] se presentan dos variantes de IBEA, una basada en el indicador- y la otra basada en una versi´on bi- naria del hipervolumen. Debido a que en IBEA no se utiliza la dominancia de Pareto, la capacidad de b´usqueda no se deteriora con el aumento del n´umero de objetivos. En varios estudios se ha comprobado la efectividad de este esquema para converger hacia el frente de Pareto y al mismo tiempo se ha detectado su deficiencia en cuanto CINVESTAV-IPN Departamento de Computaci´on
  • 49. Optimizaci´on Evolutiva de Muchos Objetivos 33 a la diversidad de las soluciones encontradas [113, 114]. Beume et al. [18] propusieron el algoritmo SMS-EMOA (S metric selection Evolu- tionary Multi-Objective Optimization Algorithm), el cual utiliza el hipervolumen como criterio de selecci´on en una estrategia evolutiva del tipo (µ + 1). Este algoritmo se basa en la propiedad del hipervolumen, seg´un la cual, maximizar este indicador per- mite descubrir el frente de Pareto ´optimo. Para lograr esto, SMS-EMOA combina el ordenamiento de soluciones no dominadas de NSGA-II [61] con el criterio de selecci´on basado en la contribuci´on al hipervolumen propuesto por Knowles y Corne [112]. En el Algoritmo 3 se describen las etapas principales del SMS-EMOA. Este m´etodo inicia con una poblaci´on aleatoria de N individuos. En cada generaci´on, se obtiene un nuevo individuo aplicando los operadores de variaci´on (los mismos de NSGA-II) sobre la poblaci´on actual. A continuaci´on, se realiza un ordenamiento de las soluciones uti- lizando el m´etodo propuesto en NSGA-II y se obtienen h conjuntos (Ri, i = 1, . . . , h). En cada conjunto Ri las soluciones son no dominadas entre s´ı y las soluciones de Ri dominan a las de Rj si i < j. Finalmente, para cada soluci´on en Rh se calcula su contribuci´on al hipervolumen y es eliminada la soluci´on que contribuye en menor medida al hipervolumen de Rh. Este proceso se repite hasta satisfacer la condici´on de parada. Algoritmo 3 SMS-EMOA Input: POM, criterio de parada y n´umero de individuos (N) Output: Aproximaci´on del frente de Pareto. 1: Generar una poblaci´on inicial aleatoria: P(1) ← x (1) 1 , x (1) 2 , . . . , x (1) N 2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , N 3: while no se cumpla el criterio de parada do 4: Generar hijo x(t+1) de la poblaci´on P(t) utilizando los operadores de variaci´on 5: Evaluar f(x(t+1) ) 6: {R1, . . . , Rh} ← ordenar P(t) ∪ x(t+1) //Ordenamiento del NSGA-II [61] 7: ∀x ∈ Rh : r(x) ← CHV (x, Rh) //Calcular la contribuci´on al Hipervolumen 8: xmin ← arg min x∈Rh r(x) 9: P(t+1) ← P(t) {xmin} 10: t ← t + 1 11: end while 12: return P(t) SMS-EMOA garantiza que el hipervolumen del conjunto de soluciones no dismi- nuya de una generaci´on a otra. Esto evita que las soluciones se alejen del frente de Pareto, a diferencia de lo que ocurre con los operadores de diversidad de otros AE- MOs [68]. Sin embargo, el uso del hipervolumen como criterio de selecci´on presenta ciertas dificultades. En primer lugar, este indicador otorga mayor preferencia a las soluciones que est´en en regiones convexas [111], lo cual impide obtener la misma dis- tribuci´on en todo el frente de Pareto. En segundo lugar, el c´alculo del hipervolumen CINVESTAV-IPN Departamento de Computaci´on
  • 50. 34 Cap´ıtulo 3 requiere que los valores de los objetivos est´en normalizados. Adem´as, Knowles y Cor- ne [112] mostraron c´omo la variaci´on del punto de referencia puede causar un cambio dr´astico en el valor del hipervolumen. Esto provoca que las relaciones de orden entre dos conjuntos, seg´un este indicador, dependan del punto de referencia seleccionado. A pesar de los inconvenientes anteriores, los AEMOs basados en hipervolumen han mostrado un desempe˜no muy competitivo con respecto a los dem´as t´ecnicas en pro- blemas con dos y tres objetivos. Sin embargo, la mayor dificultad de utilizar este indicador es que su costo computacional crece de manera exponencial con el n´umero de objetivos [22]. La complejidad de orden exponencial de los algoritmos existentes para calcular el hipervolumen ha limitado el uso de este indicador en problemas con m´as de tres objetivos [8]. Debido a esto, Brockhoff y Zitzler [23] propusieron un esquema general (SIBEA) para combinar las estrategias de reducci´on del n´umero de objetivos con la b´usqueda evolutiva basada en el hipervolumen. En este trabajo se estudia la efec- tividad de las t´ecnicas de reducci´on δ-MOSS y k-EMOSS [87] al ser utilizadas en el esquema propuesto para solucionar problemas de hasta nueve objetivos. Los re- sultados experimentales mostraron que, considerando el mismo tiempo de c´omputo, utilizar k-EMOSS mejora la convergencia de SIBEA. Esto es posible porque se puede calcular un mayor n´umero de veces el valor del hipervolumen cuando disminuye el n´umero de objetivos. Sin embargo, para que sea efectivo este esquema, se debe reducir el problema a menos de seis objetivos. Otra de las t´ecnicas empleadas para mejorar la eficiencia de los AEMOs basados en el hipervolumen es la aproximaci´on de este indicador utilizando el muestreo de Monte Carlo. Bader y Zitzler [24] proponen el algoritmo HypE (Hypervolume Estimation Algorithm for Multi-Objective Optimization), el cual utiliza un n´umero determinado de muestras para aproximar la contribuci´on de cada individuo al hipervolumen de la poblaci´on. La precisi´on de esta aproximaci´on se puede aumentar utilizando un mayor n´umero de muestras en el espacio objetivo, pero esto provocar´ıa un aumento en el tiempo de c´omputo del algoritmo. Los resultados experimentales presentados en [24] mostraron el desempe˜no competitivo de HypE con respecto a NSGA-II [61], SPEA2 [62] y IBEA (basado en el indicador- ) [91], especialmente en problemas con m´as de tres objetivos. Recientemente, los indicadores ∆p [25] y R2 [26] han sido utilizados dentro del mecanismo de selecci´on de varios AEMOs como alternativas al hipervolumen, prin- cipalmente porque poseen un bajo costo computacional. El indicador ∆p se puede ver como la distancia de Hausdorff promediada entre un conjunto de soluciones no dominadas y el frente de Pareto ´optimo. ∆p est´a compuesto por las modificaciones de otros dos indicadores: la distancia generacional y la distancia generacional invertida. De esta manera, ∆p puede evaluar simult´aneamente la convergencia y la diversidad de las soluciones. Sin embargo, el c´alculo de este indicador requiere de un conjunto que sea representativo del frente de Pareto ´optimo. Distintas estrategias han sido propuestas para calcular este conjunto de referencia. Por ejemplo, Gerstl et al. [115] realizan una aproximaci´on lineal de las soluciones no dominadas para construir el con- CINVESTAV-IPN Departamento de Computaci´on
  • 51. Optimizaci´on Evolutiva de Muchos Objetivos 35 junto de referencia. Este m´etodo se propuso para problemas con dos objetivos y los resultados experimentales mostraron su efectividad para lograr convergencia y buena distribuci´on de las soluciones. Trautmann et al. [28] presentaron una extensi´on del m´etodo anterior para m´as de tres objetivos. En esta propuesta, primero se proyectan los vectores objetivos de las soluciones no dominadas en un espacio de dos dimensio- nes y luego se obtiene la aproximaci´on lineal. Sin embargo, este algoritmo posee un alto costo computacional y solo fue aplicado a problemas con tres objetivos. Rudolph et al. [116] proponen utilizar un m´etodo para triangular las soluciones no dominadas y obtener de esta forma el conjunto de referencia. Este m´etodo es m´as eficiente que el presentado en [28] y permite obtener soluciones bien distribuidas en todo el frente de Pareto, pero s´olo se aplica a problemas de tres objetivos. Rodr´ıguez y Coello [27] proponen comparar dos soluciones no dominadas utilizan- do la contribuci´on de cada una al indicador ∆p. El algoritmo propuesto (∆p-DDE) construye el conjunto de referencia como un forma escalonada de los individuos no dominados. Los resultados experimentales muestran un desempe˜no competitivo de ∆p-DDE respecto a SMS-EMOA, especialmente en cuanto al tiempo de ejecuci´on. Las principales limitaciones de esta propuesta son la p´erdida de diversidad de las soluciones al aumentar el n´umero de objetivos y su dificultad para lidiar con frentes de Pareto discontinuos. El indicador R2 [26] ha sido otra de las medidas de desempe˜no que se ha incor- porado recientemente en varios AEMOs. Este indicador fue propuesto inicialmente para comparar dos aproximaciones del frente de Pareto con base en un conjunto de funciones de utilidad. Se ha comprobado que este indicador es d´ebilmente mon´otono y posee cierta correlaci´on con el hipervolumen [31]. Estas propiedades, y el bajo costo computacional que posee, lo convierten en una buena opci´on para sustituir al hiper- volumen durante la soluci´on de problemas con muchos objetivos. Una de los primeros intentos de incorporar R2 en un AEMO fue el algoritmo R2-EMOA (R2 Evolutionary Multi-Objective Algorithm) propuesto por Trautmann et al. [29]. Este algoritmo es una modificaci´on de SMS-EMOA donde se sustituye el hipervolumen por el indicador R2, lo cual reduce el tiempo de c´omputo y permite su aplicaci´on a problemas con m´as de tres objetivos. Por su parte, Phan y Suzuki [30] proponen R2-IBEA (R2 Indicator Based Evolutionary Algorithm), el cual es una variante de IBEA [91] que incorpora el indicador R2. Los resultados experimentales obtenidos en [29] y [30] muestran que el uso del indicador R2 como reemplazo del hipervolumen puede lograr resultados competitivos en problemas con m´as de tres objetivos. Las propuestas analizadas reflejan el creciente inter´es de los investigadores del ´area por los AEMOs basados en indicadores. Principalmente, por la calidad de las soluciones encontradas con los algoritmos que utilizan el hipervolumen. Sin embargo, el costo computacional de este indicador limita su aplicaci´on a problemas con menos de cuatro objetivos. Esto ha motivado el desarrollo de m´etodos m´as eficientes para su c´alculo y el uso de indicadores alternativos que posean propiedades similares. Ambas tendencias han logrado avances significativos en cuanto al tiempo de c´omputo, pero no en igual medida en cuanto a la calidad de las soluciones. CINVESTAV-IPN Departamento de Computaci´on
  • 52. 36 Cap´ıtulo 3 3.2.5. Basados en descomposici´on Los m´etodos basados en descomposici´on transforman un problema de optimiza- ci´on multiobjetivo en un conjunto de subproblemas de optimizaci´on mono-objetivo. Aunque estos m´etodos son muy frecuentes en la programaci´on matem´atica, no fue hasta despu´es de la propuesta de Zhang y Li [9] que lograron una mayor presencia en la optimizaci´on evolutiva. El algoritmo propuesto en [9] (Multi-objective Evolutionary Algorithm based on Decomposition MOEA/D) optimiza simult´aneamente todos los subproblemas mediante la evoluci´on de una poblaci´on de soluciones. Cada individuo de la poblaci´on es asociado con un subproblema y pertenece a una vecindad de solu- ciones que comparten informaci´on durante la b´usqueda. El valor del objetivo de cada subproblema se calcula con una funci´on de utilidad que incorpora el valor de todos los objetivos del problema original. En el Algoritmo 4 se presentan las etapas principales de MOEA/D. Algoritmo 4 MOEA/D Input: POM, criterio de parada, n´umero de individuos (N), funci´on de uti- lidad (u), tama˜no de la vecindad (T), conjunto de vectores de pesos W = wi | wi ∈ [0, 1]k , k j=1 wj i = 1, i = 1, . . . , N Output: Aproximaci´on del frente de Pareto. 1: Generar una poblaci´on inicial aleatoria: P ← {x1, x2, . . . , xN } 2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , N 3: Crear la poblaci´on secundaria: PS ← ∅ 4: Calcular los T vecinos de cada vector: wi.V ← vecindad(W, wi, T), i = 1, . . . , N 5: Calcular el punto de referencia z : zi ← m´ınj=1,...,N fi(xj), i = 1, . . . , k 6: while no se cumpla el criterio de parada do 7: for i = 1 to N do 8: p, q ← random(wi.V ) //Seleccionar dos soluciones de la vecindad 9: y ← generar(xp, xq) //Aplicar los operadores de variaci´on de un AG 10: Evaluar el hijo: f(y) 11: Actualizar z : ∀j = 1, . . . , k si zj > fj(y) entonces zj ← fj(y) 12: Actualizar wi.V : ∀j ∈ wi.V si u(f(y) | wj, z) ≤ u(f(xj) | wj, z) entonces xj ← y 13: Actualizar PS : (a) Eliminar de PS todos los vectores dominados por f(y) (b) Agregar f(y) a PS si ning´un vector de PS domina a f(y) 14: end for 15: end while 16: return PS MOEA/D puede descomponer el problema de optimizaci´on multiobjetivo utilizan- do cualquiera de las funciones de utilidad existentes. Entre las distintas posibilidades, la funci´on de Tchebycheff (ver 3.6) ha sido la opci´on m´as frecuente, pues se ha com- probado que para toda soluci´on ´optima del frente de Pareto (x∗ ) existe un vector de CINVESTAV-IPN Departamento de Computaci´on
  • 53. Optimizaci´on Evolutiva de Muchos Objetivos 37 Algoritmo 5 MOEA/D-DE Input: POM, criterio de parada, n´umero de individuos (N), funci´on de utilidad (u), tama˜no de la vecindad (T), m´aximo n´umero de reemplazos (nr), probabili- dad de seleccionar los padres en la vecindad (δ), conjunto de vectores de pesos W = wi | wi ∈ [0, 1]k , k j=1 wj i = 1, i = 1, . . . , N Output: Aproximaci´on del frente de Pareto. 1: Generar una poblaci´on inicial aleatoria: P ← {x1, x2, . . . , xN } 2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , N 3: Calcular los T vecinos de cada vector: wi.V ← vecindad(W, wi, T), i = 1, . . . , N 4: Calcular el punto de referencia z : zi ← m´ınj=1,...,N fi(xj), i = 1, . . . , k 5: while no se cumpla el criterio de parada do 6: for i = 1 to N do 7: d ← random(0, 1) 8: if d < δ then 9: Q ← wi.V //Los padres se tomar´an de la vecindad 10: else 11: Q ← {1, . . . , N} //o de toda la poblaci´on 12: end if 13: r1 ← i 14: r2, r3 ← random(Q) 15: y ← generar(xr1, xr2, xr3) //Aplicar los operadores de variaci´on de la ED 16: y ← mutaci´on(y) //Aplicar el operador de mutaci´on 17: Evaluar el hijo: f(y) 18: Actualizar z : ∀j = 1, . . . , k si zj > fj(y) entonces zj ← fj(y) 19: c = 0 //Inicia la actualizaci´on de las soluciones 20: while c = nr and Q = ∅ do 21: j ← random(Q) 22: si u(f(y) | wj, z) ≤ u(f(xj) | wj, z) entonces xj ← y 23: c ← c + 1 //No se pueden reemplazar m´as de nr soluciones 24: Q ← Q {j} 25: end while 26: end for 27: end while 28: return P CINVESTAV-IPN Departamento de Computaci´on
  • 54. 38 Cap´ıtulo 3 pesos w tal que x∗ es el ´optimo de 3.6. Como se muestra en el Algoritmo 4, MOEA/D puede minimizar simult´aneamente la funci´on 3.6 para N vectores de pesos distintos, lo que permite obtener N soluciones del frente de Pareto. Durante el proceso evoluti- vo, la mejor soluci´on encontrada para cada subproblema se conserva en la poblaci´on secundaria y s´olo puede ser sustituida por las nuevas soluciones que provienen de su vecindad. La vecindad se define para cada vector de pesos w como el conjunto de los T vectores m´as cercanos a w (considerando la distancia euclidiana). u(f(x) | wj, z) = m´ax i=1,...,k wi j | fi(x) − zi | (3.6) En un trabajo posterior, Li y Zhang [10] propusieron una versi´on de MOEA/D basada en la evoluci´on diferencial (MOEA/D-DE). Esta propuesta se distingue en varios aspectos de MOEA/D. En primer lugar, utiliza la mutaci´on polinomial y los operadores de la evoluci´on diferencial; estos ´ultimos poseen un mejor desempe˜no en la b´usqueda que los operadores gen´eticos. Adem´as, agrega dos par´ametros al algoritmo para evitar la p´erdida de la diversidad (en el Algoritmo 5 se describen las etapas fundamentales de MOEA/D-DE). La primer medida utilizada en MOEA/D-DE para mantener la diversidad, consiste en permitir, con una baja probabilidad (1 − δ), que los padres de una soluci´on procedan de regiones distintas a la vecindad del subpro- blema. Una de las caracter´ısticas negativas de MOEA/D, es que una soluci´on puede reemplazar a todos sus vecinos. Esto provoca que se pierda la diversidad en la regi´on que la contiene y resulte dif´ıcil para los operadores de variaci´on generar una mejor soluci´on. Para evitar esta dificultad, MOEA/D-DE utiliza el par´ametro nr, el cual establece el n´umero m´aximo de soluciones que pueden ser reemplazadas por un mismo individuo. Diversos estudios han mostrado que la efectividad de MOEA/D y MOEA/D-DE, depende en cierta medida de la funci´on de utilidad y de la distribuci´on de los vectores de pesos. Esto ha motivado el desarrollo de nuevas funciones de utilidad que puedan incorporarse en estos algoritmos y de m´etodos que generen vectores de pesos uni- formemente espaciados. Un ejemplo del primer tipo de propuestas se presenta en el trabajo de Ishibuchi et al. [15]. La propuesta realizada en [15] emplea distintas funcio- nes de utilidad al pasar de una generaci´on a otra y entre distintos individuos. Seg´un los autores, de esta manera se puede lidiar con diferentes tipos de frentes de Pareto. Por su parte, Ma et al. [14] proponen utilizar una modificaci´on de la descomposici´on de Tchebycheff. Esta modificaci´on hace coincidir la direcci´on de la soluci´on ´optima del subproblema y la direcci´on del vector de pesos correspondiente, lo cual mejora la distribuci´on de las soluciones encontradas. Otro grupo de m´etodos se ha concentrado en la generaci´on de los vectores de pesos. Jiang et al. [11] proponen un m´etodo para adaptar autom´aticamente los vectores de pesos seg´un las caracter´ısticas geom´etricas del frente de Pareto. Sin embargo, este m´etodo solo fue analizado en problemas de dos y tres objetivos y supone ciertas propiedades del frente de Pareto. Recientemente, al- gunos trabajos se han enfocado en las t´ecnicas de dise˜no uniforme [12, 13, 14] o el uso del hipervolumen [30], para construir el conjunto de vectores de pesos uniformemente distribuidos. CINVESTAV-IPN Departamento de Computaci´on
  • 55. Cap´ıtulo 4 Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres En este cap´ıtulo proponemos un algoritmo evolutivo multiobjetivo (AEMO) con un mecanismo de selecci´on que no utiliza la dominancia de Pareto ni un indicador de desempe˜no. La motivaci´on principal de este AEMO consiste en evitar los problemas de escalabilidad que presentan los esquemas de selecci´on basados en la dominancia de Pareto y el elevado costo computacional en que se incurre al seleccionar los indi- viduos con base en su contribuci´on al hipervolumen. El algoritmo que presentamos, denominado evoluci´on diferencial h´ungara (EDH), utiliza la evoluci´on diferencial para generar las posibles soluciones y transforma el proceso de selecci´on en un problema de asignaci´on lineal, el cual se resuelve con el algoritmo de Kuhn-Munkres, tambi´en conocido como m´etodo h´ungaro. En la primera secci´on de este cap´ıtulo se discuten las deficiencias de algunos algoritmos basados en descomposici´on que se relacionan con nuestro trabajo y poste- riormente se presenta nuestra propuesta. La segunda secci´on describe el algoritmo de Kuhn-Munkres, utilizado para solucionar los problemas de asignaci´on lineal en los que transformamos el proceso de selecci´on de cada generaci´on. La construcci´on de estos problemas de asignaci´on requiere de un conjunto de vectores de pesos uniformemente distribuidos en el espacio de los objetivos. El algoritmo m´as com´unmente utilizado para generar los vectores de pesos es el m´etodo simplex-lattice. En la ´ultima secci´on se analizan las principales deficiencias de este m´etodo y se propone un algoritmo basado en el dise˜no uniforme. 4.1. Evoluci´on diferencial h´ungara En el Cap´ıtulo 3 se analizaron las principales deficiencias de los AEMOs actuales al lidiar con problemas de optimizaci´on de m´as de tres objetivos. La mayor dificul- tad que presentan estos algoritmos cuando crece el n´umero de objetivos consiste en 39
  • 56. 40 Cap´ıtulo 4 seleccionar los individuos que deben sobrevivir de una generaci´on a otra. Diversos en- foques se han propuesto para enfrentar este problema, siendo los algoritmos basados en descomposici´on uno de los m´as efectivos. En este tipo de algoritmos, el problema de optimizaci´on multiobjetivo se transforma en un conjunto de subproblemas de op- timizaci´on escalar, de tal forma que la soluci´on de cada subproblema represente una regi´on distinta del frente de Pareto. MOEA/D [9] es considerado el principal exponente de los algoritmos basados en descomposici´on. Este algoritmo evoluciona de forma simult´anea un conjunto de indivi- duos que representan las soluciones de cada subproblema de optimizaci´on escalar. De esta manera, permite obtener en una ´unica ejecuci´on varias soluciones que aproximen el frente de Pareto. Sin embargo, MOEA/D presenta dos deficiencias fundamentales que atentan contra la diversidad de las soluciones. En primer lugar, s´olo se puede obtener una nueva soluci´on al reproducir individuos de una misma vecindad (que procedan de una misma regi´on del espacio de los objetivos). La segunda deficiencia consiste en que una nueva soluci´on con elevada aptitud puede reemplazar a todas las soluciones de su vecindad. En la figura 4.1 se presenta un ejemplo donde una soluci´on sustituye a todos sus vecinos, debido a que posee un mayor valor de la funci´on de uti- lidad. Para este ejemplo se consider´o que la funci´on de utilidad es la descomposici´on de Tchebycheff modificada propuesta en [16] u(f(x) | wj, z) = m´ax i=1,...,k | fi(x) − zi | wi j (4.1) y que el punto de referencia z es el origen de coordenadas, con lo cual se pue- de determinar la aptitud de cada individuo xi, i = 1 . . . 5. Los vectores de pesos w1 = (0.45, 0.55), w2 = (0.5, 0.5), w3 = (0.55, 0.45) y w4 = (0.6, 0.4) corresponden a distintos subproblemas en los que MOEA/D descompone el problema multiobjetivo original. En una generaci´on determinada del proceso evolutivo, x1 = (0.6, 0.8), x2 = (0.7, 0.7), x3 = (0.75, 0.6) y x4 = (0.8, 0.5) son las mejores soluciones encontradas para w1, w2, w3 y w4, respectivamente. Por su parte, x5 = (0.55, 0.5) es una soluci´on generada con los individuos de su vecindad xi, i = 1 . . . 4. Utilizando la expresi´on 4.1 se obtiene que u(f(x1) | w1) = 1.33 u(f(x5) | w1) = 1.25 u(f(x2) | w2) = 1.36 u(f(x5) | w2) = 1.11 u(f(x3) | w3) = 1.40 u(f(x5) | w3) = 1.10 u(f(x4) | w4) = 1.45 u(f(x5) | w4) = 1.22. Seg´un estos valores, el individuo x5 sustituye al resto de los individuos de su vecindad como mejor soluci´on de cada subproblema. Esto provoca que una misma soluci´on se repita varias veces dentro de la poblaci´on, disminuyendo la diversidad y, por tanto, las posibles regiones a explorar. CINVESTAV-IPN Departamento de Computaci´on
  • 57. Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 41 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 f2 f1 Frente de Pareto w1 w2 w3 w4 x1 x2 x3 x4x5 Población(t) = {x1, x2, x3, x4} Población(t+1) = {x5, x5, x5, x5} Figura 4.1: Deficiencia del algoritmo MOEA/D en su proceso de actualizaci´on de las solu- ciones vecinas. Para cada vector de pesos wi, i = 1 . . . 4, la soluci´on x5 posee mayor valor de la funci´on de utilidad que las dem´as soluciones de su vecindad (xi, i = 1 . . . 4). Debido a esto, x5 pasa a ser la soluci´on de 4 subproblemas y se repite igual n´umero de veces en la poblaci´on, disminuyendo la diversidad de la misma. Li y Zhang propusieron en [10] una variante de MOEA/D con el objetivo de evitar las dos deficiencias mencionadas. Esta propuesta, denominada MOEA/D-DE, permite, con cierta probabilidad, que un nuevo individuo sea generado a partir de soluciones de distintas vecindades. Adem´as, limita a un valor predefinido el n´umero de soluciones que pueden ser reemplazadas por un mismo individuo. Sin embargo, tanto MOEA/D como MOEA/D-DE buscan el ´optimo de cada subproblema de ma- nera independiente, suponiendo que esto genera el mejor conjunto de soluciones de manera global, lo cual no siempre es correcto, tal y como se muestra en la figura 4.2. Ambos algoritmos generan una nueva soluci´on y buscan en qu´e subproblema este individuo puede sustituir a su soluci´on actual (ver figura 4.2 (a)), pero no consideran que el individuo reemplazado en un subproblema podr´ıa mejorar la soluci´on de otro subproblema (ver figura 4.2 (b)). Esto ocurre porque la asignaci´on de los individuos a cada subproblema se realiza buscando la mejor soluci´on de ´este, sin considerar la mejor asignaci´on de manera global. El algoritmo evolutivo multiobjetivo que se presentar´a a continuaci´on posee un esquema de selecci´on que evita las deficiencias de MOEA/D y MOEA/D-DE mostra- das en las figuras 4.1 y 4.2. Esto lo logra transformando el proceso de selecci´on en un problema de asignaci´on lineal que es solucionado de manera ´optima con el algorit- CINVESTAV-IPN Departamento de Computaci´on
  • 58. 42 Cap´ıtulo 4 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 f2 f1 (a) Asignación realizada por MOEA/D y MOEA/D−DE Frente de Pareto w1 w2 w3 w4 x1 x2 x3 x4 x5 Población(t) = {x1, x2, x3, x4} Población(t+1) = {x1, x5, x3, x4} u2,2 = 1.44 u5,2 = 1.36 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 f2 f1 (b) Asignación óptima global Frente de Pareto w1 w2 w3 w4 x1 x2 x3 x4 x5 Población(t) = {x1, x2, x3, x4} Población(t+1) = {x2, x5, x3, x4} u2,2 = 1.44 u1,1 = 1.58 u5,2 = 1.36 u2,1 = 1.45 Figura 4.2: Proceso de actualizaci´on de las soluciones de una vecindad. En (a) se muestra c´omo MOEA/D y MOEA/D-DE asignan el nuevo individuo x5 al subproblema correspon- diente a w2 y eliminan la soluci´on anterior x2 sin analizar si puede mejorar la soluci´on de otro subproblema. En (b) no se elimina a x2, sino que sustituye a x1 como soluci´on del subproblema que corresponde a w1, logr´andose una mejor soluci´on global. CINVESTAV-IPN Departamento de Computaci´on
  • 59. Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 43 mo de Kuhn-Munkres. El AEMO que proponemos se denomina evoluci´on diferencial h´ungara (EDH), pues adopta los operadores de reproducci´on de la evoluci´on diferen- cial para obtener las nuevas soluciones en cada generaci´on y utiliza el m´etodo h´ungaro en su esquema de selecci´on. En el Algoritmo 6 se muestran los pasos principales de EDH. Algoritmo 6 Evoluci´on diferencial h´ungara (EDH) Input: POM, tama˜no de la poblaci´on (n), n´umero m´aximo de generaciones (gmax), valores de los par´ametros Cr y F de la evoluci´on diferencial rand/1/bin Output: Pgmax (aproximaci´on de P∗ y de PF∗ ) 1: Generar una poblaci´on inicial aleatoria: P1 ← {x1, x2, . . . , xn} 2: Evaluar cada individuo de la poblaci´on: f(xi), i = 1, 2, . . . , n 3: W ← Conjunto de n vectores de pesos generados con el Algoritmo 7 (p´agina 51) 4: for g = 1 to gmax do 5: P∗ g ← Generar la descendencia de Pg utilizando los operadores de recombinaci´on de DE/rand/1/bin (ver Algoritmo 2 en la p´agina 17) 6: Evaluar cada individuo en P∗ g 7: Qg ← Pg ∪ P∗ g 8: Calcular z max y z min mediante (4.2) 9: Normalizar el valor de los objetivos de cada individuo en Qg mediante (4.3) 10: Generar la matriz de costo C mediante (4.5) utilizando Qg y W 11: I ← Obtener la asignaci´on ´optima en C utilizando el m´etodo h´ungaro presen- tado en la secci´on 4.2, en la p´agina 45 12: Pg+1 ← {xi ∈ Qg | i ∈ I , } 13: end for En cada generaci´on g del algoritmo EDH se tiene una poblaci´on Pg de n individuos padres y una poblaci´on P∗ g de n descendientes, obtenidos de Pg mediante los operado- res de recombinaci´on de la evoluci´on diferencial. Estas dos poblaciones se unen para formar el conjunto de soluciones Qg = Pg ∪P∗ g . Las 2n soluciones de Qg y un conjunto de n vectores de pesos uniformemente dispersos en el espacio objetivo se utilizan para construir un problema de asignaci´on lineal. Este problema de asignaci´on es equivalen- te al problema de seleccionar los n individuos que pasar´an a la siguiente generaci´on y se define como: Se tienen 2n soluciones y n vectores bien distribuidos en el simplex unitario de dimensi´on k−1 del espacio objetivo; adem´as, existe un costo por represen- tar cada uno de estos vectores con alguna de las soluciones que conforman la actual aproximaci´on del frente de Pareto; se requiere describir las regiones cubiertas por los n vectores de pesos utilizando solamente n individuos, de tal forma que el costo total sea m´ınimo. La etapa fundamental de la construcci´on de este problema de asignaci´on consiste en generar una funci´on de costo, de tal forma que al minimizar el costo total de las asignaciones se retengan las soluciones que sean una buena aproximaci´on del frente de Pareto. A continuaci´on, se describe el procedimiento empleado por EDH para construir este problema de asignaci´on lineal. CINVESTAV-IPN Departamento de Computaci´on
  • 60. 44 Cap´ıtulo 4 En primer lugar, el valor de cada objetivo en las 2n soluciones de Qg es nor- malizado, para reducir el espacio objetivo a un hipercubo unitario y as´ı lidiar con funciones objetivo de valores no comparables. Para ello, se construye el vector de valores m´aximos z max y el vector de valores m´ınimos z min como z max = [zmax 1 , ..., zmax k ]T , zmax i = m´ax j=1,...,2n fi(xj), i = 1, ..., k, z min = [zmin 1 , ..., zmin k ]T , zmin i = m´ın j=1,...,2n fi(xj), i = 1, ..., k, (4.2) donde fi(xj) es el valor del objetivo i-´esimo en el individuo xj ∈ Qg. El valor norma- lizado de fi(xj) se calcula como ˜fi(xj) = fi(xj) − zmin i zmax i − zmin i , j = 1, ..., 2n, i = 1, ..., k. (4.3) Con los valores normalizados de las funciones objetivo y el conjunto W ⊂ W = {w | w ∈ [0, 1]k , k i=1 wi = 1}, |W| = n, (4.4) de n vectores de pesos uniformemente dispersos en el s´ımplex de dimensi´on k − 1, se puede calcular el costo Crj de asignar el individuo xj al vector de pesos wr mediante la expresi´on Crj = m´ax i=1,...,k fi(xj) wri , r = 1, ..., n, j = 1, ..., 2n. (4.5) En esta expresi´on utilizamos la descomposici´on de Tchebycheff modificada propuesta en [16] en lugar de la descomposici´on de Tchebycheff original. Esta selecci´on es debi- da a que el vector de pesos de un subproblema y la direcci´on de su soluci´on ´optima coinciden en la versi´on modificada, pero en el caso de la descomposici´on de Tcheby- cheff original la relaci´on entre estas dos direcciones es no lineal. Por tanto, con la descomposici´on de Tchebycheff modificada si es posible controlar de manera directa la distribuci´on de las soluciones en el espacio objetivo. Los valores de la matriz C obtenida con 4.5 indican cu´an adecuada es una solu- ci´on para representar cada regi´on del frente de Pareto. Esta matriz de costo unida a las siguientes dos condiciones constituyen nuestro problema de asignaci´on lineal. La soluci´on de este problema consiste en encontrar una combinaci´on de valores de C cuya suma sea el menor valor posible y se cumplan ambas condiciones. 1. Se debe seleccionar un ´unico valor por cada fila. Esto asegura que s´olo un individuo es asignado a cada regi´on del frente de Pareto. 2. Se puede seleccionar cuando m´as un valor por cada columna. Esto asegura que un mismo individuo no sea asignado a m´as de una regi´on del frente de Pareto. CINVESTAV-IPN Departamento de Computaci´on
  • 61. Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 45 La definici´on matem´atica de este tipo de problemas se presenta en la secci´on 4.2 (ver la expresi´on (4.7)). En esa misma secci´on se explica el m´etodo empleado para su soluci´on, que consiste en una variante del algoritmo de Kuhn-Munkres para ma- trices rectangulares. Como se puede observar en (4.7), la soluci´on de un problema de asignaci´on se puede representar con una matriz. En nuestro problema, las filas de dicha matriz corresponden a los vectores de pesos y las columnas a los individuos de la poblaci´on, de tal forma que un uno en la entrada ij implica que el individuo j fue asignado al vector i. El conjunto I presente en el Algoritmo 6 (en la p´agina 43) contiene todas las columnas de la matriz soluci´on donde existe un uno. La poblaci´on Pg+1 de la siguiente generaci´on estar´a constituida por todos los individuos que hayan sido asignados. Este procedimiento se repite hasta que se satisfagan las condiciones de parada del algoritmo. La ´ultima poblaci´on de individuos Pgmax es la aproximaci´on que realiza EDH del conjunto de ´optimos de Pareto y del frente de Pareto. 4.2. Algoritmo de Kuhn-Munkres Los problemas de asignaci´on conforman una de las clases fundamentales de la optimizaci´on combinatoria. En su forma m´as general se pueden expresar como: dados un conjunto de agentes, un conjunto de tareas, las restricciones sobre cu´ales agentes pueden realizar cada tarea y el costo de esa ejecuci´on, se requiere desarrollar todas las tareas asignando un solo agente por tarea y sin repetir un mismo agente en m´as de una tarea, de manera que el costo total sea m´ınimo. El caso m´as simple de los problemas de asignaci´on son los problemas de asignaci´on lineal (PALs). En los PALs, se considera que el costo total es la suma del costo de cada asignaci´on. Adem´as, el n´umero de agentes y de tareas coincide, y cualquier agente puede ser asignado para realizar cada tarea. Formalmente, un PAL se puede formular como se indica en la Definici´on 8. Definici´on 8 (Problema de asignaci´on lineal) Dados un conjunto de agentes A = {a1, ..., an}, un conjunto de tareas T = {t1, ..., tn}, la funci´on C : A×T → R que representa el costo de realizar las tareas de T con los elementos de A y sea Φ : A → T el conjunto de todas las posibles biyecciones entre A y T. Se requiere m´ın φ∈Φ a∈A C(a, φ(a)) (4.6) Es m´as com´un que los problemas de asignaci´on lineal se formulen como problemas de programaci´on lineal entera. Para esto, la funci´on de costo C se representa como una matriz cuadrada de valores reales, donde cada elemento cij = C(ai, tj). Adem´as, el conjunto Φ de todas las posibles biyecciones entre A y T se representa como el conjunto X de todas las posibles matrices de asignaci´on. En una matriz de asignaci´on x ∈ X, las filas representan los agentes y las columnas a las tareas. En caso de ser asignado el agente i para realizar la tarea j, la entrada xij de la matriz contiene un uno, de lo contrario contiene un cero. De esta manera, un PAL se puede expresar CINVESTAV-IPN Departamento de Computaci´on
  • 62. 46 Cap´ıtulo 4 como el siguiente problema de programaci´on lineal entera. m´ın x∈X n i=1 n j=1 Cijxij sujeto a: n i=1 xij = 1, ∀j ∈ {1, .., n}, n j=1 xij ≤ 1, ∀i ∈ {1, ..., n}, xij ∈ {0, 1}, ∀i, j ∈ {1, ..., n}. (4.7) Ejemplo de un problema de asignaci´on lineal: Sea P = {P1, P2, P3} un conjunto de procesadores y T = {T1, T2, T3} un conjunto de tareas. El costo de asignar la tarea Tj al procesador Pi est´a dado por la entrada Cij de la matriz C =   T1 T2 T3 P1 1 2 3 P2 2 4 6 P3 3 6 9   Se desea minimizar el costo total de ejecutar cada tarea con un procesador distinto. La soluci´on de este problema se podr´ıa obtener mediante un m´etodo de fuerza bruta, el cual realizar´ıa una b´usqueda exhaustiva de todas las posibles combinaciones para asignar cada tarea a un procesador distinto. De esta manera, se podr´ıa calcular el costo total de cada combinaci´on y seleccionar la de menor valor. Sin embargo, el n´umero de combinaciones posibles es n!, donde n es el n´umero de tareas a realizar. En el ejemplo presentado, el valor de n es 3 y, por tanto, solo se analizar´ıan 6 com- binaciones, pero para valores mayores de n este m´etodo no es pr´actico por su alto costo computacional. Una forma de obtener en menor tiempo una posible soluci´on a este problema es utilizar una m´etodo voraz. En este caso, se podr´ıa asignar a cada tarea el procesador con menor costo que a´un no haya sido asignado. En la figura 4.3 se presentan la soluci´on obtenida con una estrategia voraz y la soluci´on ´optima del problema (se resaltan las asignaciones realizadas en cada caso). La estrategia voraz consiste en asignar cada tarea, comenzando por la primera, al procesador disponible que la ejecute con el menor costo. Aunque esta estrategia sea muy eficiente en cuan- to al costo computacional, no siempre encuentra la soluci´on ´optima, tal y como se muestra en la figura 4.3. Soluci´on voraz del PAL Soluci´on ´optima del PAL C =   T1 T2 T3 P1 1 2 3 P2 2 4 6 P3 3 6 9   C =   T1 T2 T3 P1 1 2 3 P2 2 4 6 P3 3 6 9   Figura 4.3: Soluci´on de un problema de asignaci´on lineal (PAL). CINVESTAV-IPN Departamento de Computaci´on
  • 63. Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 47 En 1955, Harold W. Kuhn [117] propuso un algoritmo de optimizaci´on combi- natoria que soluciona en tiempo polinomial los problemas de asignaci´on lineal. Este trabajo fue pionero en el ´area y, seg´un su autor, estuvo inspirado en el trabajo previo de los matem´aticos h´ungaros D. K¨onig y E. Egerv´ary; raz´on por la cual Kuhn de- nomin´o a su propuesta el M´etodo H´ungaro. Posteriormente, James Munkres revis´o el trabajo de Kuhn y le realiz´o importantes modificaciones a los aspectos te´oricos del algoritmo. Munkres determin´o que el algoritmo posee un tiempo de ejecuci´on de or- den polinomial y propuso en 1957 una versi´on de orden O(n3 ) [118]. Debido a las contribuciones que realizara Munkres al desarrollo del M´etodo H´ungaro, actualmente este m´etodo tambi´en se conoce por el nombre de Algoritmo de Kuhn-Munkres. El algoritmo de Kuhn-Munkres se construy´o para solucionar problemas de asigna- ci´on lineal donde el n´umero de agentes coincide con el n´umero de tareas y, por tanto, la matriz de costo es una matriz cuadrada. Una extensi´on de este algoritmo para matrices rectangulares fue propuesta por Bourgeois y Lassalle en 1971 [119]. La ex- tensi´on realizada al algoritmo de Kuhn-Munkres permite solucionar problemas donde el n´umero de agentes y tareas es distinto. A continuaci´on, se presenta la descripci´on de cada etapa de la extensi´on propuesta por Bourgeois y Lassalle (en la figura 4.4 se muestra un ejemplo de la ejecuci´on de este algoritmo). Paso 1: para cada fila de la matriz de costo, encontrar el menor elemento y restarlo a cada elemento de la fila. Al terminar, ir al paso 2. Paso 2: encontrar un cero en la matriz resultante del paso 1. Si no est´a marcado con un asterisco (0∗ ), ni existe otro cero marcado en su fila o columna, marcarlo. Repetir para cada cero en la matriz. Ir al paso 3. Paso 3: cubrir cada columna (marcar todas las celdas de la columna) que contenga un 0∗ . Si son cubiertas k columnas, donde k es el m´ınimo entre el n´umero de columnas y el n´umero de filas, las posiciones de los 0∗ describen un conjunto completo de asignaciones ´unicas. En este caso se termina, en caso contrario, ir al paso 4. Paso 4: encontrar un cero que no haya sido cubierto y marcarlo con una tilde (0 ). Si no existe un 0∗ en su fila, ir al paso 5. En caso contrario, cubrir su fila y descubrir la columna que contiene al 0∗ . Continuar de esta forma hasta que no existan ceros sin cubrir. Encontrar el menor valor no cubierto e ir al paso 6. Paso 5: construir la serie (Z0, Z1, Z2, . . . , Zm) alternando 0 y 0∗ como sigue. Z0 es el 0 no cubierto encontrado en el paso 4, Z1 es el 0∗ en la columna de Z0 y Z2 es el 0 en la fila de Z1 (siempre existir´a uno). Continuar de esta manera hasta que la serie termine en un 0 (representado por Zm) que no tiene 0∗ en su columna. Luego, desmarcar cada 0∗ de la serie y transformar cada 0 de la serie en un 0∗ . Posteriormente, desmarcar cada 0 que no pertenezca a la serie y descubrir todas las filas y columnas de la matriz. Volver al paso 3. CINVESTAV-IPN Departamento de Computaci´on
  • 64. 48 Cap´ıtulo 4 Paso 6: Sumar el menor valor no cubierto a cada elemento de las filas cubiertas y sustraerlo de cada elemento de las columnas no cubiertas. Volver al paso 4 sin alterar los 0 , los 0∗ y las columnas y filas cubiertas. En la figura 4.4 se muestran los pasos realizados durante la ejecuci´on del algo- ritmo de Kuhn-Munkres para solucionar el problema de asignaci´on lineal presentado anteriormente en esta secci´on. T1 T2 T3 P1 1 2 3 P2 2 4 6 P3 3 6 9 Matriz de costo T1 T2 T3 P1 0 1 2 P2 0 2 4 P3 0 3 6 Paso 1 T1 T2 T3 P1 0∗ 1 2 P2 0 2 4 P3 0 3 6 Paso 2 T1 T2 T3 P1 0∗ 1 2 P2 0 2 4 P3 0 3 6 Paso 3 T1 T2 T3 P1 0∗ 1 2 P2 0 2 4 P3 0 3 6 Paso 4 T1 T2 T3 P1 0∗ 0 1 P2 0 1 3 P3 0 2 5 Paso 6 T1 T2 T3 P1 0∗ 0 1 P2 0 1 3 P3 0 2 5 Paso 4 T1 T2 T3 P1 0 0∗ 1 P2 0∗ 1 3 P3 0 2 5 Paso 5 T1 T2 T3 P1 0 0∗ 1 P2 0∗ 1 3 P3 0 2 5 Paso 3 T1 T2 T3 P1 0 0∗ 1 P2 0∗ 1 3 P3 0 2 5 Paso 4 T1 T2 T3 P1 0 0∗ 0 P2 0∗ 1 2 P3 0 2 4 Paso 6 T1 T2 T3 P1 0 0∗ 0 P2 0∗ 1 2 P3 0 2 4 Paso 4 T1 T2 T3 P1 1 0∗ 0 P2 0∗ 0 1 P3 0 1 3 Paso 6 T1 T2 T3 P1 1 0∗ 0 P2 0∗ 0 1 P3 0 1 3 Paso 4 T1 T2 T3 P1 1 0 0∗ P2 0 0∗ 1 P3 0∗ 1 3 Paso 5 T1 T2 T3 P1 1 0 0∗ P2 0 0∗ 1 P3 0∗ 1 3 Paso 3 Figura 4.4: Ejemplo de la ejecuci´on del algoritmo de Kuhn-Munkres. 4.3. Generaci´on de vectores de pesos Existen varios AEMOs [9, 10, 16, 29, 30] que requieren, para aproximar el frente de Pareto en problemas con k objetivos, un conjunto W (ver 4.4) de vectores unifor- memente dispersos en un s´ımplex de dimensi´on k−1. Este conjunto de pesos se puede generar con diversos m´etodos presentes en la literatura especializada [120, 121]. El m´etodo m´as utilizado en los AEMOs ha sido el simplex-lattice [122], el cual produce el conjunto de puntos igualmente espaciados W = w | wi ∈ 0, 1 H , 2 H , . . . , H − 1 H , 1 , i = 1, . . . , k, k i=1 wi = 1 , (4.8) CINVESTAV-IPN Departamento de Computaci´on
  • 65. Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 49 donde H representa el n´umero de divisiones en cada objetivo. Sin embargo, este m´etodo presenta tres problemas principales [120]: 1. La distribuci´on de los vectores de pesos no es muy uniforme. En la figura 4.5 (a) se muestra el conjunto de 126 vectores de pesos generados con el simplex-lattice en un espacio de seis dimensiones. En esta figura se puede observar que cada componente de los vectores posee s´olo 5 valores distintos. Por tanto, los AEMOs que utilicen este conjunto de pesos se limitan a explorar vectores de soluci´on con poca diversidad en el valor de cada funci´on objetivo. 2. El n´umero de vectores generados aumenta de manera no lineal con respecto al n´umero de objetivos. Esto es debido a que el tama˜no del conjunto W es H+k−1 k−1 . En la figura 4.5 (b) se puede observar el crecimiento exponencial del n´umero de vectores con respecto al n´umero de objetivos para un valor fijo de H = 15. Esto dificulta mantener la misma precisi´on de muestreo del espacio a medida que aumenta el n´umero de objetivos e impide construir un conjunto de pesos de tama˜no arbitrario. 3. La mayor parte de los vectores est´an distribuidos en la frontera del s´ımplex. La figura 4.5 (c) presenta el porcentaje de vectores de pesos ubicados en la frontera del s´ımplex con respecto al total, a medida que aumenta el n´umero de objetivos (el valor de H se fij´o en 15). Se puede observar que para 7 objetivos apenas un 5 % de los vectores no son fronterizos y para 9 objetivos o m´as esta cifra no alcanza el 1 %. Esto muestra que a pesar de generar un gran n´umero de vectores (en 10 dimensiones es del orden de 106 ) no se representa correctamente el interior del s´ımplex. Para evitar las deficiencias que posee el simplex-lattice, algunos AEMOs han utili- zado otros m´etodos para generar el conjunto de vectores de pesos. En [30] se propone un algoritmo que obtiene los vectores de pesos maximizando el hipervolumen cubierto por ´estos en el espacio objetivo. Por otra parte, en [12, 13, 14] se combinan el m´etodo glp (good lattice point) [123] y el dise˜no uniforme (DU) [120] para calcular los vectores de pesos. Sin embargo, tanto el c´alculo del hipervolumen como el m´etodo glp tienen un alto costo computacional cuando aumenta el n´umero de objetivos. Recientemente, algunos autores [12, 13, 14] han optado por utilizar m´etodos de dise˜no uniforme para generar los vectores de pesos en los AEMOs. El DU es una t´ecnica que busca puntos uniformemente espaciados en un dominio [120] y ha tenido gran aplicaci´on en problemas industriales [124]. En el DU se determina el conjunto de vectores P con mejor distribuci´on en un dominio D utilizando una medida de uniformidad M. Los m´etodos de DU buscan el conjunto P∗ ⊂ D que posee el menor valor de M: P∗ = arg min P⊂D M(P). (4.9) La medida de uniformidad m´as popular es la Discrepancia–L2 Centrada (DC2) [120]. Sin p´erdida de generalidad, se puede considerar el dominio D = [0, 1]k , entonces el CINVESTAV-IPN Departamento de Computaci´on
  • 66. 50 Cap´ıtulo 4 10 1 10 2 10 3 104 105 10 6 2 3 4 5 6 7 8 9 10 Númerodevectoresdepesos Número de objetivos (b) 0.0 0.2 0.4 0.6 0.8 1.0 w1 w2 w3 w4 w5 w6 (a) 20 % 40 % 60 % 80 % 100 % 2 3 4 5 6 7 8 9 10 Vectoresdepesosenlafrontera Número de objetivos (c) Figura 4.5: Deficiencias del m´etodo simplex-lattice. En (a) se muestra la alta tasa de re- petici´on del valor de cada componente de los 126 vectores generados en un espacio de 6 dimensiones para H = 4. En (b) se presenta el crecimiento exponencial del n´umero de vec- tores y en (c) el aumento de la proporci´on de vectores fronterizos. Tanto en (b) como en (c) el valor de H se mantiene en 15 para cualquier n´umero de objetivos. valor de DC2 para un conjunto de puntos P = {x1, . . . , xn} ⊂ D se determina por la expresi´on DC2(P)2 = 13 12 k − 2 n n i=1 k j=1 1 + 1 2 |xij − 1 2 | − 1 2 |xij − 1 2 |2 + 1 n2 n i=1 n r=1 k j=1 1 + 1 2 |xij − 1 2 | + 1 2 |xrj − 1 2 | − 1 2 |xij − xrj| (4.10) La b´usqueda de P∗ cuando k > 1 es un problema NP duro, a´un para valores peque˜nos de n. Debido a esto, se ha propuesto utilizar m´etodos que aproximen el conjunto P∗ . Fang y Wang [120] recomiendan diversos m´etodos cuasi Monte-Carlo que pueden aproximar P∗ con un valor de DC2 de orden O((log n)k /n). Algunos de estos m´etodos son muy eficientes en cuanto al costo computacional, pero se limitan a determinados valores de n y k. Otros m´etodos, como el glp, obtienen buenas aproxi- maciones de P∗ para valores arbitrarios de n y k, pero requieren un elevado tiempo de c´omputo. En este trabajo, proponemos utilizar el m´etodo de Hammersley [125] para apro- ximar el conjunto P∗ de puntos uniformemente dispersos en el espacio [0, 1]k . Este algoritmo permite obtener un n´umero arbitrario de vectores k-dimensionales con una buena distribuci´on, cercana a la obtenida por glp, pero con un costo computacional muy inferior. El m´etodo de Hammersley se basa en la representaci´on p-´adica de los n´umeros naturales, seg´un la cual todo entero positivo m se puede expresar de manera ´unica utilizando como base un n´umero primo p ≥ 2: m = r i=0 bi × pi , 0 ≤ bi ≤ p − 1, i = 0, . . . , r (4.11) CINVESTAV-IPN Departamento de Computaci´on
  • 67. Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 51 Algoritmo 7 Generaci´on de los vectores de pesos Input: n´umero de objetivos (k), n´umero de vectores de pesos(n) Output: W (conjunto de vectores de pesos con baja discrepancia) 1: p ← conjunto con los primeros k − 2 n´umeros primos 2: U ← ∅ 3: for i = 1 to n do 4: ui1 ← (2i − 1)/2n 5: for j = 2 to k − 1 do 6: uij ← 0 7: f ← 1/pj−1 8: d ← i 9: while d > 0 do 10: uij ← uij + f × (d m´od pj−1) 11: d ← d/pj−1 12: f ← f/pj−1 13: end while 14: end for 15: U ← U ∪ {u} 16: end for 17: W ← Aplicar la transformaci´on (4.14) a U donde pr ≤ m < pr+1 . De la representaci´on 4.11 de todo n´umero natural m ≥ 1 se puede derivar su inverso radical yp(m) mediante la expresi´on yp(m) = r i=0 bi × p−(i+1) (4.12) donde yp(m) ∈ (0, 1). Sea k ≥ 2 y P = {p1, . . . , pk−1} un conjunto de k − 1 primos distintos, se denomina conjunto de Hammersley (CH) a los n puntos uniformemente dispersos en el espacio [0, 1]k definidos por xi = 2i − 1 2n , yp1 (i), . . . , ypk−1 (i) T , i = 1, . . . , n. (4.13) El conjunto W (ver 4.4) de vectores de pesos uniformemente dispersos en el (k − 1)-s´ımplex se puede obtener utilizando una aproximaci´on U del conjunto ´opti- mo P∗ ∈ [0, 1]k−1 . Para lograr esto, Wang y Fang [126] proponen el Dise˜no Unifor- me de Experimentos con Mezclas. Este m´etodo transforma el conjunto U = {ui = [ui1, ..., ui(k−1)]T , i = 1, ..., n} en el conjunto W = {wt = [wti, ..., wtk]T , t = 1, ..., n} de CINVESTAV-IPN Departamento de Computaci´on
  • 68. 52 Cap´ıtulo 4 la siguiente manera. wti = (1 − u 1 k−i ti ) i−1 j=1 u 1 k−j tj , i = 1, ..., k − 1, wtk = k−1 j=1 u 1 k−j tj , t = 1, ..., n. (4.14) En el presente trabajo, se genera el conjunto U utilizando el m´etodo de Hammers- ley y posteriormente se le aplica a U la transformaci´on 4.14 para obtener W. En el Algoritmo 7 se muestra el pseudoc´odigo para calcular el conjunto de vectores de pesos W. 0 0.5 1 0 0.5 1 0 0.5 1 w3 Monte Carlo w2w1 w3 0 0.5 1 0 0.5 1 0 0.5 1 w3 Diseño Uniforme w2w1 w3 0 0.5 1 0 0.5 1 0 0.5 1 w3 Simplex−lattice w2w1 w3 0 0.2 0.4 0.6 0.8 1 w1 w2 w3 w4 Monte Carlo 0 0.2 0.4 0.6 0.8 1 w1 w2 w3 w4 Diseño Uniforme 0 0.2 0.4 0.6 0.8 1 w1 w2 w3 w4 Simplex−lattice Figura 4.6: Vectores de pesos obtenidos en los s´ımplex de 3 y 4 dimensiones. A la izquierda, el conjunto generado con el m´etodo simplex-lattice. En el centro, los vectores construidos con la combinaci´on del m´etodo de Hammersley y el dise˜no uniforme de Experimentos con Mezclas. A la derecha se presentan los vectores obtenidos por muestreo aleatorio del espacio. En la figura 4.6 se muestran los vectores de pesos obtenidos mediante tres t´ecnicas distintas: el s´ımplex-lattice, el m´etodo de dise˜no uniforme presentado en el Algorit- mo 7 y el muestreo aleatorio. Se puede apreciar en esta figura que el dise˜no uniforme obtiene mucho menos elementos en la frontera que el simplex-lattice, sin perder la buena distribuci´on. Adem´as, la tasa de repetici´on del valor de cada componente de CINVESTAV-IPN Departamento de Computaci´on
  • 69. Algoritmo Evolutivo Multiobjetivo Basado en el Algoritmo de Kuhn-Munkres 53 Tabla 4.1: Uniformidad de los conjuntos de vectores de pesos generados con el m´etodo simplex-lattice, dise˜no uniforme y Monte Carlo seg´un la medida Discrepancia–L2 Centrada. Objetivos N´umero de vectores Discrepancia–L2 Centrada Simplex-lattice Dise˜no Uniforme Monte Carlo 3 120 0.332 0.336 0.374 4 120 0.630 0.643 0.703 5 126 0.959 0.987 1.068 6 126 1.308 1.394 1.509 7 210 1.733 1.883 2.021 8 120 2.318 2.476 2.674 9 165 2.938 3.178 3.431 10 220 3.686 4.036 4.343 los vectores de pesos es muy inferior. En cuanto al m´etodo de Monte Carlo (fue utili- zado el m´etodo propuesto en [127]), los vectores generados tienden a concentrarse en el centro del s´ımplex y la uniformidad de su distribuci´on es muy pobre. En la tabla 4.1 se presenta la uniformidad de la distribuci´on (seg´un la medida DC2) de los conjuntos de vectores mostrados en la figura 4.6 y de otros conjuntos generados en espacios de mayor dimensi´on. Se puede observar en los valores de esta tabla que el simplex-lattice obtiene los mejores resultados, lo cual es debido a que los vectores obtenidos con este m´etodo se encuentran igualmente espaciados entre s´ı. El deterioro de la uniformidad de los conjuntos generados por el m´etodo de dise˜no uniforme se debe a la concentraci´on de los vectores hacia el centro del s´ımplex. Este problema lo presenta de manera m´as acentuada el m´etodo de Monte Carlo, el cual, adem´as, no obtiene vectores bien espaciados entre s´ı. Sin embargo, utilizar un m´etodo de dise˜no uniforme, por ejemplo, el presentado en el Algoritmo 7, permite evitar los tres problemas principales del simplex-lattice discutidos al inicio de esta secci´on. CINVESTAV-IPN Departamento de Computaci´on
  • 70. 54 Cap´ıtulo 4 CINVESTAV-IPN Departamento de Computaci´on
  • 71. Cap´ıtulo 5 Estudio Experimental En este cap´ıtulo se presentan los resultados del estudio experimental desarro- llado para validar el algoritmo propuesto, denominado evoluci´on diferencial h´ungara (EDH). En la primera etapa de este estudio experimental se eval´ua el comportamiento de EDH al variar algunos elementos de su esquema de selecci´on, tales como la funci´on de utilidad y el dise˜no de los vectores de pesos. Este an´alisis permite validar los com- ponentes de nuestra propuesta y decidir su mejor configuraci´on. La segunda etapa consiste validar EDH comparando su desempe˜no con respecto a tres algoritmos re- presentativos del estado del arte: dos AEMOs basados en descomposici´on (MOEA/D y MOEAD-DE) y un AEMO basado en el hipervolumen (SMS-EMOA). En la sec- ci´on 5.1 se presenta la configuraci´on de los experimentos y los valores asignados a los par´ametros de cada algoritmo. En la secci´on 5.2 se analiza la influencia de cada componente del algoritmo propuesto en su desempe˜no. Por ´ultimo, en la secci´on 5.3 se discuten los resultados obtenidos por EDH y se comparan con los obtenidos por MOEA/D, MOEA/D-DE y SMS-EMOA. 5.1. Dise˜no experimental La evaluaci´on de nuestra propuesta EDH se realiz´o con base en los resultados de dos experimentos. En el primero se variaron los componentes de EDH para estudiar la influencia de ´estos en el desempe˜no del algoritmo. Los componentes analizados fueron la funci´on de utilidad y el m´etodo para generar los vectores de pesos. En el segundo experimento se aplic´o EDH a un conjunto de problemas de pruebas y se compararon sus resultados con los obtenidos por otros AEMOs representativos del estado del arte (MOEA/D, MOEA/D-DE y SMS-EMOA). En ambos experimentos se utilizaron los 16 problemas de prueba mencionados en la secci´on 2.1.1 (ver p´agina 7), de los cuales se obtienen 144 instancias distintas al variar el n´umero de objetivos entre 2 y 10. Con el prop´osito de lograr resultados m´as confiables, cada AEMO se ejecut´o 30 veces para solucionar cada instancia de problema, report´andose la media y la desviaci´on est´andar de los indicadores IHV y IIGD presentados en la secci´on 2.1.2 (ver p´agina 9). 55
  • 72. 56 Cap´ıtulo 5 Tabla 5.1: Puntos de referencia seleccionados para calcular el hipervolumen de las soluciones de cada problema con m objetivos. Estos vectores dominan el punto nadir de cada problema. Problema Punto de referencia r = [r1, . . . , rm] DTLZ 1, 2 y 4 [1.1, . . . , 1.1] DTLZ 3, 5 y 6 [3, . . . , 3] DTLZ 7 [1.1, . . . , 1.1, 2m] WFG 1-9 [2.1, . . . , 2i + 0.1, . . . , 2m + 0.1] El n´umero de variables (n) en los problemas DTLZ est´a dado por la expresi´on n = m + k. En los experimentos realizados, el valor de m (n´umero de objetivos) se vari´o entre 2 y 10, mientras que al par´ametro k se le asign´o el valor 10 en los problemas DTLZ1 a 6 y 20 en DTLZ7. En el caso de los problemas WFG, donde el n´umero de variables se determina por n = k+l, a los par´ametros k y l se les asignaron los valores 2(m − 1) y 20, respectivamente. En las instancias con 2 objetivos, el valor de k fue igual 4. En la tabla 5.1 se muestran los puntos de referencias en el espacio objetivo utilizados para calcular el hipervolumen (IHV ) de las soluciones obtenidas en cada problema. Para calcular la distancia generacional invertida (IIGD) se generaron 5000(m − 1) muestras aleatorias en el frente de Pareto verdadero de cada problema. Tabla 5.2: Valores asignados a los par´ametros de los AEMOs. EDH MOEA/D-DE MOEA/D SMS-EMOA F = 1.0* CR = 0.4 F = 1.0* CR = 0.4 pm = 1/n ηm = 20 T = 20 δ = 0.9 ηr = 2 pc = 1.0 pm = 1/n ηc = 20 ηm = 20 T = 20 pc = 1.0 pm = 1/n ηc = 20 ηm = 20 * Este valor de F corresponde a los problemas DTLZ. Para los problemas WFG se utiliz´o 0.05. Los valores asignados a los par´ametros de cada AEMO se muestran en la tabla 5.2. En el caso de MOEA/D, MOEA/D-DE y SMS-EMOA se utilizaron los valores reco- mendados por sus respectivos autores [9, 10, 18]. El algoritmo propuesto (EDH) utiliza los operadores de recombinaci´on de la evoluci´on diferencial al igual que MOEA/D- DE. En ambos algoritmos, el valor del par´ametro F se fij´o en 1.0 para todos los CINVESTAV-IPN Departamento de Computaci´on
  • 73. Estudio Experimental 57 problemas DTLZ y en 0.05 para los WFG. Por su parte, el par´ametro CR fue igual a 0.4 en todos los problemas. Adem´as de los operadores de la evoluci´on diferencial, MOEA/D-DE utiliza un operador gen´etico, la mutaci´on polinomial. Este operador posee dos par´ametros, la probabilidad de mutaci´on pm y el ´ındice de distribuci´on ηm, a los cuales se les asignaron los valores 1/n y 20, respectivamente. Los dem´as par´ame- tros de MOEA/D-DE corresponden al tama˜no de la vecindad (T), la probabilidad de que los padres de un individuo pertenezcan a su misma vecindad (δ) y el n´umero de soluciones que pueden ser reemplazadas por un mismo individuo (ηr). MOEA/D y SMS-EMOA utilizan la mutaci´on polinomial y la cruza binaria simulada como ope- radores de recombinaci´on. A los par´ametros del primer operador se le asignaron los mismo valores que en MOEA/D-DE. Para el segundo, se fij´o la probabilidad de cruza pc en 1.0 y su ´ındice de distribuci´on ηc en 20. Tabla 5.3: Tama˜no de la poblaci´on y n´umero m´aximo de generaciones utilizados en la ejecuci´on de cada algoritmo. N´umero de objetivos Tama˜no de la N´umero m´aximo de Evaluaciones de las poblaci´on generaciones funciones objetivo 2 120 300 36000 3 120 300 36000 4 120 300 36000 5 126 300 37800 6 126 300 37800 7 210 300 63000 8 120 300 36000 9 165 300 49500 10 220 300 66000 En la tabla 5.3 se presenta el tama˜no de la poblaci´on y el m´aximo n´umero de generaciones utilizadas por cada AEMO para solucionar los problemas DTLZ y WFG. Aunque EDH y SMS-EMOA pueden utilizar un n´umero arbitrario de individuos en la poblaci´on, no ocurre as´ı con MOEA/D y MOEA/D-DE; en los cuales este valor crece de manera no lineal con respecto al n´umero de objetivos. Por tanto, el tama˜no de la poblaci´on se ajust´o de la manera m´as conveniente para MOEA/D y MOEA/D-DE. Es importante mencionar que SMS-EMOA solo se aplic´o a las instancias de pro- blemas con no m´as de 5 objetivos. Esto es debido al elevado costo computacional del algoritmo cuando el n´umero de objetivos es superior a 5. CINVESTAV-IPN Departamento de Computaci´on
  • 74. 58 Cap´ıtulo 5 0 0.2 0.4 0.6 0.8 1 f1 f2 f3 f4 f5 f6 DTLZ2−−EDH 0 0.2 0.4 0.6 0.8 1 f1 f2 f3 f4 f5 f6 DTLZ2−−EDH−Tch 0 0.2 0.4 0.6 0.8 1 f1 f2 f3 f4 f5 f6 DTLZ2−−EDH−SL 0 0.2 0.4 0.6 0.8 1 f1 f2 f3 f4 f5 f6 DTLZ2−−EDH−Tch−SL Figura 5.1: Soluciones obtenidas por las distintas variantes de EDH en el problema DTLZ2 con 6 objetivos. 5.2. Estudio de los componentes del algoritmo pro- puesto El algoritmo evolutivo propuesto (EDH) transforma el proceso de seleccionar los individuos m´as aptos en un problema de asignaci´on. Para lograr esto utiliza un con- junto de vectores de pesos uniformemente distribuidos en el espacio objetivo y una funci´on de utilidad. En EDH se introduce un m´etodo para generar los vectores de pe- sos basado en el dise˜no uniforme, que evita las deficiencias del m´etodo simplex-lattice, pues produce un n´umero arbitrario de vectores distribuidos uniformemente en todo el s´ımplex. Adem´as, la funci´on de utilidad considerada es la descomposici´on de Tcheby- cheff modificada, que a diferencia de la versi´on original hace coincidir la direcci´on de la soluci´on ´optima de cada subproblema con el vector de pesos correspondiente. En esta secci´on se analiza la influencia del m´etodo de dise˜no de los vectores de pesos y la funci´on de utilidad en el desempe˜no de EDH. En las tablas 5.4 y 5.5 se presentan los resultados obtenidos por las distintas variantes de EDH en los problemas DTLZ (los mejores resultados se muestran en negritas). EDH-Tch corresponde a la versi´on de EDH donde se utiliza la descomposici´on de Tchebycheff original en lugar de la modificada. En EDH-SL se sustituye el m´etodo propuesto para generar los vectores de pesos por el m´etodo simplex-lattice. Por ´ultimo, en EDH-Tch-SL se reemplaza tanto la funci´on de utilidad como el m´etodo de dise˜no de los vectores de pesos. En los valores de la tabla 5.4 se puede observar que, a excepci´on de EDH-Tch- SL, las distintas variantes de EDH obtienen resultados competitivos entre s´ı. EDH- SL se impone en todas las instancias de los problemas DTLZ2 y 4, y en algunas instancias con 2 y 3 objetivos de otros problemas del conjunto DTLZ. Esto ocurre porque los vectores de pesos generados con el simplex-lattice se encuentran igualmente espaciados, y en baja dimensionalidad no se concentran en la frontera del frente de Pareto. Estos conjuntos de vectores de pesos permiten obtener soluciones con caracter´ısticas similares (ver figura 5.2). Sin embargo, en las instancias con m´as de 3 objetivos las soluciones obtenidas por HDE-SL se distribuyen en los l´ımites del frente de Pareto, como se puede observar en la figura 5.1. Debido a esto, aunque las soluciones est´en igualmente espaciadas entre s´ı (y con mayor valor del hipervolumen), no representan correctamente el interior del frente de Pareto, lo cual se puede observar en el valor de la distancia generacional invertida de sus soluciones (ver tabla 5.5). CINVESTAV-IPN Departamento de Computaci´on
  • 75. Estudio Experimental 59 Tabla 5.4: Hipervolumen obtenido por las variantes de EDH en los problemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. objs EDH EDH–Tch EDH–SL EDH–Tch-SL Media std Media std Media std Media std DTLZ1 2 1.0832e+0 2.4742e–4 1.0833e+0 1.9652e–2 1.0832e+0 2.0546e–4 1.0831e+0 2.1015e–4 3 1.3036e+0 2.6049e–4 1.3022e+0 1.8128e–2 1.2972e+0 3.6995e–2 1.2730e+0 7.4877e–2 4 1.4571e+0 1.9089e–4 1.4565e+0 1.9707e–2 1.4402e+0 4.2038e–2 1.4437e+0 2.6236e–2 5 1.6085e+0 7.7381e–5 1.6084e+0 6.9155e–3 1.5856e+0 3.9235e–2 1.5438e+0 1.4574e–1 6 1.7667e+0 1.5919e–2 1.7605e+0 2.7014e–2 1.7233e+0 9.4743e–2 1.7089e+0 1.1742e–1 7 1.9486e+0 6.7354e–6 1.9466e+0 7.4464e–3 1.9479e+0 3.9866e–3 1.8309e+0 3.6747e–1 8 2.1435e+0 1.0025e–5 2.1435e+0 2.7208e–3 2.1002e+0 1.0428e–1 2.0278e+0 1.1830e–1 9 2.3579e+0 2.4495e–6 2.3579e+0 2.9461e–3 2.3500e+0 1.9394e–2 2.2187e+0 1.4627e–1 10 2.5927e+0 5.8768e-3 2.5937e+0 6.1302e–3 2.5923e+0 5.6302e–3 2.5338e+0 5.3955e–2 DTLZ2 2 4.2079e–1 5.2374e–6 4.2060e–1 4.9012e–5 4.2082e–1 8.3142e–6 4.1972e–1 6.4201e–4 3 7.4764e–1 7.5310e–4 7.3603e–1 1.5911e–3 7.5222e–1 2.8722e–4 7.1180e–1 3.8548e–3 4 1.0156e+0 1.8105e–3 9.8341e–1 2.6276e–3 1.0277e+0 5.2450e–4 8.4243e–1 1.2650e–2 5 1.2566e+0 2.7824e–3 1.2229e+0 2.7522e–3 1.2710e+0 1.3651e–3 9.8879e–1 2.7669e–2 6 1.4789e+0 2.9657e–3 1.4462e+0 3.5824e–3 1.5048e+0 2.8628e–3 1.2006e+0 4.5943e–2 7 1.7466e+0 2.0169e–3 1.7219e+0 2.4659e–3 1.7659e+0 1.0857e–3 1.3124e+0 4.9382e–2 8 1.9283e+0 4.0242e–3 1.9028e+0 4.2934e–3 1.9593e+0 5.2569e–3 1.1009e+0 9.0373e–2 9 2.1965e+0 2.2077e–3 2.1706e+0 4.4681e–3 2.2289e+0 2.7651e–3 1.2564e+0 9.1702e–2 10 2.4781e+0 2.1577e-3 2.4603e+0 9.5281e–3 2.5033e+0 2.8879e–3 1.4597e+0 1.1148e–1 DTLZ3 2 8.2094e+0 4.0113e–4 8.2085e+0 6.8803e–1 8.2093e+0 4.7788e–4 8.0268e+0 6.7959e–1 3 2.6409e+1 1.7992e–3 2.6404e+1 6.1144e–1 2.6413e+1 7.6729e–3 2.6039e+1 1.1100e–1 4 8.0054e+1 1.8169e+0 8.0515e+1 2.6150e+0 8.0543e+1 1.2001e–2 8.0326e+1 5.9433e–2 5 2.4263e+2 1.9839e–1 2.4260e+2 6.7878e+0 2.4020e+2 5.5174e+0 2.4071e+2 7.7541e+0 6 7.2827e+2 2.2804e+0 7.2861e+2 1.3506e+1 7.2485e+2 8.6029e+0 7.2242e+2 2.7354e+0 7 2.1868e+3 4.6461e–3 2.1854e+3 7.3066e+0 2.1867e+3 1.1743e–2 2.1798e+3 8.0524e–1 8 6.5562e+3 2.3441e+1 6.5472e+3 4.0535e+1 6.3275e+3 7.1607e+1 6.2371e+3 4.7675e+2 9 1.9683e+4 3.5834e–1 1.9683e+4 3.9520e+1 1.9647e+4 7.3622e+1 1.9463e+4 3.0567e+1 10 5.9049e+4 9.1358e–3 5.9049e+4 5.2771e+1 5.9049e+4 1.0841e–2 5.8388e+4 7.7902e+1 DTLZ4 2 4.2076e–1 3.2245e–5 4.2050e–1 9.3043e–3 4.2081e–1 1.0776e–5 4.1981e–1 5.9329e–4 3 7.4140e–1 1.6965e–2 7.3349e–1 1.5955e–2 7.4819e–1 1.2824e–2 7.1360e–1 3.1371e–3 4 1.0134e+0 1.0511e–2 9.8347e–1 7.0621e–3 1.0256e+0 1.3381e–2 8.2415e–1 1.3775e–2 5 1.2649e+0 3.1514e–3 1.2290e+0 3.8823e–3 1.2698e+0 2.9611e–3 9.2957e–1 4.0472e–2 6 1.4907e+0 4.1306e–3 1.4518e+0 6.2812e–3 1.5042e+0 3.2387e–3 1.1268e+0 7.7259e–2 7 1.7617e+0 1.7120e–3 1.7290e+0 2.5984e–3 1.7672e+0 1.5137e–3 1.3221e+0 5.4767e–2 8 1.9474e+0 4.7903e–3 1.9065e+0 7.5758e–3 1.9601e+0 5.2482e–3 1.0853e+0 9.9517e–2 9 2.2170e+0 3.3678e–3 2.1773e+0 3.4127e–3 2.2301e+0 2.2927e–3 1.2515e+0 1.2062e–1 10 2.4961e+0 1.7725e–3 2.4646e+0 4.1245e–3 2.5054e+0 1.0231e–3 1.4093e+0 1.0978e–1 DTLZ5 2 8.2108e+0 5.8996e–6 8.2106e+0 6.6999e–5 8.2108e+0 7.6131e–6 8.2098e+0 6.6730e–4 3 2.3902e+1 8.8752e–3 2.3979e+1 7.2353e–4 2.3943e+1 5.9863e–5 2.3956e+1 4.2903e–3 4 7.1581e+1 4.8282e–2 7.1549e+1 5.9050e–2 7.0985e+1 9.7323e–2 7.1293e+1 6.4575e–2 5 2.1412e+2 4.4155e–1 2.1419e+2 3.6941e–1 2.0540e+2 1.3933e+0 2.0966e+2 6.9223e–1 6 6.4041e+2 1.5574e+0 6.4008e+2 1.3631e+0 5.7943e+2 2.5256e+1 6.1386e+2 2.0762e+0 7 1.9276e+3 2.9409e+0 1.9271e+3 2.7371e+0 1.6914e+3 6.2350e+1 1.8280e+3 9.1741e+0 8 5.7247e+3 1.9131e+1 5.6978e+3 3.3450e+1 5.4907e+3 1.0317e+2 5.3675e+3 4.5588e+1 9 1.7248e+4 4.7332e+1 1.7197e+4 6.7861e+1 1.6102e+4 7.7952e+2 1.6081e+4 1.1748e+2 10 5.1831e+4 1.0975e+2 5.1725e+4 1.2820e+2 4.8113e+4 2.7435e+3 4.8309e+4 3.2317e+2 DTLZ6 2 8.2108e+0 5.0742e–7 8.2108e+0 9.7143e–7 8.2109e+0 3.0513e–7 8.2109e+0 1.1592e–6 3 2.3894e+1 1.0348e–2 2.3982e+1 3.0454e–5 2.3943e+1 5.9142e–5 2.3966e+1 2.2283e–5 4 7.1406e+1 1.1058e–1 7.1345e+1 2.2724e–1 7.0636e+1 2.0134e–1 7.1115e+1 1.8984e–1 5 2.1342e+2 3.8291e–1 2.1324e+2 1.2500e+0 2.0375e+2 1.0902e+0 2.0875e+2 4.8039e–1 6 6.3628e+2 2.8055e+0 6.3859e+2 1.9013e+0 5.6187e+2 1.7490e+1 6.1520e+2 4.9818e+0 7 1.9218e+3 4.5744e+0 1.9204e+3 6.8678e+0 1.6914e+3 7.6559e+1 1.8469e+3 7.6524e+0 8 5.7059e+3 3.6732e+1 5.6590e+3 4.0623e+1 5.3796e+3 2.0448e+2 5.4134e+3 7.3111e+1 9 1.7165e+4 1.0438e+2 1.7070e+4 1.5441e+2 1.6054e+4 7.1154e+2 1.6229e+4 1.7442e+2 10 5.1719e+4 1.1684e+2 5.1444e+4 3.0805e+2 4.8504e+4 2.1447e+3 4.8740e+4 4.0603e+2 DTLZ7 2 8.9394e–1 1.1952e–4 8.9406e–1 9.2301e–5 8.9412e–1 8.6251e–6 8.9411e–1 2.7432e–5 3 1.8613e+0 3.0934e–3 1.8432e+0 1.4482e–3 1.8627e+0 4.7195e–4 1.8118e+0 7.3472e–3 4 2.7714e+0 5.7878e–3 2.6719e+0 8.5826e–3 2.7402e+0 3.7414e–3 2.4604e+0 2.5972e–2 5 3.5896e+0 1.3749e–2 3.5634e+0 1.2936e–2 3.5320e+0 9.4222e–3 2.8575e+0 5.9408e–2 6 4.3683e+0 2.2911e–2 4.3258e+0 1.5690e–2 3.9191e+0 2.8537e–2 3.0580e+0 1.3520e–1 7 5.4343e+0 3.6226e–2 5.4386e+0 3.4481e–2 4.7787e+0 2.7937e–2 3.4716e+0 1.7679e–1 8 5.3047e+0 8.2752e–2 5.4907e+0 7.7019e–2 4.9577e+0 8.2255e–2 3.5217e+0 1.8830e–1 9 6.2421e+0 8.6197e–2 6.5360e+0 6.2530e–2 5.7544e+0 8.2030e–2 4.2139e+0 2.8243e–1 10 7.2224e+0 1.1011e–1 7.5593e+0 1.0942e–1 6.5414e+0 9.4817e–2 5.0570e+0 3.2948e–1 CINVESTAV-IPN Departamento de Computaci´on
  • 76. 60 Cap´ıtulo 5 Tabla 5.5: Distancia Generacional Invertida de las variantes de EDH en los problemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. objs EDH EDH–Tch EDH–SL EDH–Tch-SL Media std Media std Media std Media std DTLZ1 2 1.9893e–3 2.2548e–4 1.9473e–3 1.9879e–4 2.0019e–3 1.8752e–4 2.0222e–3 2.0386e–4 3 1.9672e–2 6.8372e–4 2.0332e–2 4.7100e–4 2.0295e–2 5.1116e–3 4.9537e–2 1.1814e–2 4 4.3300e–2 1.7263e–3 4.1256e–2 8.7109e–4 9.1478e–2 1.3655e–2 2.0164e–1 2.1747e–2 5 6.1734e–2 2.2513e–3 5.8304e–2 1.7755e–3 1.4423e–1 3.4284e–2 2.0432e–1 5.6656e–2 6 7.6701e–2 3.4527e–3 6.8967e–2 2.0319e–3 2.0669e–1 6.3517e–2 3.0380e–1 2.7018e–2 7 7.8215e–2 2.2379e–3 6.8376e–2 1.8189e–3 8.5517e–2 3.3336e–3 3.0486e–1 1.2132e–2 8 9.5653e–2 5.5388e–3 1.0099e–1 4.4754e–2 1.6151e–1 1.6989e–2 2.9435e–1 4.7800e–2 9 1.0034e–1 5.4840e–3 9.2839e–2 6.1043e–3 1.3542e–1 8.3283e–3 2.7216e–1 3.5748e–2 10 1.0518e–1 9.3467e–3 8.9919e–2 4.6065e–3 1.2703e–1 7.1975e–3 2.8031e–1 2.4869e–2 DTLZ2 2 3.4634e–3 7.4393e–6 3.6657e–3 5.1126e–5 3.4571e–3 1.6529e–5 4.1798e–3 3.5966e–4 3 4.8917e–2 5.6361e–4 5.1907e–2 3.6112e–4 4.9339e–2 7.3464e–4 7.1995e–2 2.9456e–3 4 1.2053e–1 1.6871e–3 1.2217e–1 1.2075e–3 1.2219e–1 2.0318e–3 2.6178e–1 9.6576e–3 5 1.8355e–1 2.3477e–3 1.8631e–1 2.1542e–3 1.8321e–1 1.3036e–3 3.2195e–1 7.4586e–3 6 2.3001e–1 6.4417e–3 2.2697e–1 4.0822e–3 2.3042e–1 4.8075e–3 4.2984e–1 4.1828e–2 7 2.4004e–1 5.3565e–3 2.3519e–1 5.3452e–3 2.3409e–1 6.9123e–4 3.9268e–1 5.0522e–2 8 2.8244e–1 9.3101e–3 3.0294e–1 9.8269e–3 2.9507e–1 1.6100e–2 3.7727e–1 4.5878e–2 9 2.9642e–1 9.1941e–3 3.0666e–1 9.2221e–3 2.9566e–1 1.2772e–2 3.8030e–1 4.6858e–2 10 3.2409e–1 1.2232e–2 3.0790e–1 6.2311e–3 2.9569e–1 1.3605e–2 4.0811e–1 5.2112e–2 DTLZ3 2 4.1506e–3 3.2060e–4 4.3871e–3 2.6568e–4 4.1486e–3 2.2975e–4 4.9691e–3 4.6131e–4 3 5.5145e–2 1.3934e–3 5.6891e–2 1.1441e–3 5.7189e–2 3.3667e–3 1.8817e–1 4.1054e–2 4 1.3509e–1 9.2123e–3 1.5240e–1 5.1761e–2 1.4820e–1 1.7672e–2 2.8276e–1 3.9487e–2 5 1.9666e–1 9.6356e–3 2.0478e–1 1.1727e–2 2.5471e–1 8.3044e–2 3.3326e–1 1.8634e–2 6 2.4280e–1 6.8769e–3 2.7682e–1 4.1139e–2 2.9277e–1 6.7479e–2 4.2570e–1 4.0272e–2 7 2.4564e–1 5.5624e–3 2.5558e–1 3.4249e–2 2.5074e–1 1.7254e–2 3.6745e–1 4.7932e–2 8 3.2156e–1 7.5039e–2 3.6297e–1 7.3505e–2 5.7088e–1 1.1418e–1 4.2108e–1 7.3931e–2 9 3.0401e–1 1.0356e–2 3.5155e–1 5.7352e–2 3.5578e–1 7.6579e–2 3.6864e–1 3.0349e–2 10 3.1056e–1 1.4554e–2 3.2645e–1 3.0477e–2 3.2264e–1 2.1718e–2 3.6321e–1 4.2483e–2 DTLZ4 2 3.2565e–3 5.0399e–5 1.1432e–2 2.5109e–2 4.0091e–3 3.7485e–3 1.6328e–2 3.9168e–2 3 5.4077e–2 1.6587e–2 5.8911e–2 4.0103e–2 5.3402e–2 1.1011e–2 7.9416e–2 5.6587e–3 4 1.3408e–1 9.6402e–3 1.3862e–1 1.0819e–2 1.4090e–1 9.0086e–3 2.9227e–1 1.9090e–2 5 2.1056e–1 4.0429e–3 2.2445e–1 1.0146e–2 2.1951e–1 5.7267e–3 3.9688e–1 1.7412e–2 6 2.8229e–1 4.7312e–3 2.9711e–1 7.1696e–3 2.8630e–1 4.8156e–3 4.7332e–1 2.4166e–2 7 3.0622e–1 3.2317e–3 3.2128e–1 4.4121e–3 3.0495e–1 2.1522e–3 5.0497e–1 2.2102e–2 8 3.8119e–1 5.2401e–3 3.9430e–1 5.4827e–3 3.8181e–1 3.5086e–3 6.1740e–1 2.8923e–2 9 3.9257e–1 4.4555e–3 4.1084e–1 6.0642e–3 3.9074e–1 2.0607e–3 5.9666e–1 1.7507e–2 10 4.0879e–1 3.8442e–3 4.2232e–1 3.9288e–3 3.9905e–1 6.1939e–4 5.9721e–1 2.1074e–2 DTLZ5 2 3.5291e–3 1.3019e–5 3.7201e–3 5.3921e–5 3.5023e–3 7.8210e–6 4.1705e–3 4.0488e–4 3 5.6865e–3 2.2439e–5 6.3436e–3 1.7705e–4 1.8014e–2 3.0158e–5 1.0744e–2 7.8585e–4 4 1.5730e–2 2.1328e–3 1.7826e–2 2.1794e–3 7.6815e–2 1.3248e–2 3.9636e–2 3.9626e–3 5 2.6378e–2 7.8999e–3 2.3427e–2 6.2410e–3 2.2029e–1 1.8540e–2 7.1209e–2 9.2069e–3 6 2.5838e–2 4.9774e–3 3.5025e–2 1.2434e–2 2.6033e–1 1.0297e–2 1.1214e–1 1.6665e–2 7 1.8365e–2 4.1016e–3 2.1988e–2 3.9086e–3 2.5571e–1 1.7475e–2 1.1369e–1 1.5327e–2 8 7.7203e–2 1.8760e–2 6.0341e–2 2.3307e–2 2.8158e–1 1.4028e–1 2.6939e–1 6.7882e–2 9 6.8171e–2 2.7761e–2 6.0723e–2 2.8783e–2 2.9805e–1 1.0458e–1 2.4044e–1 6.7111e–2 10 4.9095e–2 2.0895e–2 6.5497e–2 2.4757e–2 3.1793e–1 1.0328e–1 2.3941e–1 5.0034e–2 DTLZ6 2 3.4994e–3 2.3706e–6 3.6620e–3 2.0439e–5 3.4605e–3 2.1613e–6 3.6661e–3 4.2847e–5 3 5.8003e–3 1.1058e–5 6.2001e–3 2.8587e–5 1.8425e–2 4.8477e–5 1.0846e–2 2.6540e–5 4 1.1368e–2 1.5432e–3 1.2749e–2 4.2627e–3 7.0381e–2 1.4071e–2 2.4243e–2 3.4378e–3 5 1.5363e–2 3.7327e–3 1.9289e–2 1.1705e–2 2.6273e–1 7.1880e–2 4.8157e–2 6.8789e–3 6 2.2840e–2 5.4214e–3 2.1718e–2 9.7351e–3 2.5885e–1 4.5635e–2 1.0774e–1 7.7999e–2 7 1.8605e–2 9.7945e–3 1.7124e–2 6.8798e–3 2.4957e–1 2.1185e–2 8.3301e–2 9.3924e–3 8 4.9489e–2 2.1646e–2 4.6561e–2 2.8001e–2 2.5831e–1 9.9149e–2 2.9185e–1 1.0854e–1 9 7.5640e–2 5.5565e–2 7.6995e–2 6.9985e–2 1.8486e–1 7.6287e–2 2.7934e–1 1.0658e–1 10 4.7079e–2 2.0824e–2 7.9222e–2 4.9263e–2 1.4169e–1 7.3323e–2 3.0947e–1 1.0561e–1 DTLZ7 2 4.6504e–3 6.3062e–5 4.6223e–3 5.4508e–5 4.6060e–3 1.7778e–5 4.6265e–3 4.8709e–5 3 6.9041e–2 8.8886e–4 8.2295e–2 4.8070e–4 7.2441e–2 3.5848e–4 9.0539e–2 2.5178e–3 4 1.9605e–1 1.9450e–3 2.0237e–1 4.5265e–3 2.6140e–1 5.5810e–3 2.8958e–1 8.2790e–3 5 3.4964e–1 4.3105e–3 3.5023e–1 3.6483e–3 4.3037e–1 1.2793e–3 4.8789e–1 1.0693e–2 6 4.9019e–1 5.0446e–3 4.9969e–1 4.9326e–3 5.9034e–1 3.9590e–3 7.5567e–1 4.1651e–2 7 5.7850e–1 3.3333e–3 5.7893e–1 3.2855e–3 6.8005e–1 2.7372e–3 9.7928e–1 6.8330e–2 8 7.4762e–1 6.6450e–3 7.4866e–1 2.0483e–2 8.4578e–1 7.2818e–3 1.2795e+0 1.5820e–1 9 8.2578e–1 5.5330e–3 8.3073e–1 7.2290e–3 9.3617e–1 5.4821e–3 1.4737e+0 1.6826e–1 10 9.0565e–1 6.4381e–3 9.0488e–1 1.2742e–2 1.0181e+0 5.7258e–3 1.6507e+0 1.7833e–1 CINVESTAV-IPN Departamento de Computaci´on
  • 77. Estudio Experimental 61 DTLZ1−−EDH 0 0.25 0.5 f1 0.25 0.5f2 0.0 0.1 0.2 0.3 0.4 0.5 f3 DTLZ1−−EDH−Tch 0 0.25 0.5 f1 0.25 f2 0.0 0.1 0.2 0.3 0.4 f3 DTLZ1−−EDH−SL 0 0.25 0.5 f1 0.25 0.5f2 0.0 0.1 0.2 0.3 0.4 0.5 f3 DTLZ1−−EDH−Tch−SL 0 0.25 0.5 f1 0.25 0.5f2 0.0 0.1 0.2 0.3 0.4 0.5 f3 DTLZ3−−EDH 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ3−−EDH−Tch 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ3−−EDH−SL 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ3−−EDH−Tch−SL 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ6−−EDH 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ6−−EDH−Tch 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ6−−EDH−SL 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ6−−EDH−Tch−SL 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 WFG1−−EDH 1 2 f1 2 4 f2 0 1 2 3 4 5 6 f3 WFG1−−EDH−Tch 1 2 f1 2 4 f2 0 1 2 3 4 5 6 f3 WFG1−−EDH−SL 1 2 f1 2 4 f2 0 1 2 3 4 5 6 f3 WFG1−−EDH−Tch−SL 1 2 f1 2 4 f2 0 1 2 3 4 5 6 f3 WFG5−−EDH 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG5−−EDH−Tch 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG5−−EDH−SL 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG5−−EDH−Tch−SL 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 Figura 5.2: Soluciones obtenidas por las distintas variantes de EDH en problemas con 3 objetivos de los conjuntos DTLZ y WFG. CINVESTAV-IPN Departamento de Computaci´on
  • 78. 62 Cap´ıtulo 5 Tabla 5.6: Hipervolumen obtenido por las variantes de EDH en los problemas WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. objs EDH EDH–Tch EDH–SL EDH–Tch-SL Media std Media std Media std Media std WFG1 2 3.5444e+0 1.3266e–1 3.5764e+0 9.9378e–2 3.5427e+0 1.4995e–1 3.5581e+0 1.2557e–1 3 2.0202e+1 2.6800e–1 2.0548e+1 2.8385e–1 2.3199e+1 7.7624e–1 2.0991e+1 4.3132e–1 4 1.4783e+2 1.7290e+0 1.5842e+2 2.5441e+1 2.8772e+2 1.1681e+1 2.4629e+2 7.6917e+0 5 1.3712e+3 2.5066e+1 1.3865e+3 1.8347e+1 3.2661e+3 1.0067e+2 3.0913e+3 8.8105e+1 6 1.8497e+4 7.4246e+3 1.7165e+4 3.6914e+3 3.6987e+4 1.6084e+3 4.0781e+4 1.2575e+3 7 2.4608e+5 3.2081e+4 2.2647e+5 3.8260e+3 5.3240e+5 2.4038e+4 6.0567e+5 1.0291e+4 8 5.6571e+6 2.4620e+6 4.3560e+6 1.4077e+6 7.3841e+6 8.9383e+5 9.2639e+6 3.5493e+5 9 1.0066e+8 4.3610e+7 7.4067e+7 1.0651e+7 7.4067e+7 1.0651e+7 7.4067e+7 1.0651e+7 10 2.0854e+9 7.6463e+8 1.5764e+9 2.4954e+8 1.5764e+9 2.4954e+8 1.5764e+9 2.4954e+8 WFG2 2 4.7517e+0 8.2499e–2 4.7611e+0 7.4985e–2 4.7542e+0 7.2430e–2 4.7500e+0 7.0723e–2 3 4.4432e+1 3.7952e+0 4.5303e+1 3.1478e+0 4.5803e+1 2.9356e+0 4.3969e+1 3.1068e+0 4 3.8443e+2 3.2394e+1 3.8821e+2 2.9542e+1 3.8298e+2 3.7339e+1 3.8288e+2 2.9172e+1 5 3.9523e+3 2.9666e+2 3.9600e+3 2.9349e+2 3.9831e+3 3.2552e+2 3.9389e+3 3.0819e+2 6 4.7015e+4 3.6580e+3 4.7212e+4 4.3429e+3 4.8043e+4 4.0366e+3 4.7823e+4 3.3709e+3 7 6.8555e+5 3.6584e+4 7.0354e+5 3.0271e+4 6.7975e+5 6.2162e+4 7.0862e+5 7.6549e+3 8 9.3865e+6 9.3990e+5 9.2195e+6 7.0732e+5 5.4754e+6 3.3054e+6 1.0313e+7 6.8403e+5 9 1.8816e+8 1.0449e+7 1.7705e+8 1.8575e+7 1.7705e+8 1.8575e+7 1.7705e+8 1.8575e+7 10 3.9353e+9 2.2614e+8 3.8690e+9 3.1099e+8 3.8690e+9 3.1099e+8 3.8690e+9 3.1099e+8 WFG3 2 4.4191e+0 4.5890e–2 4.4204e+0 5.4346e–2 4.4081e+0 4.5441e–2 4.4029e+0 6.6305e–2 3 3.0755e+1 2.4010e–1 3.0646e+1 2.4172e–1 3.0414e+1 3.0107e–1 3.0559e+1 1.8496e–1 4 2.5609e+2 2.2304e+0 2.5527e+2 2.1506e+0 2.3140e+2 3.9133e+0 2.4889e+2 2.0113e+0 5 2.6076e+3 2.2986e+1 2.5951e+3 2.7267e+1 2.0521e+3 5.2557e+1 2.4265e+3 6.8618e+1 6 3.1288e+4 4.1498e+2 3.0534e+4 4.4376e+2 3.0063e+2 4.1148e+1 2.8393e+4 6.5184e+2 7 4.5486e+5 3.3329e+3 4.4295e+5 6.0307e+3 4.7390e+3 9.1898e+2 4.0735e+5 8.9414e+3 8 6.9954e+6 9.7919e+4 6.9104e+6 8.4903e+4 5.2426e+5 4.4389e+5 6.2192e+6 1.6246e+5 9 1.3029e+8 1.1146e+6 1.2513e+8 1.4690e+6 1.2513e+8 1.4690e+6 1.2513e+8 1.4690e+6 10 2.6570e+9 2.1193e+7 2.4934e+9 2.4696e+7 2.4934e+9 2.4696e+7 2.4934e+9 2.4696e+7 WFG4 2 2.2700e+0 6.2084e–3 2.2665e+0 8.0441e–3 2.2657e+0 8.2009e–3 2.2662e+0 5.6556e–3 3 2.3382e+1 1.6170e–1 2.2879e+1 2.0462e–1 2.3417e+1 3.3901e–1 2.2544e+1 1.6225e–1 4 2.2925e+2 2.2711e+0 2.2040e+2 1.7481e+0 2.3453e+2 7.3955e+0 1.9852e+2 7.2876e+0 5 2.5839e+3 2.6639e+1 2.4855e+3 2.6762e+1 2.3551e+3 2.5859e+2 2.1269e+3 2.3202e+2 6 3.2391e+4 1.5480e+3 3.1016e+4 1.8823e+3 2.1803e+4 3.6173e+3 2.0438e+4 3.0516e+3 7 4.7983e+5 2.2023e+4 4.7561e+5 2.2652e+4 2.9387e+5 3.8261e+4 2.9727e+5 3.9757e+4 8 5.5951e+6 6.7923e+5 6.0983e+6 2.6869e+5 3.3459e+6 7.8669e+5 3.6302e+6 3.7715e+5 9 1.1849e+8 1.9004e+6 1.1368e+8 2.7675e+6 1.1368e+8 2.7675e+6 1.1368e+8 2.7675e+6 10 2.5061e+9 9.1641e+7 2.3664e+9 6.7499e+7 2.3664e+9 6.7499e+7 2.3664e+9 6.7499e+7 WFG5 2 1.9744e+0 8.7617e–3 1.9764e+0 8.6304e–3 1.9791e+0 4.8236e–3 1.9780e+0 3.9991e–3 3 2.1527e+1 1.0332e–1 2.1008e+1 1.7563e–1 2.1374e+1 1.6726e–1 2.0386e+1 2.0190e–1 4 2.1627e+2 1.4846e+0 2.0518e+2 1.8591e+0 2.1061e+2 3.7342e+0 1.6528e+2 7.2326e+0 5 2.4460e+3 2.3396e+1 2.3608e+3 2.3189e+1 1.9189e+3 1.7312e+2 1.3882e+3 1.2928e+2 6 3.1055e+4 2.8602e+2 3.0424e+4 3.5209e+2 1.5544e+4 2.6538e+3 1.6993e+4 1.6346e+3 7 4.9329e+5 3.8980e+3 4.8015e+5 3.7338e+3 2.0943e+5 3.5268e+4 2.2606e+5 3.3158e+4 8 6.3967e+6 8.2734e+5 5.9057e+6 4.3020e+5 2.1025e+6 4.5655e+5 2.2512e+6 5.1141e+5 9 1.0386e+8 1.8554e+6 1.0532e+8 1.2048e+7 1.0532e+8 1.2048e+7 1.0532e+8 1.2048e+7 10 2.3288e+9 1.0089e+8 2.0382e+9 3.5506e+7 2.0382e+9 3.5506e+7 2.0382e+9 3.5506e+7 WFG6 2 2.0016e+0 3.8188e–2 1.9970e+0 3.7775e–2 2.0182e+0 3.6027e–2 2.0158e+0 3.7196e–2 3 2.1718e+1 3.4165e–1 2.1178e+1 4.3063e–1 2.1850e+1 5.3489e–1 2.0650e+1 2.8905e–1 4 2.1801e+2 4.2264e+0 2.0941e+2 3.5133e+0 2.3752e+2 3.1227e+0 1.9431e+2 3.5968e+0 5 2.4751e+3 4.3188e+1 2.4054e+3 3.2694e+1 2.7239e+3 1.0492e+2 1.9223e+3 3.2071e+2 6 3.1949e+4 5.1070e+2 3.1463e+4 6.2210e+2 3.3541e+4 2.3363e+3 1.0824e+4 4.4967e+3 7 5.0517e+5 7.3397e+3 4.9982e+5 5.9724e+3 4.7405e+5 6.2296e+4 1.5356e+5 7.5329e+4 8 7.5340e+6 2.4786e+5 7.4026e+6 2.5925e+5 5.7524e+6 1.1589e+6 1.6467e+6 8.9111e+5 9 1.4395e+8 8.5955e+6 1.3537e+8 6.1347e+6 1.3537e+8 6.1347e+6 1.3537e+8 6.1347e+6 10 2.9270e+9 2.3450e+8 2.9157e+9 1.7422e+8 2.9157e+9 1.7422e+8 2.9157e+9 1.7422e+8 WFG7 2 2.2629e+0 1.6770e–2 2.2655e+0 1.5712e–2 2.2654e+0 1.5396e–2 2.2670e+0 1.7977e–2 3 2.3970e+1 1.5466e–1 2.3356e+1 1.6667e–1 2.4415e+1 1.9291e–1 2.2778e+1 2.2619e–1 4 2.3903e+2 3.1053e+0 2.2862e+2 2.0292e+0 2.5425e+2 2.5333e+0 2.0812e+2 3.2451e+0 5 2.7099e+3 3.0588e+1 2.6161e+3 2.6626e+1 2.8130e+3 1.5046e+2 2.3942e+3 3.0304e+2 6 3.4511e+4 4.6692e+2 3.4043e+4 3.8639e+2 3.3651e+4 2.6040e+3 2.5109e+4 2.1578e+3 7 5.5549e+5 6.8583e+3 5.4525e+5 5.8281e+3 5.4137e+5 3.4529e+4 3.6989e+5 2.5620e+4 8 7.0186e+6 1.1503e+6 7.3037e+6 4.8664e+5 6.1244e+6 8.0788e+5 3.9634e+6 4.4291e+5 9 1.1961e+8 1.8194e+7 1.2041e+8 1.3655e+7 1.2041e+8 1.3655e+7 1.2041e+8 1.3655e+7 10 2.6271e+9 2.0710e+8 2.5041e+9 3.2158e+8 2.5041e+9 3.2158e+8 2.5041e+9 3.2158e+8 Contin´ua en la p´agina siguiente CINVESTAV-IPN Departamento de Computaci´on
  • 79. Estudio Experimental 63 Tabla 5.6: – Continuaci´on de la p´agina anterior objs HDE HDE–Tch HDE–SL HDE–Tch-SL Media std Media std Media std Media std WFG8 2 1.6464e+0 2.3835e–2 1.6347e+0 3.3553e–2 1.6537e+0 2.2257e–2 1.6475e+0 2.4957e–2 3 1.8655e+1 2.2357e–1 1.7853e+1 3.0051e–1 1.8085e+1 2.4034e–1 1.7630e+1 2.4373e–1 4 1.8585e+2 3.2584e+0 1.7496e+2 4.2157e+0 1.2780e+2 1.1916e+1 1.2239e+2 8.1583e+0 5 2.0681e+3 2.9858e+1 1.9565e+3 4.2449e+1 1.0401e+3 2.4009e+2 5.5809e+2 2.2895e+2 6 2.7065e+4 5.9405e+2 2.5206e+4 5.6984e+2 9.2455e+3 3.1566e+3 9.2035e+3 3.0068e+3 7 4.4837e+5 2.9287e+3 4.2643e+5 4.8390e+3 1.3796e+5 5.3913e+4 1.5070e+5 2.3509e+4 8 6.5144e+6 3.5781e+5 6.3656e+6 2.3601e+5 1.7522e+6 5.0911e+5 2.0005e+6 5.6854e+5 9 1.2827e+8 7.4524e+6 1.2183e+8 7.9023e+6 1.2183e+8 7.9023e+6 1.2183e+8 7.9023e+6 10 2.8061e+9 1.0340e+8 2.5393e+9 1.7664e+8 2.5393e+9 1.7664e+8 2.5393e+9 1.7664e+8 WFG9 2 1.9145e+0 2.5083e–1 1.8636e+0 2.3597e–1 1.8092e+0 1.9659e–1 1.8326e+0 2.2087e–1 3 1.9950e+1 1.1337e+0 1.9072e+1 7.5804e–1 1.9179e+1 7.8099e–1 1.8554e+1 6.2041e–1 4 1.9804e+2 1.6192e+0 1.8790e+2 4.0774e+0 1.4774e+2 5.9217e+0 1.3694e+2 3.6933e+0 5 2.2329e+3 1.6778e+1 2.1183e+3 2.0344e+1 1.2560e+3 1.0033e+2 8.0816e+2 2.0180e+2 6 2.8098e+4 3.4284e+2 2.7013e+4 3.8295e+2 1.2967e+4 1.8462e+3 1.2351e+4 2.3247e+3 7 4.4032e+5 3.7539e+3 4.2288e+5 3.5884e+3 2.4098e+5 2.4548e+4 2.1339e+5 2.6666e+4 8 6.4912e+6 1.8377e+5 5.9985e+6 1.9279e+5 2.4655e+6 4.8047e+5 2.2980e+6 5.0604e+5 9 1.1915e+8 6.6487e+6 1.1592e+8 2.6229e+6 1.1592e+8 2.6229e+6 1.1592e+8 2.6229e+6 10 2.4908e+9 5.8922e+7 2.4639e+9 6.0084e+7 2.4639e+9 6.0084e+7 2.4639e+9 6.0084e+7 La variante EDH-Tch obtiene valores de IHV y IIGD muy cercanos a los de EDH. En problemas como DTLZ1, 3 y 7, el valor del hipervolumen de EDH-Tch supera en varias instancias al de EDH (ver tabla 5.4). Sin embargo, su valor de IIGD en gran parte de estas instancias no es superior al de EDH (ver tabla 5.5). Estas diferencias en la comparaci´on de ambos algoritmos, seg´un el indicador utilizado, se deben a la im- portancia que le da cada medida a la buena distribuci´on de las soluciones. La funci´on de utilidad incorporada en EDH hace coincidir la direcci´on de la soluci´on ´optima de cada subproblema con el vector de pesos que le corresponde. De esta manera, al tener un conjunto de vectores de pesos bien distribuidos se obtiene mayor diversidad en las soluciones, lo cual es evidenciado por el valor de la distancia generacional invertida. Por el contrario, la funci´on de utilidad presente en EDH-Tch no permite controlar directamente la distribuci´on de las soluciones. Adem´as, favorece a la convergencia de las soluciones en mayor grado que a la diversidad. Por estas caracter´ısticas de EDH- Tch, sus soluciones tienden a concentrarse en determinadas secciones del frente de Pareto (ver figura 5.2). En cuanto a EDH-Tch-SL, al prescindir del m´etodo propuesto para generar los vectores de pesos y de la descomposici´on de Tchebycheff modificada, posee tanto las deficiencias de EDH-SL como las de EDH-Tch. Aunque el desempe˜no de EDH- Tch-SL no supera al de las dem´as variantes de EDH, se puede observar que sus resultados no se diferencian significativamente de los obtenidos por ellas, sobre todo en los problemas WFG (ver las tablas 5.6 y 5.7). Esto nos indica que en los problemas m´as complejos en cuanto a convergencia y forma del frente de Pareto (los del conjunto de prueba WFG), el mecanismo de selecci´on de EDH no es tan sensible a la elecci´on de sus componentes como en los problemas que no presenten gran dificultad para la convergencia de los algoritmos y sea m´as relevante la diversidad de las soluciones. Lo anterior corresponde con los valores de la distancia generacional invertida obtenidos por EDH en los problemas DTLZ y WFG, seg´un los cuales, EDH supera a sus variantes en un mayor n´umero de instancias que si se considera el hipervolumen. CINVESTAV-IPN Departamento de Computaci´on
  • 80. 64 Cap´ıtulo 5 Tabla 5.7: Distancia Generacional Invertida de cada variante de EDH en los problemas WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. objs EDH EDH–Tch EDH–SL EDH–Tch-SL Media std Media std Media std Media std WFG1 2 3.8666e–1 3.5757e–2 3.7943e–1 2.5527e–2 3.8593e–1 3.8965e–2 3.8518e–1 3.1963e–2 3 1.0994e+0 1.2595e–2 1.0819e+0 1.4500e–2 9.4203e–1 2.9926e–2 1.0688e+0 3.5999e–2 4 1.4759e+0 2.1153e–2 1.4002e+0 9.6699e–2 8.9242e–1 5.8710e–1 1.0546e+0 8.1437e–2 5 1.8345e+0 1.1321e–1 1.7340e+0 4.7128e–2 1.1040e+0 2.5796e–1 1.1811e+0 2.4837e–1 6 2.1961e+0 3.5298e–1 1.8784e+0 1.9010e–1 1.5430e+0 3.8541e–1 1.9401e+0 1.4249e+0 7 2.2248e+0 2.4665e–1 2.1432e+0 3.1429e–2 1.5686e+0 3.8349e–1 2.1911e+0 1.7080e+0 8 3.2363e+0 1.8585e+0 2.4683e+0 4.2638e–1 2.4986e+0 1.1657e+0 4.1969e+0 2.8940e+0 9 3.9205e+0 2.2862e+0 2.5022e+0 2.2981e–1 2.5022e+0 2.2981e–1 2.5022e+0 2.2981e–1 10 3.9811e+0 2.5311e+0 2.7558e+0 3.1661e–1 2.7558e+0 3.1661e–1 2.7558e+0 3.1661e–1 WFG2 2 4.7636e–2 1.5357e–2 4.6902e–2 1.4467e–2 4.7118e–2 1.4232e–2 4.8479e–2 1.3786e–2 3 1.8071e–1 2.5435e–2 1.8153e–1 2.3833e–2 1.9688e–1 2.6653e–2 3.8988e–1 2.5624e–2 4 4.9969e–1 1.4864e–1 3.6717e–1 4.1180e–2 3.8934e–1 7.5439e–2 1.1044e+0 3.3810e–1 5 8.8060e–1 1.9579e–1 6.6393e–1 1.1883e–1 8.5937e–1 1.7849e–1 1.3896e+0 2.4613e–1 6 1.2492e+0 5.1240e–1 9.9088e–1 4.8091e–1 1.3721e+0 2.1260e–1 1.8082e+0 3.9099e–1 7 2.1043e+0 2.0246e+0 9.1747e–1 2.8169e–1 1.6914e+0 4.2715e–1 1.7341e+0 4.3668e–1 8 1.4792e+0 1.7270e+0 9.2552e–1 2.1885e–1 3.4492e+0 1.5377e+0 2.3036e+0 4.6940e–1 9 1.3701e+0 5.4077e–1 9.5426e–1 2.2155e–1 9.5426e–1 2.2155e–1 9.5426e–1 2.2155e–1 10 2.4977e+0 2.1205e+0 9.9385e–1 2.3889e–1 9.9385e–1 2.3889e–1 9.9385e–1 2.3889e–1 WFG3 2 3.5784e–2 9.4992e–3 3.5506e–2 1.1281e–2 3.8194e–2 9.4195e–3 3.9265e–2 1.3986e–2 3 5.4965e–2 1.5099e–2 6.0609e–2 1.5321e–2 6.8978e–2 1.8778e–2 5.8823e–2 1.1811e–2 4 1.0697e–1 2.2539e–2 1.0361e–1 2.0884e–2 3.0987e–1 4.9486e–2 1.4456e–1 1.6722e–2 5 1.1404e–1 2.4876e–2 1.1441e–1 2.0848e–2 1.1346e+0 1.8524e–1 4.1187e–1 1.7791e–1 6 1.4661e–1 2.5651e–2 1.6043e–1 2.3669e–2 6.6362e+0 3.1252e–3 7.3066e–1 2.7762e–1 7 9.5693e–2 1.1861e–2 1.2025e–1 1.9488e–2 7.7545e+0 1.9185e–2 9.1666e–1 3.2223e–1 8 1.9415e–1 2.7625e–2 2.3548e–1 2.6959e–2 8.0860e+0 7.8747e–1 1.0133e+0 3.1299e–1 9 1.5264e–1 1.9846e–2 2.0096e–1 2.8168e–2 2.0096e–1 2.8168e–2 2.0096e–1 2.8168e–2 10 1.4803e–1 1.7218e–2 2.4382e–1 4.2174e–2 2.4382e–1 4.2174e–2 2.4382e–1 4.2174e–2 WFG4 2 1.2634e–2 7.6043e–4 1.3080e–2 1.1943e–3 1.3285e–2 1.1127e–3 1.3137e–2 7.9644e–4 3 1.7637e–1 2.5320e–3 1.7321e–1 2.0149e–3 1.8300e–1 2.8759e–3 2.0338e–1 2.8367e–3 4 5.1810e–1 1.6060e–2 4.7308e–1 9.4465e–3 6.4862e–1 3.6739e–2 1.0147e+0 8.7694e–2 5 9.3109e–1 5.2656e–2 1.0065e+0 3.7195e–2 1.4475e+0 1.6637e–1 1.9559e+0 2.8616e–1 6 1.4373e+0 1.5915e–1 1.3010e+0 1.5583e–1 2.2579e+0 3.0657e–1 2.4208e+0 3.0695e–1 7 1.3596e+0 1.7772e–1 1.5123e+0 1.5184e–1 2.8443e+0 4.7722e–1 2.3319e+0 2.2792e–1 8 1.5463e+0 1.2767e–1 1.7853e+0 1.6038e–1 3.8561e+0 6.6764e–1 3.1447e+0 3.0931e–1 9 1.8034e+0 8.7096e–2 1.7874e+0 1.0128e–1 1.7874e+0 1.0128e–1 1.7874e+0 1.0128e–1 10 1.7973e+0 6.9891e–2 1.9616e+0 1.0951e–1 1.9616e+0 1.0951e–1 1.9616e+0 1.0951e–1 WFG5 2 6.8808e–2 1.8260e–3 6.8439e–2 1.8406e–3 6.7911e–2 1.0278e–3 6.8036e–2 8.3180e–4 3 2.2441e–1 1.6280e–3 2.3230e–1 1.4396e–3 2.3382e–1 1.3993e–3 2.4840e–1 1.2042e–3 4 5.9261e–1 7.8410e–3 6.3751e–1 7.0891e–3 7.8593e–1 2.9999e–2 9.6467e–1 2.8608e–2 5 1.0752e+0 1.8145e–2 1.1468e+0 3.2091e–2 1.7887e+0 1.3770e–1 2.4386e+0 2.2227e–1 6 1.6961e+0 5.1293e–2 1.8072e+0 4.8100e–2 3.9031e+0 4.8386e–1 3.6044e+0 1.6275e–1 7 2.1008e+0 6.6684e–2 2.3212e+0 8.1863e–2 5.3926e+0 7.4341e–1 4.3642e+0 2.2678e–1 8 2.6324e+0 2.4197e–1 2.6553e+0 1.4386e–1 7.1948e+0 8.5421e–1 5.8044e+0 7.5369e–1 9 2.8096e+0 5.8215e–2 2.8918e+0 1.4725e–1 2.8918e+0 1.4725e–1 2.8918e+0 1.4725e–1 10 3.0367e+0 5.5118e–2 3.1530e+0 4.2972e–2 3.1530e+0 4.2972e–2 3.1530e+0 4.2972e–2 WFG6 2 6.2770e–2 7.6997e–3 6.3433e–2 7.6534e–3 5.9399e–2 7.1488e–3 5.9950e–2 7.4543e–3 3 2.3592e–1 5.9929e–3 2.4378e–1 7.5277e–3 2.4041e–1 5.2552e–3 2.5519e–1 5.1332e–3 4 6.3099e–1 1.0823e–2 6.5850e–1 9.7809e–3 7.4066e–1 3.0906e–2 9.9000e–1 3.0249e–2 5 1.1307e+0 2.1153e–2 1.1952e+0 2.3728e–2 1.3745e+0 5.5682e–2 2.6044e+0 5.0672e–1 6 1.7727e+0 4.1505e–2 1.9111e+0 5.5079e–2 2.2669e+0 1.0817e–1 4.8363e+0 5.1054e–1 7 2.2345e+0 4.7112e–2 2.4893e+0 6.4945e–2 3.0794e+0 3.9776e–1 5.5118e+0 7.5103e–1 8 3.1385e+0 1.0797e–1 3.4963e+0 2.0919e–1 4.8038e+0 5.9301e–1 6.6619e+0 7.6359e–1 9 3.7022e+0 1.6442e–1 3.9103e+0 2.8291e–1 3.9103e+0 2.8291e–1 3.9103e+0 2.8291e–1 10 4.1174e+0 4.5558e–1 4.7234e+0 4.1673e–1 4.7234e+0 4.1673e–1 4.7234e+0 4.1673e–1 WFG7 2 1.5777e–2 2.1127e–3 1.5409e–2 1.7534e–3 1.5388e–2 1.7449e–3 1.5251e–2 2.1512e–3 3 2.1793e–1 9.5213e–4 2.2664e–1 1.0327e–3 2.2942e–1 1.0448e–3 2.4553e–1 1.1176e–3 4 6.2292e–1 8.6051e–3 6.7148e–1 7.4090e–3 7.6235e–1 2.6799e–2 1.0071e+0 3.8375e–2 5 1.1238e+0 2.4406e–2 1.1794e+0 3.2462e–2 1.4886e+0 7.0696e–2 2.1353e+0 1.8679e–1 6 1.8042e+0 4.9544e–2 1.9344e+0 5.9603e–2 2.4122e+0 2.9841e–1 3.0684e+0 2.2516e–1 7 2.2493e+0 5.9535e–2 2.4950e+0 1.0930e–1 2.8512e+0 5.9418e–2 3.7214e+0 2.9735e–1 8 2.9423e+0 3.3169e–1 3.0558e+0 1.9524e–1 4.6478e+0 4.6722e–1 5.1782e+0 5.8561e–1 9 3.5003e+0 2.9592e–1 3.3285e+0 2.0590e–1 3.3285e+0 2.0590e–1 3.3285e+0 2.0590e–1 10 3.6346e+0 1.5355e–1 3.7202e+0 2.0168e–1 3.7202e+0 2.0168e–1 3.7202e+0 2.0168e–1 Contin´ua en la p´agina siguiente CINVESTAV-IPN Departamento de Computaci´on
  • 81. Estudio Experimental 65 Tabla 5.7: – Continuaci´on de la p´agina anterior objs HDE HDE–Tch HDE–SL HDE–Tch-SL Media std Media std Media std Media std WFG8 2 5.8891e–1 8.5729e–3 5.8427e–1 1.1924e–2 5.9099e–1 7.9749e–3 5.8796e–1 8.7795e–3 3 7.3587e–1 8.7101e–3 7.3416e–1 1.4351e–2 7.4984e–1 1.1055e–2 7.4496e–1 1.1112e–2 4 1.0090e+0 2.2756e–2 1.0431e+0 2.1887e–2 1.2001e+0 3.3576e–2 1.3551e+0 3.4553e–2 5 1.3722e+0 2.4662e–2 1.4659e+0 5.7047e–2 2.6883e+0 4.3203e–1 2.9882e+0 3.1698e–1 6 1.8588e+0 6.6010e–2 1.8882e+0 5.8250e–2 4.2358e+0 8.2102e–1 4.3280e+0 7.3107e–1 7 2.2464e+0 3.8205e–2 2.3008e+0 6.3452e–2 4.7957e+0 7.1027e–1 4.8438e+0 5.3511e–1 8 2.9411e+0 1.8357e–1 3.1879e+0 1.9197e–1 5.7011e+0 4.4099e–1 6.3112e+0 7.9123e–1 9 3.3090e+0 1.2869e–1 3.3027e+0 1.5193e–1 3.3027e+0 1.5193e–1 3.3027e+0 1.5193e–1 10 3.6633e+0 1.3392e–1 3.6635e+0 2.4839e–1 3.6635e+0 2.4839e–1 3.6635e+0 2.4839e–1 WFG9 2 8.4959e–2 5.6234e–2 9.6441e–2 5.2534e–2 1.0873e–1 4.3934e–2 1.0336e–1 4.9259e–2 3 2.1478e–1 2.2300e–2 2.2918e–1 1.6491e–2 2.3774e–1 1.6245e–2 2.5325e–1 1.1138e–2 4 5.2611e–1 7.9880e–3 5.2356e–1 1.3285e–2 7.4439e–1 2.3034e–2 1.0462e+0 2.3147e–2 5 9.6823e–1 2.0531e–2 1.0320e+0 2.4395e–2 1.7506e+0 3.0930e–2 2.5836e+0 2.6480e–1 6 1.4892e+0 3.2068e–2 1.5347e+0 3.7099e–2 3.2883e+0 9.7359e–2 3.2438e+0 1.1303e–1 7 1.8157e+0 3.7793e–2 1.9275e+0 3.0472e–2 4.1993e+0 1.2962e–1 3.8579e+0 2.5652e–1 8 2.5348e+0 9.6788e–2 2.5135e+0 1.1785e–1 6.9554e+0 5.1750e–1 4.8748e+0 4.0752e–1 9 2.9304e+0 1.4077e–1 2.9559e+0 9.0562e–2 2.9559e+0 9.0562e–2 2.9559e+0 9.0562e–2 10 3.2411e+0 1.4390e–1 3.5338e+0 1.1051e–1 3.5338e+0 1.1051e–1 3.5338e+0 1.1051e–1 En las tablas 5.6 y 5.7 se presentan los valores del hipervolumen y de la distancia generacional invertida obtenidos por cada variante de EDH en los problemas WFG. De manera general, se mantienen las diferencias entre las distintas variantes de EDH, aunque se puede observar que EDH-Tch-SL obtiene los mejores resultados en varias instancias, algo que no ocurri´o en ninguno de los problemas DTLZ. Adem´as, EDH se impone en un mayor n´umero de problemas del conjunto WFG que en el caso del conjunto DTLZ, tanto al considerar el hipervolumen como la distancia generacional invertida. En los resultados obtenidos por EDH y sus variantes se puede observar que el uso del m´etodo de dise˜no uniforme para generar vectores de pesos y la funci´on de Tchebycheff modificada, permiten un mejor desempe˜no del algoritmo propuesto. Sin embargo, esta mejora no ocurre en todas las instancias y las diferencias no son signifi- cativas, pues los valores alcanzados por EDH-SL, EDH-Tch y EDH-Tch-SL permane- cen cercanos al logrado por EDH en gran parte de los problemas. Esto ´ultimo refleja la importancia que posee el esquema de selecci´on propuesto para guiar la b´usqueda. Sin embargo, las diferencias entre las distintas variantes indican que la construcci´on de la matriz de costos del problema de asignaci´on influye directamente en la calidad de la poblaci´on seleccionada. La funci´on de costo determina la relevancia de cada in- dividuo para representar una determinada secci´on del frente de Pareto. Por lo tanto, mejorar la capacidad de la funci´on de costo para evaluar cada individuo permite un mejor desempe˜no del algoritmo propuesto. CINVESTAV-IPN Departamento de Computaci´on
  • 82. 66 Cap´ıtulo 5 5.3. Comparaci´on de la propuesta con otros algo- ritmos En la tabla 5.8 se presentan la media y la desviaci´on est´andar del hipervolumen obtenido por cada AEMO en los problemas DTLZ. Los mejores resultados se muestran en negritas. Como se puede observar en estos valores, el algoritmo EDH supera los resultados de los dem´as AEMOs en todas las instancias de DTLZ1, DTLZ3 y DTLZ6, excepto para el caso de 2 objetivos en este ´ultimo problema. Estos tres problemas son los de mayor dificultad en cuanto a convergencia en el conjunto de prueba DTLZ. DTLZ1 y DTLZ3 poseen m´ultiples frentes de Pareto locales, donde puede quedar atrapado un AEMO antes de llegar al ´optimo global. Por su parte, DTLZ6 posee un frente de Pareto con una dimensi´on inferior a la del espacio objetivo y una significativa variaci´on en la densidad de los soluciones. De estos resultados se puede apreciar que la capacidad de convergencia de nuestra propuesta es muy competitiva con respecto a la de los AEMOs utilizados en esta comparaci´on. En los problemas DTLZ2, 4, 5 y 7, el algoritmo propuesto solo es superado por SMS-EMOA en las instancias con hasta 5 objetivos. Esto ocurre porque las soluciones encontradas con SMS-EMOA est´an distribuidas en el frente de Pareto de tal forma que aumentan el valor del hipervolumen, aunque esto no siempre es equivalente a una distribuci´on uniforme, como se muestra en las figuras 5.3 y 5.4. En cambio, EDH no favorece las soluciones considerando directamente el hipervolumen, sino la buena distribuci´on de ´estas en el frente de Pareto. En cuanto a MOEA/D y MOEA/D-DE, ´estos no alcanzan los mejores resultados en ninguna instancia de los problemas DTLZ. Adem´as, las diferencias entre los resultados de estos algoritmos y los de EDH se hacen mayores a medida que aumenta el n´umero de objetivos. En la tabla 5.8 se puede observar que SMS-EMOA obtiene los mejores resultados en gran parte de los problemas con 5 objetivos o menos. Sin embargo, presenta gran dificultad para converger en problemas con m´ultiples ´optimos locales, como es el caso de DTLZ1 y en mayor grado en DTLZ3 (ver figura 5.3). Adem´as, en los problemas DTLZ2 y DTLZ4, para los cuales alcanza el mayor hipervolumen, las soluciones que obtiene se concentran en el centro y los extremos del frente de Pareto (ver figura 5.3), dejando sin representar grandes secciones de ´este. A estas deficiencias en el desempe˜no de SMS-EMOA se suma su alto costo computacional, pues su tiempo de ejecuci´on en las instancias de 4 objetivos es de hasta una hora y este valor asciende hasta 5 d´ıas en los problemas con 5 objetivos (ver figura 5.7). Por estas razones, consideramos que nuestra propuesta EDH es una opci´on competitiva frente a SMS-EMOA, a´un en problemas con pocos objetivos. En la tabla 5.9 se presenta la distancia generacional invertida (IIGD) de los conjun- tos de soluciones obtenidos por cada AEMO en los problemas DTLZ. Este indicador, a diferencia del hipervolumen, si refleja las deficiencias del SMS-EMOA para lograr soluciones en todo el frente de Pareto de los problemas DTLZ2 y 4 (ver figura 5.3). CINVESTAV-IPN Departamento de Computaci´on
  • 83. Estudio Experimental 67 Tabla 5.8: Hipervolumen obtenido por cada AEMO en los problemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. objs EDH MOEA/D MOEA/D-DE SMS-EMOA Media std Media std Media std Media std DTLZ1 2 1.0832e+0 2.4742e–4 1.0662e+0 7.2633e–2 1.0641e+0 7.0383e–2 1.0487e+0 9.6299e–2 3 1.3036e+0 2.6049e–4 1.2650e+0 1.3080e–1 1.2889e+0 4.4192e–2 1.1704e+0 2.0116e–1 4 1.4571e+0 1.9089e–4 1.2713e+0 2.7443e–1 1.4336e+0 6.1085e–2 1.4536e+0 1.6317e–2 5 1.6085e+0 7.7381e–5 1.3297e+0 4.7724e–1 1.5132e+0 2.4133e–1 1.6041e+0 1.3209e–2 6 1.7667e+0 1.5919e–2 1.5175e+0 4.3079e–1 1.7541e+0 3.5418e–2 – – 7 1.9486e+0 6.7354e–6 1.9416e+0 3.0856e–3 1.9400e+0 2.9113e–2 – – 8 2.1435e+0 1.0025e–5 1.9369e+0 3.9059e–1 2.0552e+0 1.6186e–1 – – 9 2.3579e+0 2.4495e–6 2.2682e+0 1.4052e–1 2.3205e+0 5.7901e–2 – – 10 2.5927e+0 5.8768e–3 2.5592e+0 2.1472e–2 2.5814e+0 1.6953e–2 – – DTLZ2 2 4.2079e–1 5.2374e–6 4.2087e–1 7.4043e–6 4.2067e–1 3.1595e–5 4.2161e–1 4.6193e–6 3 7.4764e–1 7.5310e–4 7.1504e–1 1.2118e–3 7.1723e–1 1.6923e–3 7.6251e–1 4.8619e–5 4 1.0156e+0 1.8105e–3 8.8689e–1 9.9674e–4 8.8794e–1 1.5369e–3 1.0526e+0 6.8792e–5 5 1.2566e+0 2.7824e–3 1.1406e+0 1.5449e–2 1.1438e+0 7.3777e–4 1.3090e+0 1.0449e–4 6 1.4789e+0 2.9657e–3 1.2123e+0 5.3716e–2 1.3427e+0 3.7358e–2 – – 7 1.7466e+0 2.0169e–3 1.2972e+0 4.3046e–2 1.4877e+0 1.0222e–2 – – 8 1.9283e+0 4.0242e–3 1.2018e+0 9.5291e–2 1.3351e+0 5.0725e–2 – – 9 2.1965e+0 2.2077e–3 1.3226e+0 9.6619e–2 1.4754e+0 5.7593e–2 – – 10 2.4781e+0 2.1577e–3 1.4329e+0 9.6315e–2 1.6464e+0 6.3977e–2 – – DTLZ3 2 8.2094e+0 4.0113e–4 8.1148e+0 4.3499e–1 8.2014e+0 6.9058e–3 0.0000e+0 0.0000e+0 3 2.6409e+1 1.7992e–3 2.6067e+1 1.1094e+0 2.6327e+1 9.4611e–2 0.0000e+0 0.0000e+0 4 8.0054e+1 1.8169e+0 7.6359e+1 1.3553e+1 7.9953e+1 1.6729e+0 0.0000e+0 0.0000e+0 5 2.4263e+2 1.9839e–1 2.2909e+2 3.4801e+1 2.4242e+2 1.1804e–1 3.9658e–1 5.6085e–1 6 7.2827e+2 2.2804e+0 6.8984e+2 1.2395e+2 7.1850e+2 2.2238e+1 – – 7 2.1868e+3 4.6461e–3 2.1643e+3 4.8611e+1 2.1808e+3 2.3907e+0 – – 8 6.5562e+3 2.3441e+1 6.2456e+3 4.8560e+2 6.4223e+3 2.1962e+2 – – 9 1.9683e+4 3.5834e–1 1.9186e+4 5.5086e+2 1.9301e+4 6.6460e+2 – – 10 5.9049e+4 9.1358e–3 5.7783e+4 6.6961e+2 5.8511e+4 1.2599e+2 – – DTLZ4 2 4.2076e–1 3.2245e–5 4.2087e–1 2.0117e–6 4.2062e–1 3.0376e–5 4.2161e–1 3.8857e–6 3 7.4140e–1 1.6965e–2 7.1758e–1 2.6496e–3 7.1931e–1 2.6330e–3 7.6254e–1 4.4632e–5 4 1.0134e+0 1.0511e–2 8.8985e–1 2.4288e–3 8.8851e–1 2.1523e–3 1.0527e+0 8.6842e–5 5 1.2649e+0 3.1514e–3 1.1440e+0 5.4992e–4 1.1438e+0 4.6854e–4 1.3094e+0 8.0610e–5 6 1.4907e+0 4.1306e–3 1.3216e+0 3.9933e–2 1.3492e+0 1.5371e–2 – – 7 1.7617e+0 1.7120e–3 1.4835e+0 2.8551e–2 1.4942e+0 9.8631e–3 – – 8 1.9474e+0 4.7903e–3 1.3559e+0 6.2536e–2 1.2841e+0 4.1562e–2 – – 9 2.2170e+0 3.3678e–3 1.4883e+0 5.6042e–2 1.3379e+0 3.5151e–2 – – 10 2.4961e+0 1.7725e–3 1.5820e+0 8.9243e–2 1.4275e+0 5.0635e–2 – – DTLZ5 2 8.2108e+0 5.8996e–6 8.2108e+0 2.3615e–5 8.2106e+0 7.7659e–5 8.2116e+0 1.9486e–5 3 2.3902e+1 8.8752e–3 2.3967e+1 8.1135e–4 2.3967e+1 2.1487e–4 2.3990e+1 9.4444e–5 4 7.1581e+1 4.8282e–2 7.1247e+1 1.2215e–1 7.1233e+1 4.6104e–2 7.1856e+1 1.7004e–3 5 2.1412e+2 4.4155e–1 2.0875e+2 1.1335e+0 2.0935e+2 2.5824e–1 2.1567e+2 2.5362e–2 6 6.4041e+2 1.5574e+0 6.1645e+2 3.6734e+0 6.1786e+2 7.0158e–1 – – 7 1.9276e+3 2.9409e+0 1.8336e+3 1.5769e+1 1.8427e+3 1.7951e+0 – – 8 5.7247e+3 1.9131e+1 5.4432e+3 5.4328e+1 5.4757e+3 1.3868e+1 – – 9 1.7248e+4 4.7332e+1 1.6307e+4 1.0420e+2 1.6540e+4 3.8065e+1 – – 10 5.1831e+4 1.0975e+2 4.8723e+4 4.1028e+2 4.9724e+4 1.4808e+2 – – DTLZ6 2 8.2108e+0 5.0742e–7 8.0197e+0 6.7641e–2 8.2100e+0 8.1287e–4 3.1194e+0 1.8351e+0 3 2.3894e+1 1.0348e–2 2.3487e+1 1.9477e–1 2.3957e+1 9.4636e–3 2.3745e+1 8.3363e–2 4 7.1406e+1 1.1058e–1 6.9232e+1 6.1968e–1 7.1129e+1 1.8021e–1 6.7598e+1 2.8678e–1 5 2.1342e+2 3.8291e–1 1.9631e+2 1.9683e+0 2.0759e+2 1.2694e+0 1.9830e+2 1.0734e+0 6 6.3628e+2 2.8055e+0 5.7393e+2 8.1226e+0 6.1658e+2 2.6629e+0 – – 7 1.9218e+3 4.5744e+0 1.7051e+3 2.0904e+1 1.8410e+3 5.0649e+0 – – 8 5.7059e+3 3.6732e+1 4.9692e+3 9.0292e+1 5.4733e+3 9.6893e+0 – – 9 1.7165e+4 1.0438e+2 1.5059e+4 2.2117e+2 1.6420e+4 4.7416e+1 – – 10 5.1719e+4 1.1684e+2 4.4826e+4 8.7293e+2 4.9317e+4 1.4859e+2 – – DTLZ7 2 8.9394e–1 1.1952e–4 8.1433e–1 1.7933e–1 8.9304e–1 1.4440e–4 8.9512e–1 5.6346e–6 3 1.8613e+0 3.0934e–3 1.5436e+0 1.7110e–1 1.6331e+0 2.8248e–3 1.8902e+0 8.7271e–2 4 2.7714e+0 5.7878e–3 1.7579e+0 6.8527e–2 1.7136e+0 2.0849e–3 2.8254e+0 1.7316e–1 5 3.5896e+0 1.3749e–2 2.2365e+0 2.8605e–2 2.2219e+0 3.0575e–3 3.7134e+0 2.3346e–1 6 4.3683e+0 2.2911e–2 2.9437e+0 2.3428e–2 2.9909e+0 5.8156e–3 – – 7 5.4343e+0 3.6226e–2 3.5887e+0 2.9512e–1 2.7911e+0 1.0647e–2 – – 8 5.3047e+0 8.2752e–2 2.8946e+0 1.0146e+0 6.0588e–1 1.1138e–2 – – 9 6.2421e+0 8.6197e–2 2.3347e+0 1.3006e+0 2.7741e–1 7.7368e–3 – – 10 7.2224e+0 1.1011e–1 1.1522e–1 2.5080e–3 1.7525e+0 1.1629e+0 – – CINVESTAV-IPN Departamento de Computaci´on
  • 84. 68 Cap´ıtulo 5 DTLZ1−−EDH 0 0.25 0.5 f1 0.25 0.5f2 0.0 0.1 0.2 0.3 0.4 0.5 f3 DTLZ1−−MOEA/D 0 0.25 0.5 f1 0.25 0.5f2 0.0 0.1 0.2 0.3 0.4 0.5 f3 DTLZ1−−MOEA/D−DE 0 0.25 0.5 f1 0.25 0.5f2 0.0 0.1 0.2 0.3 0.4 0.5 f3 DTLZ1−−SMS−EMOA 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ2−−EDH 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ2−−MOEA/D 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ2−−MOEA/D−DE 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ2−−SMS−EMOA 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ4−−EDH 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ4−−MOEA/D 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ4−−MOEA/D−DE 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ4−−SMS−EMOA 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ3−−EDH 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ3−−MOEA/D 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ3−−MOEA/D−DE 0 0.5 1 f1 0.5 1f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ3−−SMS−EMOA 0204060 f1 0 500 1000 f2 1e−5 2e−5 3e−5 4e−5 f3 Figura 5.3: Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas DTLZ1 a 4 con 3 objetivos. Considerando el indicador IIGD, los resultados obtenidos por EDH son mejores que los obtenidos por los dem´as AEMOS en 57 de las 63 instancias de los problemas DTLZ. La calidad de las soluciones de EDH solo es inferior en 2 instancias con respecto a MOEA/D y en 4 instancias en comparaci´on con SMS-EMOA. Estas 6 instancias tie- nen 5 objetivos o menos y corresponden a problemas (DTLZ2 y 5) que no representan gran dificultad para la convergencia de los AEMOs. CINVESTAV-IPN Departamento de Computaci´on
  • 85. Estudio Experimental 69 Tabla 5.9: Distancia Generacional Invertida obtenida por cada AEMO en los problemas DTLZ. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. objs EDH MOEA/D MOEA/D-DE SMS-EMOA Media std Media std Media std Media std DTLZ1 2 1.9893e–3 2.2548e–4 1.7213e–2 6.5988e–2 1.9443e–2 6.4848e–2 3.5868e–2 8.8806e–2 3 1.9672e–2 6.8372e–4 5.9344e–2 1.1427e–1 4.1368e–2 5.2173e–2 1.6986e–1 1.6942e–1 4 4.3300e–2 1.7263e–3 2.2963e–1 2.0086e–1 1.1300e–1 6.3995e–2 5.4849e–2 4.1306e–2 5 6.1734e–2 2.2513e–3 3.3437e–1 3.0621e–1 2.3472e–1 1.8010e–1 8.4726e–2 6.5528e–2 6 7.6701e–2 3.4527e–3 2.7176e–1 2.2786e–1 1.5233e–1 7.3570e–2 – – 7 7.8215e–2 2.2379e–3 1.1467e–1 5.3134e–3 1.2454e–1 1.9466e–2 – – 8 9.5653e–2 5.5388e–3 2.1415e–1 1.8141e–1 2.0339e–1 1.1438e–1 – – 9 1.0034e–1 5.4840e–3 1.5280e–1 8.0605e–2 1.7185e–1 7.9386e–2 – – 10 1.0518e–1 9.3467e–3 1.1960e–1 1.1273e–2 1.5127e–1 4.4954e–2 – – DTLZ2 2 3.4634e–3 7.4393e–6 3.4119e–3 2.0297e–6 3.4356e–3 1.1245e–5 4.1619e–3 8.3398e–5 3 4.8917e–2 5.6361e–4 6.1837e–2 2.7365e–4 6.1448e–2 4.6813e–4 6.7204e–2 6.8983e–4 4 1.2053e–1 1.6871e–3 2.1666e–1 1.8565e–3 2.1772e–1 1.3534e–3 1.5608e–1 1.5478e–3 5 1.8355e–1 2.3477e–3 2.9355e–1 2.6055e–3 2.9409e–1 1.4265e–3 2.1569e–1 2.0265e–3 6 2.3001e–1 6.4417e–3 3.2188e–1 8.6866e–3 4.0269e–1 4.9898e–2 – – 7 2.4004e–1 5.3565e–3 3.3215e–1 9.1759e–3 4.5374e–1 3.8482e–2 – – 8 2.8244e–1 9.3101e–3 3.5712e–1 2.3639e–2 4.7370e–1 8.3709e–2 – – 9 2.9642e–1 9.1941e–3 3.5167e–1 1.4806e–2 5.0499e–1 8.2422e–2 – – 10 3.2409e–1 1.2232e–2 3.5275e–1 1.2863e–2 4.9717e–1 7.1092e–2 – – DTLZ3 2 4.1506e–3 3.2060e–4 4.3051e–2 1.8252e–1 7.6404e–3 3.9023e–3 1.5670e+1 5.9378e+0 3 5.5145e–2 1.3934e–3 1.3427e–1 2.4222e–1 8.8893e–2 3.6981e–2 2.3888e+1 1.0229e+1 4 1.3509e–1 9.2123e–3 4.0454e–1 4.8740e–1 2.9231e–1 1.6616e–1 1.2776e+1 4.7032e+0 5 1.9666e–1 9.6356e–3 5.7388e–1 4.3525e–1 3.1495e–1 1.6944e–2 4.6626e+0 1.5497e+0 6 2.4280e–1 6.8769e–3 4.9173e–1 4.5106e–1 4.3744e–1 2.6305e–1 – – 7 2.4564e–1 5.5624e–3 3.7781e–1 1.4568e–1 3.3194e–1 2.1227e–2 – – 8 3.2156e–1 7.5039e–2 4.9652e–1 2.7209e–1 4.2623e–1 2.2398e–1 – – 9 3.0401e–1 1.0356e–2 4.0427e–1 1.4076e–1 4.3337e–1 2.4643e–1 – – 10 3.1056e–1 1.4554e–2 3.7226e–1 1.5876e–2 3.7288e–1 6.1175e–2 – – DTLZ4 2 3.2565e–3 5.0399e–5 3.3156e–3 1.5241e–6 3.3265e–3 8.4354e–6 4.0457e–3 1.9656e–4 3 5.4077e–2 1.6587e–2 5.8985e–2 2.4979e–3 5.8540e–2 1.4678e–3 8.4079e–2 9.6791e–4 4 1.3408e–1 9.6402e–3 2.4264e–1 6.0321e–3 2.3752e–1 3.2232e–3 1.7569e–1 1.5652e–3 5 2.1056e–1 4.0429e–3 3.3187e–1 1.0931e–3 3.3181e–1 9.0185e–4 2.4974e–1 6.7458e–4 6 2.8229e–1 4.7312e–3 3.8194e–1 2.3821e–2 3.9731e–1 2.4586e–2 – – 7 3.0622e–1 3.2317e–3 4.1996e–1 2.7246e–2 4.5837e–1 2.3171e–2 – – 8 3.8119e–1 5.2401e–3 5.3525e–1 5.0448e–2 5.5105e–1 2.6057e–2 – – 9 3.9257e–1 4.4555e–3 5.4827e–1 4.9747e–2 5.9766e–1 1.8638e–2 – – 10 4.0879e–1 3.8442e–3 5.7122e–1 4.6049e–2 6.2762e–1 2.3894e–2 – – DTLZ5 2 3.5291e–3 1.3019e–5 3.4633e–3 1.5830e–6 3.4958e–3 9.1817e–6 4.0831e–3 6.0910e–5 3 5.6865e–3 2.2439e–5 1.0531e–2 3.9001e–5 1.0511e–2 7.5230e–5 4.2100e–3 1.2282e–4 4 1.5730e–2 2.1328e–3 2.5298e–2 9.6504e–4 2.5298e–2 1.8646e–4 1.1754e–2 5.3568e–4 5 2.6378e–2 7.8999e–3 4.6927e–2 2.8268e–3 4.5022e–2 1.0808e–3 1.5124e–2 1.0846e–3 6 2.5838e–2 4.9774e–3 6.9432e–2 3.3585e–3 6.7902e–2 1.8065e–3 – – 7 1.8365e–2 4.1016e–3 6.9837e–2 3.6844e–3 6.7265e–2 1.5414e–3 – – 8 7.7203e–2 1.8760e–2 1.1504e–1 8.0362e–3 1.1013e–1 4.0434e–3 – – 9 6.8171e–2 2.7761e–2 1.1504e–1 7.5778e–3 1.0916e–1 2.5487e–3 – – 10 4.9095e–2 2.0895e–2 1.1529e–1 9.5532e–3 1.0948e–1 3.4171e–3 – – DTLZ6 2 3.4994e–3 2.3706e–6 1.1071e–1 3.8360e–2 3.6167e–3 2.2684e–4 1.6400e+0 4.6972e–1 3 5.8003e–3 1.1058e–5 1.0906e–1 4.2132e–2 1.0878e–2 5.4364e–4 7.1066e–2 2.4206e–2 4 1.1368e–2 1.5432e–3 1.2502e–1 4.1697e–2 2.6050e–2 6.9896e–4 4.1258e–1 2.6612e–2 5 1.5363e–2 3.7327e–3 1.5248e–1 3.5214e–2 4.6785e–2 2.0859e–3 5.7201e–1 2.6169e–2 6 2.2840e–2 5.4214e–3 1.4999e–1 3.4965e–2 6.9489e–2 2.8010e–3 – – 7 1.8605e–2 9.7945e–3 1.6419e–1 3.4632e–2 6.8782e–2 2.9025e–3 – – 8 4.9489e–2 2.1646e–2 2.0013e–1 3.7012e–2 1.1002e–1 2.7610e–3 – – 9 7.5640e–2 5.5565e–2 1.8195e–1 3.0510e–2 1.0970e–1 3.3169e–3 – – 10 4.7079e–2 2.0824e–2 1.9800e–1 3.2945e–2 1.0968e–1 3.5385e–3 – – DTLZ7 2 4.6504e–3 6.3062e–5 7.8696e–2 1.6631e–1 5.5448e–3 2.6779e–5 3.4567e–3 4.5075e–5 3 6.9041e–2 8.8886e–4 2.5164e–1 1.4598e–1 1.7775e–1 2.0850e–3 7.3617e–2 5.4508e–2 4 1.9605e–1 1.9450e–3 5.6518e–1 1.3739e–1 5.2189e–1 1.9367e–3 2.5023e–1 7.3786e–2 5 3.4964e–1 4.3105e–3 6.9425e–1 6.1793e–2 6.7619e–1 2.2135e–4 4.3586e–1 9.5557e–2 6 4.9019e–1 5.0446e–3 7.9305e–1 1.0255e–1 7.6482e–1 4.3996e–4 – – 7 5.7850e–1 3.3333e–3 8.7737e–1 8.1118e–2 9.6210e–1 3.2747e–4 – – 8 7.4762e–1 6.6450e–3 1.1142e+0 2.0354e–1 2.4256e+0 2.8727e–2 – – 9 8.2578e–1 5.5330e–3 1.3766e+0 4.0983e–1 3.2821e+0 1.1065e–1 – – 10 9.0565e–1 6.4381e–3 1.5904e+0 5.4716e–1 4.0329e+0 2.1406e–1 – – CINVESTAV-IPN Departamento de Computaci´on
  • 86. 70 Cap´ıtulo 5 DTLZ5−−EDH 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ5−−MOEA/D 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ5−−MOEA/D−DE 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ5−−SMS−EMOA 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ6−−EDH 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ6−−MOEA/D 00.51 f1 0.5 1 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ6−−MOEA/D−DE 0 0.5 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ6−−SMS−EMOA 0 0.5 1 f1 0.5 f2 0.0 0.2 0.4 0.6 0.8 1.0 f3 DTLZ7−−EDH 0 0.5 f1 0.5 f2 3.0 4.0 5.0 6.0 f3 DTLZ7−−MOEA/D 0 0.5 f1 0.5 f2 3.0 4.0 5.0 6.0 f3 DTLZ7−−MOEA/D−DE 0 0.5 f1 0.5 f2 3.0 4.0 5.0 6.0 f3 DTLZ7−−SMS−EMOA 0 0.5 f1 0.5 f2 3.0 4.0 5.0 6.0 f3 Figura 5.4: Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas DTLZ5 a 7 con 3 objetivos. Un hecho interesante que se puede observar en los resultados de las tablas 5.8 y 5.9, es que el hipervolumen de las soluciones de MOEA/D-DE supera el valor obtenido por MOEA/D en la mayor´ıa de los problemas, pero no sucede as´ı cuando se considera la distancia generacional invertida. MOEA/D-DE fue propuesto por sus autores [10] como una versi´on mejorada de MOEA/D y su principal fortaleza est´a en utilizar los operadores de la evoluci´on diferencial unidos a un operador gen´etico de mutaci´on para lograr mayor convergencia. Sin embargo, no fue comparado con respecto a la versi´on original de MOEA/D, la cual, a pesar de no tener la misma convergencia, si logra mejor distribuci´on de las soluciones en el frente de Pareto. Por su parte, nuestra propuesta EDH supera a ambos algoritmos en cuanto a convergencia y diversidad de las soluciones. Esto ocurre porque EDH, adem´as de utilizar la evoluci´on diferencial como buscador, posee un mecanismo de selecci´on que favorece la dispersi´on de las soluciones por todo el frente de Pareto. CINVESTAV-IPN Departamento de Computaci´on
  • 87. Estudio Experimental 71 Los resultados obtenidos por cada AEMO en los problemas WFG se muestran en las tablas 5.10 y 5.11. En la tabla 5.10 estos resultados se expresan utilizando el hipervolumen y en la tabla 5.11 mediante la distancia generacional invertida. Teniendo en cuenta el hipervolumen, EDH supera a los dem´as algoritmos en todas las instancias con m´as de 5 objetivos; mientras que SMS-EMOA obtiene los mayores valores en los problemas con 5 objetivos o menos. Sin embargo, este aparente buen desempe˜no de SMS-EMOA seg´un el hipervolumen, no corresponde con una buena distribuci´on de las soluciones por todo el frente de Pareto, como se puede observar en las figuras 5.3 y 5.6. Estas figuras muestran que SMS-EMOA prefiere las soluciones en los bordes y el centro de las regiones c´oncavas, como sucede en las instancias de 3 objetivos de los problemas WFG4 a 9. Esto tambi´en ocurre en problemas con el frente de Pareto convexo, como es el caso de los problemas WFG1 y 2. Ambos problemas representan una gran dificultad para los AEMOs en cuanto a convergencia y diversidad. WFG1 posee regiones planas, donde varios vectores de variables corresponden al mismo valor objetivo, y su frente de Pareto alterna secciones convexas y c´oncavas. Por su parte, WFG2 es un problema con m´ultiples frentes de Pareto locales discontinuos. WFG3 es otro problema donde el valor del hipervolumen no refleja el verdadero desempe˜no de SMS-EMOA. En este problema, para cualquier n´umero de objetivos, el frente de Pareto es una l´ınea. En la figura 5.3 se puede observar que EDH encuentra m´as soluciones sobre la l´ınea que los dem´as AEMOs. Sin embargo, el hipervolumen de las soluciones de SMS-EMOA es superior al de las soluciones de EDH, lo cual no corresponde con la calidad de la aproximaci´on realizada por cada algoritmo. Es- to ocurre porque SMS-EMOA transforma el problema multiobjetivo en el problema de maximizar el hipervolumen, pero el valor m´aximo de este indicador no implica necesariamente una buena distribuci´on de las soluciones por todo el frente de Pareto. La distancia generacional invertida resulta un buen complemento del hipervolumen para analizar el desempe˜no de los AEMOs, pues no tiene sus mismas limitaciones al evaluar la distribuci´on de las soluciones. Seg´un los valores de IIGD mostrados en la tabla 5.11, EDH mejora los resultados de los dem´as AEMOs en 69 de las 81 instancias de los problemas WFG. De las 12 ocasiones en las que EDH no alcanza el mejor valor, 8 corresponden a problemas de dos objetivos, 3 a problemas con tres objetivos y solo una corresponde a un problema de cuatro objetivos. Los algoritmos que obtienen resultados con mayor IIGD que el EDH en estas 12 instancias son el SMS-EMOA en 10 de ellas y el MOEA/D-DE en los otros dos problemas. Comparando los resultado obtenidos por cada algoritmo en las instancias de tres objetivos, se puede apreciar que el SMS-EMOA, aunque gana en 8 de ellas seg´un el hipervolumen, solo supera una vez el valor de la distancia generacional invertida de EDH. Esto ´ultimo tiene m´as relaci´on con lo mostrado en las figuras 5.3 y 5.6. En los problemas WFG, a diferencia de lo que sucede en el conjunto de prueba DTLZ, MOEA/D-DE no supera a MOEA/D en la mayor´ıa de los problemas. Por el contrario, es MOEA/D quien se impone en gran parte de los problemas, sobre todo en cuanto a la convergencia. Esto indica que la efectividad de los operadores de recombinaci´on de cada uno de estos algoritmos var´ıa de un problema a otro. CINVESTAV-IPN Departamento de Computaci´on
  • 88. 72 Cap´ıtulo 5 Tabla 5.10: Hipervolumen obtenido por cada AEMO en los problemas WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. objs EDH MOEA/D MOEA/D-DE SMS-EMOA Media std Media std Media std Media std WFG1 2 3.5444e+0 1.3266e–1 8.1574e–1 1.6956e–1 1.0973e+0 1.8942e–1 6.6295e–1 1.7578e–1 3 2.0202e+1 2.6800e–1 1.7690e+1 1.2758e+0 1.3886e+1 4.9606e–1 1.9773e+1 1.6699e+0 4 1.4783e+2 1.7290e+0 1.4043e+2 9.2433e+0 1.0919e+2 4.2568e+0 1.6078e+2 5.5934e+0 5 1.3712e+3 2.5066e+1 1.3030e+3 7.3235e+1 1.0420e+3 3.8298e+1 1.5382e+3 4.5891e+1 6 1.8497e+4 7.4246e+3 1.4408e+4 5.9866e+2 1.1775e+4 7.1257e+2 – – 7 2.4608e+5 3.2081e+4 2.1645e+5 9.6819e+3 1.6066e+5 1.0513e+4 – – 8 5.6571e+6 2.4620e+6 2.8674e+6 1.0643e+5 2.3479e+6 1.3119e+5 – – 9 1.0066e+8 4.3610e+7 5.3356e+7 1.3269e+6 4.1457e+7 2.3316e+6 – – 10 2.0854e+9 7.6463e+8 1.0547e+9 2.7868e+7 8.0821e+8 3.2815e+7 – – WFG2 2 4.7517e+0 8.2499e–2 4.4511e+0 2.8513e–1 4.4962e+0 2.4819e–1 4.9095e+0 3.0690e–2 3 4.4432e+1 3.7952e+0 3.8542e+1 3.2967e+0 3.7472e+1 2.0752e+0 4.4784e+1 4.0705e+0 4 3.8443e+2 3.2394e+1 3.1750e+2 2.4957e+1 3.1188e+2 1.5190e+1 3.8570e+2 3.9464e+1 5 3.9523e+3 2.9666e+2 3.3463e+3 1.9328e+2 3.1681e+3 1.5153e+2 4.0962e+3 3.3176e+2 6 4.7015e+4 3.6580e+3 3.8874e+4 3.0712e+3 3.7414e+4 1.9747e+3 – – 7 6.8555e+5 3.6584e+4 5.8104e+5 6.2764e+4 5.6009e+5 4.6071e+4 – – 8 9.3865e+6 9.3990e+5 8.5344e+6 6.7381e+5 7.8697e+6 6.0982e+5 – – 9 1.8816e+8 1.0449e+7 1.5685e+8 1.4551e+7 1.5423e+8 1.3827e+7 – – 10 3.9353e+9 2.2614e+8 3.2647e+9 2.5826e+8 3.1525e+9 2.1496e+8 – – WFG3 2 4.4191e+0 4.5890e–2 4.4333e+0 6.4512e–2 4.1691e+0 7.8554e–2 4.5359e+0 2.0315e–2 3 3.0755e+1 2.4010e–1 2.9034e+1 6.1850e–1 2.7361e+1 5.1599e–1 3.1143e+1 1.5367e–1 4 2.5609e+2 2.2304e+0 2.0351e+2 1.3468e+1 1.9278e+2 4.1793e+0 2.6077e+2 1.4237e+0 5 2.6076e+3 2.2986e+1 1.7248e+3 7.5236e+1 1.8157e+3 5.6789e+1 2.6942e+3 1.9148e+1 6 3.1288e+4 4.1498e+2 1.8500e+4 1.2654e+3 2.0520e+4 6.9993e+2 – – 7 4.5486e+5 3.3329e+3 2.7574e+5 1.3487e+4 2.9228e+5 1.0829e+4 – – 8 6.9954e+6 9.7919e+4 3.8998e+6 1.8094e+5 4.4364e+6 1.8409e+5 – – 9 1.3029e+8 1.1146e+6 7.0523e+7 4.4557e+6 8.3629e+7 5.5091e+6 – – 10 2.6570e+9 2.1193e+7 1.4844e+9 8.7532e+7 1.8046e+9 1.2002e+8 – – WFG4 2 2.2700e+0 6.2084e–3 2.2503e+0 8.9573e–3 2.0376e+0 2.8044e–2 2.2793e+0 6.8346e–3 3 2.3382e+1 1.6170e–1 2.1219e+1 2.8029e–1 1.6975e+1 5.0817e–1 2.4819e+1 8.1542e–2 4 2.2925e+2 2.2711e+0 1.4309e+2 1.2669e+1 7.7835e+1 7.2166e+0 2.6039e+2 9.4157e–1 5 2.5839e+3 2.6639e+1 1.1478e+3 2.9828e+2 4.4048e+2 1.8576e+2 3.0353e+3 1.2283e+1 6 3.2391e+4 1.5480e+3 1.3238e+4 2.8747e+3 5.8780e+3 1.6236e+3 – – 7 4.7983e+5 2.2023e+4 2.3409e+5 4.1544e+4 1.0179e+5 4.1886e+4 – – 8 5.5951e+6 6.7923e+5 2.8343e+6 5.5877e+5 1.4756e+6 5.9100e+5 – – 9 1.1849e+8 1.9004e+6 5.7747e+7 1.1585e+7 3.4211e+7 1.0256e+7 – – 10 2.5061e+9 9.1641e+7 1.2204e+9 1.6713e+8 6.6819e+8 2.5068e+8 – – WFG5 2 1.9744e+0 8.7617e–3 1.9742e+0 3.6320e–3 1.9557e+0 1.2348e–2 1.9863e+0 8.0626e–4 3 2.1527e+1 1.0332e–1 1.9181e+1 1.3987e–1 1.8547e+1 4.4280e–1 2.2713e+1 9.5208e–2 4 2.1627e+2 1.4846e+0 1.4141e+2 1.5285e+1 9.4165e+1 1.3906e+1 2.4267e+2 1.3772e+0 5 2.4460e+3 2.3396e+1 1.4586e+3 2.1116e+2 7.3730e+2 2.4516e+2 2.8474e+3 1.3053e+1 6 3.1055e+4 2.8602e+2 1.8222e+4 3.3872e+3 1.0826e+4 2.7132e+3 – – 7 4.9329e+5 3.8980e+3 2.9817e+5 4.2444e+4 2.0540e+5 4.0107e+4 – – 8 6.3967e+6 8.2734e+5 3.3254e+6 6.2742e+5 2.8299e+6 4.7162e+5 – – 9 1.0386e+8 1.8554e+6 6.7921e+7 8.4544e+6 5.7919e+7 6.5907e+6 – – 10 2.3288e+9 1.0089e+8 1.4200e+9 1.6146e+8 1.2812e+9 1.1006e+8 – – WFG6 2 2.0016e+0 3.8188e–2 1.9523e+0 7.0745e–2 1.9029e+0 5.3696e–2 2.0237e+0 3.3405e–2 3 2.1718e+1 3.4165e–1 1.9429e+1 4.6088e–1 1.6811e+1 4.5660e–1 2.2980e+1 2.5817e–1 4 2.1801e+2 4.2264e+0 1.2044e+2 9.6824e+0 7.6675e+1 5.4253e+0 2.4525e+2 2.7467e+0 5 2.4751e+3 4.3188e+1 1.0742e+3 2.4060e+2 4.8050e+2 1.8682e+2 2.8802e+3 2.8364e+1 6 3.1949e+4 5.1070e+2 1.5745e+4 2.0030e+3 7.7105e+3 3.2234e+3 – – 7 5.0517e+5 7.3397e+3 2.5832e+5 3.2184e+4 1.1052e+5 4.4845e+4 – – 8 7.5340e+6 2.4786e+5 3.1109e+6 6.3718e+5 1.5722e+6 6.1274e+5 – – 9 1.4395e+8 8.5955e+6 5.9082e+7 7.5921e+6 2.9056e+7 1.2641e+7 – – 10 2.9270e+9 2.3450e+8 1.2519e+9 1.8739e+8 5.8200e+8 2.5927e+8 – – WFG7 2 2.2629e+0 1.6770e–2 2.2626e+0 1.5253e–2 2.1037e+0 3.9866e–2 2.2926e+0 2.3230e–3 3 2.3970e+1 1.5466e–1 2.1456e+1 3.0872e–1 1.7821e+1 4.4696e–1 2.5107e+1 1.7483e–2 4 2.3903e+2 3.1053e+0 1.5955e+2 1.3309e+1 9.3522e+1 6.6278e+0 2.6528e+2 2.1773e–1 5 2.7099e+3 3.0588e+1 1.6097e+3 2.4905e+2 5.8980e+2 1.5366e+2 3.1071e+3 3.3224e+0 6 3.4511e+4 4.6692e+2 2.0480e+4 1.9261e+3 7.1816e+3 2.4886e+3 – – 7 5.5549e+5 6.8583e+3 2.9090e+5 3.2220e+4 1.3817e+5 3.6532e+4 – – 8 7.0186e+6 1.1503e+6 3.3345e+6 4.8791e+5 1.7186e+6 4.5193e+5 – – 9 1.1961e+8 1.8194e+7 5.7631e+7 7.5320e+6 3.2986e+7 8.4257e+6 – – 10 2.6271e+9 2.0710e+8 1.0537e+9 1.6437e+8 7.9013e+8 1.9823e+8 – – Contin´ua en la p´agina siguiente CINVESTAV-IPN Departamento de Computaci´on
  • 89. Estudio Experimental 73 Tabla 5.10: – Continuaci´on de la p´agina anterior objs HDE MOEA/D MOEA/D-DE SMS-EMOA Media std Media std Media std Media std WFG8 2 1.6464e+0 2.3835e–2 1.7022e+0 1.5460e–2 1.4921e+0 4.1715e–2 1.7265e+0 1.0239e–2 3 1.8655e+1 2.2357e–1 1.7345e+1 4.7993e–1 1.1906e+1 7.9548e–1 2.0535e+1 9.7033e–2 4 1.8585e+2 3.2584e+0 8.0244e+1 3.0331e+0 3.6867e+1 8.1230e+0 2.1454e+2 1.3971e+0 5 2.0681e+3 2.9858e+1 1.5664e+2 4.6711e+1 1.9779e+2 1.6380e+2 2.4641e+3 1.5199e+1 6 2.7065e+4 5.9405e+2 2.8161e+3 1.9212e+3 3.3064e+3 2.0889e+3 – – 7 4.4837e+5 2.9287e+3 6.3579e+4 3.3658e+4 5.9693e+4 4.2108e+4 – – 8 6.5144e+6 3.5781e+5 1.0807e+6 5.3275e+5 1.1759e+6 6.9146e+5 – – 9 1.2827e+8 7.4524e+6 2.4163e+7 1.1378e+7 2.1738e+7 1.1237e+7 – – 10 2.8061e+9 1.0340e+8 4.9522e+8 2.1741e+8 5.5101e+8 2.0526e+8 – – WFG9 2 1.9145e+0 2.5083e–1 2.0112e+0 1.6355e–1 1.8958e+0 1.9455e–1 2.0384e+0 2.4703e–1 3 1.9950e+1 1.1337e+0 1.8478e+1 1.3562e+0 1.7294e+1 8.1366e–1 2.3290e+1 1.0594e+0 4 1.9804e+2 1.6192e+0 9.8328e+1 1.2736e+1 7.0913e+1 1.6170e+1 2.3524e+2 1.2811e+1 5 2.2329e+3 1.6778e+1 4.1546e+2 2.7580e+2 5.6140e+2 2.3798e+2 2.6644e+3 1.5119e+2 6 2.8098e+4 3.4284e+2 6.0832e+3 2.6547e+3 7.7966e+3 1.2340e+3 – – 7 4.4032e+5 3.7539e+3 1.2941e+5 2.8421e+4 1.2079e+5 3.0877e+4 – – 8 6.4912e+6 1.8377e+5 1.8736e+6 4.5375e+5 1.6649e+6 4.8520e+5 – – 9 1.1915e+8 6.6487e+6 3.6992e+7 6.6917e+6 3.0484e+7 7.9363e+6 – – 10 2.4908e+9 5.8922e+7 7.8442e+8 1.4421e+8 6.4012e+8 1.6453e+8 – – En el caso de EDH, su buen desempe˜no se mantiene tanto en los problemas DTLZ como en los WFG, lo que no sucede con MOEA/D y MOEA/D-DE. Adem´as, su capacidad de convergencia en varios problemas es competitiva con respecto a SMS- EMOA, y en otros lo supera. A lo anterior se debe agregar que la diversidad de las soluciones de EDH mejora la obtenida por SMS-EMOA en un gran n´umero de problemas (ver figuras 5.3 y 5.6). Otro aspecto relevante al comparar estos algoritmos es el costo computacional de cada uno de ellos durante la soluci´on de los problemas de prueba. En la figura 5.7 se presentan los tiempos de ejecuci´on de cada AEMO en los problemas DTLZ y WFG. En esta figura se puede observar el crecimiento exponencial del tiempo de c´omputo de SMS-EMOA, que en problemas con 4 objetivos tiene un valor del orden de 103 segundos (equivalente a horas) y en instancias de 5 objetivos es del orden de 105 segundos (correspondiente a d´ıas). Por ejemplo, en los problemas DTLZ3, DTLZ4, WFG1, WFG2, WFG4 y WFG7 utiliza m´as de una hora de c´omputo en las instancias de 4 objetivos y m´as de un d´ıa en las instancias de 5 objetivos. El orden computacional m´as bajo lo poseen MOEA/D y MOEA/D-DE, pues utili- zan menos de 10 segundos en cualquiera de las instancias. Esto se debe principalmente a que no comparan todas las soluciones durante el proceso de selecci´on, sino aquellas que pertenecen a una misma vecindad. El tama˜no de la vecindad durante los expe- rimentos fue de 20 individuos (como recomiendan sus autores [9, 10]), lo cual es un valor muy inferior al tama˜no de la poblaci´on (se utilizaron entre 120 y 220 indivi- duos). CINVESTAV-IPN Departamento de Computaci´on
  • 90. 74 Cap´ıtulo 5 WFG1−−EDH 1 2 f1 2 4 f2 0 1 2 3 4 5 6 f3 WFG1−−MOEA/D 1 2 f1 2 4 f2 0 1 2 3 4 5 6 f3 WFG1−−MOEA/D−DE 1 2 f1 2 4 f2 0 1 2 3 4 5 6 f3 WFG1−−SMS−EMOA 1 2 f1 2 4 f2 0 1 2 3 4 5 6 f3 WFG2−−EDH 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG2−−MOEA/D 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG2−−MOEA/D−DE 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG2−−SMS−EMOA 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG3−−EDH 012 f1 2 f2 0 1 2 3 4 5 6 f3 WFG3−−MOEA/D 012 f1 2 f2 0 1 2 3 4 5 6 f3 WFG3−−MOEA/D−DE 012 f1 2 f2 0 1 2 3 4 5 6 f3 WFG3−−SMS−EMOA 012 f1 2 f2 0 1 2 3 4 5 6 f3 WFG4−−EDH 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG4−−MOEA/D 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG4−−MOEA/D−DE 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG4−−SMS−EMOA 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG5−−EDH 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG5−−MOEA/D 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG5−−MOEA/D−DE 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG5−−SMS−EMOA 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 Figura 5.5: Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas WFG1 a 5 con 3 objetivos. CINVESTAV-IPN Departamento de Computaci´on
  • 91. Estudio Experimental 75 WFG6−−EDH 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG6−−MOEA/D 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG6−−MOEA/D−DE 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG6−−SMS−EMOA 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG7−−EDH 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG7−−MOEA/D 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG7−−MOEA/D−DE 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG7−−SMS−EMOA 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG8−−EDH 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG8−−MOEA/D 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG8−−MOEA/D−DE 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG8−−SMS−EMOA 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG9−−EDH 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG9−−MOEA/D 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG9−−MOEA/D−DE 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 WFG9−−SMS−EMOA 0 1 2 f1 2 4f2 0 1 2 3 4 5 6 f3 Figura 5.6: Soluciones obtenidas por EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas WFG6 a 9 con 3 objetivos. CINVESTAV-IPN Departamento de Computaci´on
  • 92. 76 Cap´ıtulo 5 Tabla 5.11: Distancia Generacional Invertida obtenida por cada AEMO en los problemas WFG. Se muestra la media y la desviaci´on est´andar de 30 ejecuciones independientes. objs EDH MOEA/D MOEA/D-DE SMS-EMOA Media std Media std Media std Media std WFG1 2 3.8666e–1 3.5757e–2 1.2064e+0 8.1454e–2 1.1456e+0 4.5669e–2 1.4134e+0 7.5783e–2 3 1.0994e+0 1.2595e–2 1.3974e+0 5.9382e–2 1.4346e+0 7.0895e–2 1.3377e+0 3.8107e–2 4 1.4759e+0 2.1153e–2 2.2284e+0 5.0201e–1 2.0815e+0 4.0397e–1 2.2113e+0 1.4243e–1 5 1.8345e+0 1.1321e–1 2.9054e+0 5.6321e–1 2.6831e+0 6.4153e–1 3.1712e+0 1.8135e–1 6 2.1961e+0 3.5298e–1 4.1615e+0 1.1152e+0 3.3758e+0 8.7616e–1 – – 7 2.2248e+0 2.4665e–1 4.7549e+0 1.4742e+0 3.6921e+0 1.1424e+0 – – 8 3.2363e+0 1.8585e+0 6.6483e+0 1.5466e+0 5.0024e+0 1.9136e+0 – – 9 3.9205e+0 2.2862e+0 7.3004e+0 1.6847e+0 5.9622e+0 2.2287e+0 – – 10 3.9811e+0 2.5311e+0 8.1072e+0 1.9411e+0 6.4262e+0 2.2754e+0 – – WFG2 2 4.7636e–2 1.5357e–2 6.8575e–2 2.3530e–2 7.9691e–2 2.0596e–2 1.2243e–2 5.8072e–3 3 1.8071e–1 2.5435e–2 5.5454e–1 1.1517e–1 4.9419e–1 8.7594e–2 1.9342e–1 6.3159e–2 4 4.9969e–1 1.4864e–1 1.4734e+0 3.8008e–1 1.5780e+0 2.7189e–1 8.1514e–1 1.6913e–1 5 8.8060e–1 1.9579e–1 1.6350e+0 5.4523e–1 2.3911e+0 4.0419e–1 2.1514e+0 7.3690e–1 6 1.2492e+0 5.1240e–1 2.0541e+0 6.8578e–1 2.5829e+0 5.8660e–1 – – 7 2.1043e+0 2.0246e+0 2.4603e+0 9.4973e–1 2.8101e+0 6.9711e–1 – – 8 1.4792e+0 1.7270e+0 2.5881e+0 7.7446e–1 2.8150e+0 7.2319e–1 – – 9 1.3701e+0 5.4077e–1 2.6337e+0 7.3148e–1 3.0778e+0 7.7991e–1 – – 10 2.4977e+0 2.1205e+0 2.9459e+0 9.0681e–1 3.3438e+0 7.4821e–1 – – WFG3 2 3.5784e–2 9.4992e–3 2.7385e–2 1.2747e–2 7.3358e–2 1.8267e–2 1.3238e–2 3.3001e–3 3 5.4965e–2 1.5099e–2 1.3995e–1 4.2019e–2 2.5909e–1 3.7456e–2 3.7819e–2 9.5079e–3 4 1.0697e–1 2.2539e–2 9.1615e–1 2.3103e–1 9.6341e–1 1.1108e–1 8.6824e–2 1.3689e–2 5 1.1404e–1 2.4876e–2 2.7230e+0 1.1480e–1 1.9930e+0 2.2517e–1 1.3349e–1 2.1730e–2 6 1.4661e–1 2.5651e–2 4.0047e+0 1.6926e–1 3.0009e+0 4.6391e–1 – – 7 9.5693e–2 1.1861e–2 4.8194e+0 1.1828e–1 3.8061e+0 5.7087e–1 – – 8 1.9415e–1 2.7625e–2 5.7008e+0 3.1267e–1 4.5217e+0 4.4032e–1 – – 9 1.5264e–1 1.9846e–2 6.5573e+0 4.4948e–1 4.8844e+0 7.0400e–1 – – 10 1.4803e–1 1.7218e–2 7.2112e+0 3.5293e–1 5.0185e+0 7.0863e–1 – – WFG4 2 1.2634e–2 7.6043e–4 1.8695e–2 2.1789e–3 7.0949e–2 9.6296e–3 8.2606e–3 3.1131e–4 3 1.7637e–1 2.5320e–3 3.6453e–1 1.2515e–2 4.4942e–1 1.2799e–2 2.0735e–1 5.4809e–3 4 5.1810e–1 1.6060e–2 2.0105e+0 2.3342e–1 2.0557e+0 1.1649e–1 6.5829e–1 2.4038e–2 5 9.3109e–1 5.2656e–2 3.1383e+0 8.0181e–1 3.6983e+0 2.6388e–1 1.2061e+0 6.7565e–2 6 1.4373e+0 1.5915e–1 3.5945e+0 9.6311e–1 4.3089e+0 4.9941e–1 – – 7 1.3596e+0 1.7772e–1 3.5320e+0 5.1332e–1 4.7405e+0 7.9692e–1 – – 8 1.5463e+0 1.2767e–1 3.9181e+0 4.9505e–1 4.5578e+0 9.9395e–1 – – 9 1.8034e+0 8.7096e–2 4.5684e+0 7.2085e–1 4.4965e+0 1.0770e+0 – – 10 1.7973e+0 6.9891e–2 5.0200e+0 7.0095e–1 5.0319e+0 9.4174e–1 – – WFG5 2 6.8808e–2 1.8260e–3 6.8057e–2 6.7247e–4 7.2122e–2 2.8777e–3 6.6596e–2 2.1013e–5 3 2.2441e–1 1.6280e–3 3.1996e–1 2.7299e–3 3.5583e–1 9.9785e–3 2.3558e–1 3.7490e–3 4 5.9261e–1 7.8410e–3 1.6480e+0 1.8235e–1 1.7182e+0 9.2418e–2 7.9884e–1 1.3530e–2 5 1.0752e+0 1.8145e–2 2.8489e+0 2.7099e–1 3.1855e+0 4.1734e–1 1.4675e+0 3.5236e–2 6 1.6961e+0 5.1293e–2 3.2696e+0 4.6961e–1 3.4694e+0 3.3005e–1 – – 7 2.1008e+0 6.6684e–2 3.4070e+0 2.8290e–1 3.7344e+0 2.9209e–1 – – 8 2.6324e+0 2.4197e–1 4.4338e+0 5.1571e–1 4.3066e+0 3.7209e–1 – – 9 2.8096e+0 5.8215e–2 4.7073e+0 2.9137e–1 4.7267e+0 2.4938e–1 – – 10 3.0367e+0 5.5118e–2 5.2977e+0 2.9422e–1 5.1577e+0 1.8563e–1 – – WFG6 2 6.2770e–2 7.6997e–3 6.2861e–2 1.2804e–2 7.5020e–2 1.2029e–2 5.7632e–2 6.7028e–3 3 2.3592e–1 5.9929e–3 3.1458e–1 4.1950e–3 3.8811e–1 1.4723e–2 2.4676e–1 5.0496e–3 4 6.3099e–1 1.0823e–2 1.7324e+0 6.8077e–2 1.7265e+0 3.5035e–2 8.3947e–1 1.3507e–2 5 1.1307e+0 2.1153e–2 3.3123e+0 4.0415e–1 3.9002e+0 2.6282e–1 1.5400e+0 3.0167e–2 6 1.7727e+0 4.1505e–2 3.7403e+0 2.7990e–1 5.1408e+0 5.4195e–1 – – 7 2.2345e+0 4.7112e–2 4.4190e+0 2.3412e–1 5.9428e+0 7.4367e–1 – – 8 3.1385e+0 1.0797e–1 5.5038e+0 5.4257e–1 6.9005e+0 9.1470e–1 – – 9 3.7022e+0 1.6442e–1 6.2183e+0 4.9999e–1 8.0180e+0 1.1007e+0 – – 10 4.1174e+0 4.5558e–1 7.0280e+0 4.6679e–1 9.0888e+0 1.1693e+0 – – WFG7 2 1.5777e–2 2.1127e–3 1.4571e–2 6.4873e–4 3.5921e–2 3.6510e–3 9.1563e–3 1.1148e–4 3 2.1793e–1 9.5213e–4 2.9794e–1 1.2380e–3 4.2577e–1 3.3285e–2 2.3224e–1 4.2886e–3 4 6.2292e–1 8.6051e–3 1.6715e+0 8.4471e–2 1.7713e+0 3.4370e–2 8.6464e–1 1.3311e–2 5 1.1238e+0 2.4406e–2 3.3297e+0 4.2718e–1 3.7826e+0 4.8013e–1 1.5901e+0 3.5563e–2 6 1.8042e+0 4.9544e–2 3.9934e+0 4.1321e–1 4.9662e+0 4.8486e–1 – – 7 2.2493e+0 5.9535e–2 4.7232e+0 2.9298e–1 5.3885e+0 5.7323e–1 – – 8 2.9423e+0 3.3169e–1 6.0329e+0 5.4481e–1 6.4274e+0 1.0585e+0 – – 9 3.5003e+0 2.9592e–1 6.7827e+0 6.2858e–1 7.0727e+0 8.9896e–1 – – 10 3.6346e+0 1.5355e–1 7.7078e+0 7.7156e–1 7.6256e+0 9.3139e–1 – – Contin´ua en la p´agina siguiente CINVESTAV-IPN Departamento de Computaci´on
  • 93. Estudio Experimental 77 Tabla 5.11: – Continuaci´on de la p´agina anterior objs HDE MOEA/D MOEA/D-DE SMS-EMOA Media std Media std Media std Media std WFG8 2 5.8891e–1 8.5729e–3 6.0791e–1 5.4448e–3 5.4022e–1 1.5403e–2 6.1629e–1 3.2071e–3 3 7.3587e–1 8.7101e–3 7.8708e–1 1.4485e–2 5.4455e–1 2.4154e–2 7.6167e–1 5.1497e–3 4 1.0090e+0 2.2756e–2 2.3019e+0 5.6569e–2 1.9591e+0 5.4270e–2 1.1180e+0 1.4131e–2 5 1.3722e+0 2.4662e–2 4.8610e+0 2.3386e–1 4.0180e+0 6.0268e–1 1.7910e+0 4.1264e–2 6 1.8588e+0 6.6010e–2 6.0215e+0 5.5451e–1 5.2831e+0 6.4748e–1 – – 7 2.2464e+0 3.8205e–2 6.8487e+0 7.7869e–1 6.1043e+0 8.6834e–1 – – 8 2.9411e+0 1.8357e–1 7.9005e+0 8.4380e–1 6.8417e+0 9.6879e–1 – – 9 3.3090e+0 1.2869e–1 8.4591e+0 1.2058e+0 7.5451e+0 1.1727e+0 – – 10 3.6633e+0 1.3392e–1 9.4610e+0 1.2012e+0 8.3477e+0 1.2652e+0 – – WFG9 2 8.4959e–2 5.6234e–2 5.9251e–2 3.8618e–2 8.9495e–2 4.3415e–2 5.5850e–2 5.7045e–2 3 2.1478e–1 2.2300e–2 3.7245e–1 1.9748e–2 4.0496e–1 1.2550e–2 2.0251e–1 1.3173e–2 4 5.2611e–1 7.9880e–3 1.9021e+0 5.0635e–2 1.7936e+0 1.0983e–1 6.1367e–1 1.5598e–2 5 9.6823e–1 2.0531e–2 3.6772e+0 3.2480e–1 2.4817e+0 5.0831e–1 1.1861e+0 3.6623e–2 6 1.4892e+0 3.2068e–2 4.0416e+0 7.1408e–1 2.9995e+0 1.7312e–1 – – 7 1.8157e+0 3.7793e–2 4.1814e+0 4.8445e–1 3.7429e+0 4.0486e–1 – – 8 2.5348e+0 9.6788e–2 4.9399e+0 6.2633e–1 4.7922e+0 7.4548e–1 – – 9 2.9304e+0 1.4077e–1 5.5382e+0 5.4967e–1 5.5657e+0 7.0692e–1 – – 10 3.2411e+0 1.4390e–1 6.1620e+0 7.0675e–1 6.3033e+0 7.9088e–1 – – El tiempo de ejecuci´on de EDH no depende del n´umero de objetivos, como en el caso de SMS-EMOA, sino del n´umero de soluciones deseadas. Esto ocurre porque el esquema de selecci´on utiliza el algoritmo de Kuhn-Munkres para decidir los n in- dividuos que pasan a la siguiente generaci´on y la complejidad de este algoritmo es O(n3 ). En EDH se incorpor´o un m´etodo para generar un n´umero arbitrario de vecto- res de pesos, que permite utilizar una poblaci´on de tama˜no independiente al n´umero de objetivos, algo que no sucede con MOEA/D y MOEA/D-DE. De esta manera, nuestra propuesta puede escalar con relaci´on al n´umero de objetivos sin que aumente su tiempo de ejecuci´on. En la figura 5.7 se puede observar que los mayores tiempos corresponden precisamente a las instancias para las cuales se utilizaron los mayores tama˜nos de poblaci´on (210 individuos para 7 objetivos y 220 para 10 objetivos). El mayor tiempo registrado para EDH fue de 5 minutos, pero los valores m´as frecuentes no superan los 20 segundos, pues la mediana del tiempo empleado por EDH en la soluci´on de las 144 instancias es igual a 15.3 segundos. CINVESTAV-IPN Departamento de Computaci´on
  • 94. 78 Cap´ıtulo 5 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos DTLZ1 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos DTLZ2 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 10 6 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos DTLZ3 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 10 6 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos DTLZ4 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos DTLZ5 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos DTLZ6 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos DTLZ7 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 10 6 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos WFG1 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 10 6 2 3 4 5 6 7 8 9 10Tiempo(segundos) Número de objetivos WFG2 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos WFG3 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 10 6 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos WFG4 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos WFG5 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos WFG6 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 −1 10 0 10 1 10 2 10 3 10 4 10 5 10 6 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos WFG7 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos WFG8 EDH MOEA/D MOEA/D−DE SMS−EMOA 10 0 10 1 10 2 10 3 10 4 10 5 2 3 4 5 6 7 8 9 10 Tiempo(segundos) Número de objetivos WFG9 EDH MOEA/D MOEA/D−DE SMS−EMOA Figura 5.7: Tiempo de ejecuci´on promedio considerando 30 corridas independientes de EDH, MOEA/D, MOEA/D-DE y SMS-EMOA en los problemas DTLZ y WFG. CINVESTAV-IPN Departamento de Computaci´on
  • 95. Cap´ıtulo 6 Conclusiones En esta tesis se present´o una revisi´on de los principales AEMOs propuestos du- rante los ´ultimos 10 a˜nos, resaltando sus ventajas y limitaciones. Entre ellos destacan los basados en indicadores y los basados en descomposici´on. En el primer caso, la mejor aproximaci´on del frente de Pareto se obtiene con los AEMOs basados en el hipervolumen, pero el principal inconveniente es que el costo computacional de este indicador aumenta de manera exponencial con el n´umero de objetivos. En cuanto a los basados en descomposici´on, la opci´on m´as popular ha sido MOEA/D, pero existen pocos estudios que analicen su desempe˜no en problemas con m´as de cuatro objetivos. En este trabajo se propuso un nuevo algoritmo evolutivo para solucionar problemas con un gran n´umero de objetivos. El aspecto principal de nuestra propuesta es que transforma el proceso de selecci´on en un problema de asignaci´on lineal, el cual se soluciona utilizando el algoritmo de Kuhn-Munkres (tambi´en conocido como m´etodo h´ungaro). Para construir el problema de asignaci´on lineal emplea un conjunto de vectores de pesos uniformemente distribuidos en el espacio objetivo y una funci´on de utilidad (o funci´on de costo). Adem´as, para generar las nuevas soluciones utiliza los operadores de la evoluci´on diferencial, debido a lo cual hemos denominado a nuestra propuesta evoluci´on diferencial h´ungara (EDH). El conjunto de vectores de pesos que requiere EDH se obtiene mediante un m´etodo de dise˜no uniforme y como funci´on de utilidad se seleccion´o la descomposici´on de Tchebycheff modificada. La evaluaci´on de EDH se realiz´o comparando su desempe˜no con dos AEMOs basa- dos en descomposici´on (MOEA/D y MOEA/D-DE) y uno basado en el hipervolumen (SMS-EMOA). Para ello, se utilizaron 16 problemas de prueba, de los cuales se ob- tienen 144 instancias al variar el n´umero de objetivos entre 2 y 10. Los conjuntos de prueba fueron los denominados Deb-Thiele-Laumanns-Zitzler (DTLZ) y Walking- Fish-Group (WFG), que poseen una amplia variedad de caracter´ısticas representativas de los problemas reales. SMS-EMOA solo fue aplicado en problemas con 5 objetivos o menos, debido a su elevado tiempo de ejecuci´on, que asciende a d´ıas cuando el n´umero de objetivos es mayor o igual a 5. Adem´as, SMS-EMOA present´o dificultad para converger en problemas con m´ultiples ´optimos locales (DTLZ1 y 3) y con fren- tes de Pareto degenerados (DTLZ6 y WFG3). El aspecto m´as negativo a destacar en SMS-EMOA es la pobre distribuci´on de sus soluciones en gran parte de los problemas. 79
  • 96. 80 Cap´ıtulo 6 Aunque la aproximaci´on del frente de Pareto la obtiene al maximizar el hipervolumen, se puede observar en un gran n´umero de problemas (DTLZ2 y 4, WFG4 a 9) que un alto valor de este indicador no garantiza una buena distribuci´on. Es por esta raz´on, que al evaluar sus soluciones con la distancia generacional invertida, su desempe˜no se muestra inferior al de EDH en un mayor n´umero de instancias. MOEA/D y MOEA/D-DE poseen un orden computacional muy inferior al de SMS-EMOA e incluso al de EDH, siendo escalables a cualquier n´umero de objetivos en este sentido. En baja dimensionalidad (problemas con dos o tres objetivos) alcanzan resultados cercanos a EDH y SMS-EMOA, sin llegar a superarlos. Sin embargo, en la medida que aumenta el n´umero de objetivos, la capacidad de convergencia de ambos algoritmos disminuye y en mayor medida se ve afectada la diversidad de las soluciones que obtienen. Esto tiene relaci´on en primer lugar con el esquema de reemplazo de las soluciones de cada subproblema, pues busca el ´optimo de manera independiente y esto no siempre representa la mejor opci´on para el conjunto de soluciones. En segundo lugar, la generaci´on de nuevas soluciones depende en mayor medida de los individuos de una misma vecindad, lo cual puede provocar la p´erdida de la diversidad en la poblaci´on. De manera general, MOEA/D y MOEA/D-DE no logran resultados competitivos con respecto a SMS-EMOA y a nuestra propuesta. EDH obtiene los mayores valores del hipervolumen en todas las instancias con m´as de 5 objetivos, y en problemas como DTLZ1, DTLZ3 y DTLZ6 tambi´en supera a SMS-EMOA en las instancias con menos de 5 objetivos. En cuanto a la distan- cia generacional invertida, EDH obtiene el mejor valor en 126 de las 144 instancias de los problemas DTLZ y WFG. Esto refleja la buena distribuci´on de las soluciones obtenidas por EDH con respecto a las de SMS-EMOA, algo que en varios casos el hipervolumen no puede diferenciar debido a sus limitaciones. Por su parte, el tiem- po de ejecuci´on de EDH no depende del n´umero de objetivos. En los experimentos realizados con poblaciones de hasta 220 individuos el tiempo m´aximo que utiliz´o fue de 5 minutos, siendo los valores m´as frecuentes inferiores a 20 segundos (la mediana del tiempo de ejecuci´on en las 144 instancias fue de 15.3 segundos). La calidad de la soluciones encontradas por EDH en problemas de entre 2 y 10 objetivos, y el tiempo de ejecuci´on utilizado para solucionarlos, lo hacen ver como una opci´on competitiva frente a otros AEMOs. 6.1. Trabajo futuro La propuesta realizada en esta tesis utiliza el algoritmo de Kuhn-Munkres para so- lucionar el problema de asignaci´on lineal en que se transforma el proceso de selecci´on. Debido a que el m´etodo h´ungaro es de orden O(n3 ) y en EDH el valor de n est´a dado por el n´umero de soluciones que se desean sobre el frente de Pareto, de requerirse un elevado valor de n, aumenta considerablemente el tiempo de ejecuci´on de EDH. Ante esta situaci´on, es recomendable implementar otro algoritmo de asignaci´on con menor orden computacional o un m´etodo de programaci´on lineal. CINVESTAV-IPN Departamento de Computaci´on
  • 97. Conclusiones 81 Otra caracter´ıstica mejorable en nuestra propuesta es el m´etodo de dise˜no uni- forme que se introdujo para generar los vectores de pesos. Este algoritmo, basado en el m´etodo de Hammersley y en el dise˜no uniforme de experimentos con mezclas, posee un bajo costo computacional y obtiene un n´umero arbitrario de vectores con una buena distribuci´on. Sin embargo, a medida que aumenta el n´umero de objetivos, los vectores se concentran en el interior del simplex, contrario a lo que sucede con el simplex-lattice. Por lo tanto, es necesario generar un conjunto que incluya tanto vectores del interior del simplex como de la frontera. Una ´ultima modificaci´on que podr´ıa mejorar el desempe˜no de EDH es la construc- ci´on de una funci´on de utilidad m´as efectiva. Mientras mayor sea la capacidad de la funci´on de costo para evaluar la pertinencia de cada soluci´on, mejor ser´a la poblaci´on seleccionada como aproximaci´on del frente de Pareto. En EDH se considera cu´an bien representa una soluci´on una secci´on o zona del frente de Pareto, pero la capacidad de medir esto depende de la funci´on de utilidad. CINVESTAV-IPN Departamento de Computaci´on
  • 98. 82 Cap´ıtulo 6 CINVESTAV-IPN Departamento de Computaci´on
  • 99. Bibliograf´ıa [1] Carlos A. Coello Coello, Gary B. Lamont, and David A. Van Veldhuizen. Evolu- tionary Algorithms for Solving Multi-Objective Problems. Springer, New York, second edition, September 2007. ISBN 978-0-387-33254-3. [2] Kalyanmoy Deb. Multi-Objective Optimization using Evolutionary Algorithms. John Wiley & Sons, Chichester, UK, 2001. ISBN 0-471-87339-X. [3] Eckart Zitzler, Lothar Thiele, Marco Laumanns, Carlos M. Fonseca, and Vivia- ne Grunert da Fonseca. Performance Assessment of Multiobjective Optimizers: An Analysis and Review. IEEE Transactions on Evolutionary Computation, 7(2):117–132, April 2003. [4] Robin C. Purshouse and Peter J. Fleming. On the Evolutionary Optimization of Many Conflicting Objectives. IEEE Transactions on Evolutionary Algorithms, 11(6):770–784, December 2007. [5] Joshua Knowles and David Corne. Quantifying the Effects of Objective Space Dimension in Evolutionary Multiobjective Optimization. In Shigeru Obayashi, Kalyanmoy Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko Murata, edi- tors, Evolutionary Multi-Criterion Optimization, volume 4403 of Lecture Notes in Computer Science, pages 757–771. Springer Berlin Heidelberg, 2007. [6] Hisao Ishibuchi, Noritaka Tsukamoto, and Yusuke Nojima. Evolutionary many- objective optimization: A short review. In Evolutionary Computation, 2008. CEC 2008. (IEEE World Congress on Computational Intelligence). IEEE Con- gress on, pages 2424–2431, Hong Kong, June 2008. [7] M. Farina and P. Amato. On the optimal solution definition for many-criteria optimization problems. In Fuzzy Information Processing Society, 2002. Procee- dings. NAFIPS. 2002 Annual Meeting of the North American, pages 233–238, June 2002. [8] Christian von L¨ucken, Benjam´ın Bar´an, and Carlos Brizuela. A survey on multi- objective evolutionary algorithms for many-objective problems. Computational Optimization and Applications, 58(3):707–756, July 2014. 83
  • 100. 84 BIBLIOGRAF´IA [9] Qingfu Zhang and Hui Li. MOEA/D: A Multiobjective Evolutionary Algorithm Based on Decomposition. IEEE Transactions on Evolutionary Computation, 11(6):712–731, December 2007. [10] Hui Li and Qingfu Zhang. Multiobjective Optimization Problems With Compli- cated Pareto Sets, MOEA/D and NSGA-II. IEEE Transactions on Evolutionary Computation, 13(2):284–302, April 2009. [11] Siwei Jiang, Zhihua Cai, Jie Zhang, and Yew-Soon Ong. Multiobjective op- timization by decomposition with Pareto-adaptive weight vectors. In Natural Computation (ICNC), 2011 Seventh International Conference on, volume 3, pages 1260–1264, July 2011. [12] Yan-Yan Tan, Yong-Chang Jiao, Hong Li, and Xin-Kuan Wang. A modification to MOEA/D-DE for multiobjective optimization problems with complicated Pareto sets. Information Sciences, 213:14–38, December 2012. [13] Yan-Yan Tan, Yong-Chang Jiao, Hong Li, and Xin-Kuan Wang. MOEA/D + uniform design: A new version of MOEA/D for optimization problems with many objectives. Computers & Operations Research, 40(6):1648–1660, June 2013. [14] Xiaoliang Ma, Yutao Qi, Lingling Li, Fang Liu, Licheng Jiao, and Jianshe Wu. MOEA/D with uniform decomposition measurement for many-objective pro- blems. Soft Computing, pages 1–24, 2014. [15] Hisao Ishibuchi, Yuji Sakane, Noritaka Tsukamoto, and Yusuke Nojima. Adap- tation of Scalarizing Functions in MOEA/D: An Adaptive Scalarizing Function- Based Multiobjective Evolutionary Algorithm. In Matthias Ehrgott, Carlos M. Fonseca, Xavier Gandibleux, Jin-Kao Hao, and Marc Sevaux, editors, Evolutio- nary Multi-Criterion Optimization, volume 5467 of Lecture Notes in Computer Science, pages 438–452. Springer Berlin Heidelberg, 2009. [16] K. Deb and H. Jain. An Evolutionary Many-Objective Optimization Algorithm Using Reference-Point-Based Nondominated Sorting Approach, Part I: Solving Problems With Box Constraints. IEEE Transactions on Evolutionary Compu- tation, 18(4):577–601, August 2014. [17] A. Mohammadi, M.N. Omidvar, and Xiaodong Li. Reference point based multi- objective optimization through decomposition. In Evolutionary Computation (CEC), 2012 IEEE Congress on, pages 1–8, Brisbane, Australia, June 2012. [18] Nicola Beume, Boris Naujoks, and Michael Emmerich. SMS-EMOA: Multiob- jective selection based on dominated hypervolume. European Journal of Ope- rational Research, 181(3):1653–1669, September 2007. CINVESTAV-IPN Departamento de Computaci´on
  • 101. BIBLIOGRAF´IA 85 [19] Dimo Brockhoff, Tobias Friedrich, and Frank Neumann. Analyzing Hypervo- lume Indicator Based Algorithms. In G¨unter Rudolph, Thomas Jansen, Simon Lucas, Carlo Poloni, and Nicola Beume, editors, Parallel Problem Solving from Nature PPSN X, volume 5199 of Lecture Notes in Computer Science, pages 651–660. Springer Berlin Heidelberg, September 2008. [20] M. Fleischer. The Measure of Pareto Optima. Applications to Multi-objective Metaheuristics. In Carlos M. Fonseca, Peter J. Fleming, Eckart Zitzler, Kalyan- moy Deb, and Lothar Thiele, editors, EMO 2003, pages 519–533, Faro, Portugal, April 2003. Springer. Lecture Notes in Computer Science. Volume 2632. [21] Michael Emmerich, Nicola Beume, and Boris Naujoks. An EMO Algorithm Using the Hypervolume Measure as Selection Criterion. In Carlos A. Coello Coello, Arturo Hern´andez Aguirre, and Eckart Zitzler, editors, EMO 2005, pages 62–76, Guanajuato, M´exico, March 2005. Springer. Lecture Notes in Computer Science Vol. 3410. [22] Karl Bringmann and Tobias Friedrich. Approximating the least hypervolume contributor: NP-hard in general, but fast in practice. Theoretical Computer Science, 425:104–116, March 30 2012. [23] Dimo Brockhoff and Eckart Zitzler. Improving Hypervolume-based Multiobjec- tive Evolutionary Algorithms by Using Objective Reduction Methods. In 2007 IEEE Congress on Evolutionary Computation (CEC’2007), pages 2086–2093, Singapore, Sep 2007. IEEE Press. [24] Johannes Bader and Eckart Zitzler. HypE: An Algorithm for Fast Hypervolume- Based Many-Objective Optimization. Evolutionary Computation, 19(1):45–76, Spring, 2011. [25] Oliver Sch¨utze, Xavier Esquivel, Adriana Lara, and Carlos A. Coello Coello. Using the averaged hausdorff distance as a performance measure in evolu- tionary multiobjective optimization. IEEE Trans. Evolutionary Computation, 16(4):504–522, 2012. [26] Michael Pilegaard Hansen. Metaheuristics for multiple objective combinatorial optimization. PhD thesis, Institute of Mathematical Modelling, Technical Uni- versity of Denmark, March 1998. [27] Cynthia A. Rodr´ıguez Villalobos and Carlos A. Coello Coello. A New Multi- Objective Evolutionary Algorithm Based on a Performance Assessment In- dicator. In 2012 Genetic and Evolutionary Computation Conference (GEC- CO’2012), pages 505–512, Philadelphia, USA, July 2012. ACM Press. ISBN: 978-1-4503-1177-9. CINVESTAV-IPN Departamento de Computaci´on
  • 102. 86 BIBLIOGRAF´IA [28] Heike Trautmann, G¨unter Rudolph, Christian Dominguez-Medina, and Oliver Sch¨utze. Finding Evenly Spaced Pareto Fronts for Three-Objective Optimiza- tion Problems. In Oliver Sch¨utze, Carlos A. Coello Coello, Alexandru-Adrian Tantar, Emilia Tantar, Pascal Bouvry, Pierre Del Moral, and Pierrick Legrand, editors, EVOLVE - A Bridge between Probability, Set Oriented Numerics, and Evolutionary Computation II, pages 89–105. Springer, Advances in Intelligent Systems and Computing Vol. 175, Berlin, Germany, 2012. ISBN 978-3-642- 31519-0. [29] Heike Trautmann, Tobias Wagner, and Dimo Brockhoff. R2-EMOA: Focused Multiobjective Search Using R2-Indicator-Based Selection. In Giuseppe Nicosia and Panos Pardalos, editors, Learning and Intelligent Optimization, Lecture Notes in Computer Science, pages 70–74. Springer Berlin Heidelberg, 2013. [30] D H Phan and J Suzuki. R2-IBEA: R2 Indicator Based Evolutionary Algorithm for Multiobjective Optimization. In IEEE Congress on Evolutionary Compu- tation (CEC’2013), pages 1836–1845, 2013. [31] Dimo Brockhoff, Tobias Wagner, and Heike Trautmann. On the Properties of the R2 Indicator. In 2012 Genetic and Evolutionary Computation Conference (GECCO’2012), pages 465–472, Philadelphia, USA, July 2012. ACM Press. ISBN: 978-1-4503-1177-9. [32] William Karush. Minima of Functions of Several Variables with Inequalities as Side Constraints. Master’s thesis, Department of Mathematics, University of Chicago, Chicago, Illinois, 1939. [33] Harold W Kuhn and A. W. Tucker. Nonlinear programming. In Proceedings of the Second Berkeley Symposium on Mathematical Statistics and Probability, pages 481–492, Berkeley, Calif., 1951. University of California Press. [34] A. M. Turing. Computing Machinery and Intelligence. Mind, 59(236):433–460, 1950. [35] Alexander S. Fraser and D. Burnell. Computer Models in Genetics. McGraw– Hill, New York, 1970. [36] George E. P. Box. Evolutionary operation: A method for increasing indus- trial productivity. Journal of the Royal Statistical Society. Series C (Applied Statistics), 6(2):81–101, June 1957. [37] Lawrence J. Fogel. Artificial Intelligence through Simulated Evolution. John Wiley, New York, 1966. [38] Thomas B¨ack, David B. Fogel, and Zbigniew Michalewicz, editors. Handbook of Evolutionary Computation. Institute of Physics Publishing and Oxford Uni- versity Press, 1997. CINVESTAV-IPN Departamento de Computaci´on
  • 103. BIBLIOGRAF´IA 87 [39] Ingo Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipien der biologischen Evolution. Frommann–Holzboog, Stuttgart, Alema- nia, 1973. [40] Hans-Paul Schwefel. Numerische Optimierung von Computer-Modellen mittels der Evolutionsstrategie. Birkh¨auser, Basel, Alemania, 1977. [41] John H. Holland. Outline for a Logical Theory of Adaptive Systems. Journal of the Association for Computing Machinery, 9(3):297–314, July 1962. [42] G. Rudolph. Convergence analysis of canonical genetic algorithms. Neural Networks, IEEE Transactions on, 5(1):96–101, Jan 1994. [43] David E. Goldberg. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley Longman Publishing Co., Inc., Boston, MA, USA, 1st edition, 1989. [44] S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi. Optimization by simulated annealing. Science, 220(4598):671–680, 1983. [45] V. ˇCern´y. Thermodynamical approach to the traveling salesman problem: An efficient simulation algorithm. Journal of Optimization Theory and Applica- tions, 45(1):41–51, January 1985. [46] B. Suman and P. Kumar. A survey of simulated annealing as a tool for single and multiobjective optimization. Journal of the Operational Research Society, 57(10):1143–1160, October 2006. [47] Fred Glover. Future Paths for Integer Programming and Links to Artificial Intelligence. Computers and Operations Research, 13(5):533–549, 1986. [48] Fred Glover and Manuel Laguna. Tabu Search. Kluwer Academic Publishers, Norwell, MA, USA, 1997. [49] J. Kennedy and R. Eberhart. Particle Swarm Optimization. In Proceedings of the 1995 IEEE International Conference on Neural Networks, volume 4, pages 1942–1948, Nov 1995. [50] Margarita Reyes-Sierra and Carlos A. Coello Coello. Multi-Objective Particle Swarm Optimizers: A Survey of the State-of-the-Art. International Journal of Computational Intelligence Research, 2(3):287–308, 2006. [51] Rainer Storn and Kenneth Price. Differential evolution: A simple and efficient heuristic for global optimization over continuous spaces. Journal of Global Op- timization, 11(4):341–359, 1997. CINVESTAV-IPN Departamento de Computaci´on
  • 104. 88 BIBLIOGRAF´IA [52] John David Schaffer. Multiple Objective Optimization with Vector Evaluated Genetic Algorithms. PhD thesis, Vanderbilt University, Nashville, Tennessee, USA, 1984. [53] Carlos A. Coello Coello. A Comprehensive Survey of Evolutionary-Based Mul- tiobjective Optimization Techniques. Knowledge and Information Systems. An International Journal, 1(3):269–308, August 1999. [54] Carlos M. Fonseca and Peter J. Fleming. Genetic Algorithms for Multiobjec- tive Optimization: Formulation, Discussion and Generalization. In Stephanie Forrest, editor, Proceedings of the Fifth International Conference on Genetic Algorithms, pages 416–423, San Mateo, California, 1993. University of Illinois at Urbana-Champaign, Morgan Kauffman Publishers. [55] Jeffrey Horn and Nicholas Nafpliotis. Multiobjective Optimization using the Niched Pareto Genetic Algorithm. Technical Report IlliGAl Report 93005, University of Illinois at Urbana-Champaign, Urbana, Illinois, USA, 1993. [56] N. Srinivas and Kalyanmoy Deb. Multiobjective Optimization Using Nondomi- nated Sorting in Genetic Algorithms. Evolutionary Computation, 2(3):221–248, Fall 1994. [57] Eckart Zitzler and Lothar Thiele. Multiobjective Evolutionary Algorithms: A Comparative Case Study and the Strength Pareto Approach. IEEE Transac- tions on Evolutionary Computation, 3(4):257–271, November 1999. [58] Joshua D. Knowles and David W. Corne. Approximating the Nondominated Front Using the Pareto Archived Evolution Strategy. Evolutionary Compu- tation, 8(2):149–172, 2000. [59] David W. Corne, Joshua D. Knowles, and Martin J. Oates. The Pare- to Envelope-based Selection Algorithm for Multiobjective Optimization. In Marc Schoenauer, Kalyanmoy Deb, G¨unter Rudolph, Xin Yao, Evelyne Lutton, Juan Julian Merelo, and Hans-Paul Schwefel, editors, Proceedings of the Para- llel Problem Solving from Nature VI Conference, pages 839–848, Paris, France, 2000. Springer. Lecture Notes in Computer Science No. 1917. [60] Carlos A. Coello Coello and Gregorio Toscano Pulido. Multiobjective Optimi- zation using a Micro-Genetic Algorithm. In Lee Spector, Erik D. Goodman, Annie Wu, W.B. Langdon, Hans-Michael Voigt, Mitsuo Gen, Sandip Sen, Mar- co Dorigo, Shahram Pezeshk, Max H. Garzon, and Edmund Burke, editors, Proceedings of the Genetic and Evolutionary Computation Conference (GEC- CO’2001), pages 274–282, San Francisco, California, 2001. Morgan Kaufmann Publishers. CINVESTAV-IPN Departamento de Computaci´on
  • 105. BIBLIOGRAF´IA 89 [61] Kalyanmoy Deb, Amrit Pratap, Sameer Agarwal, and T. Meyarivan. A Fast and Elitist Multiobjective Genetic Algorithm: NSGA–II. IEEE Transactions on Evolutionary Computation, 6(2):182–197, April 2002. [62] Eckart Zitzler, Marco Laumanns, and Lothar Thiele. SPEA2: Improving the Strength Pareto Evolutionary Algorithm. In K. Giannakoglou, D. Tsahalis, J. Periaux, P. Papailou, and T. Fogarty, editors, EUROGEN 2001. Evolutionary Methods for Design, Optimization and Control with Applications to Industrial Problems, pages 95–100, Athens, Greece, 2002. [63] Gregorio Toscano Pulido and Carlos A. Coello Coello. The Micro Genetic Algorithm 2: Towards Online Adaptation in Evolutionary Multiobjective Opti- mization. In Carlos M. Fonseca, Peter J. Fleming, Eckart Zitzler, Kalyanmoy Deb, and Lothar Thiele, editors, Evolutionary Multi-Criterion Optimization. Second International Conference, EMO 2003, pages 252–266, Faro, Portugal, April 2003. Springer. Lecture Notes in Computer Science. Volume 2632. [64] J. L. Bentley, H. T. Kung, M. Schkolnick, and C. D. Thompson. On the average number of maxima in a set of vectors and applications. J. ACM, 25(4):536–543, 1978. [65] Ikeda Kokolo, Kita Hajime, and Kobayashi Shigenobu. Failure of Pareto-based MOEAs: Does Non-dominated Really Mean Near to Optimal? In Proceedings of the Congress on Evolutionary Computation 2001 (CEC’2001), volume 2, pages 957–962, Piscataway, New Jersey, May 2001. IEEE Service Center. [66] Thomas Hanne. Global Multiobjective Optimization with Evolutionary Algo- rithms: Selection Mechanisms and Mutation Control. In Eckart Zitzler, Kal- yanmoy Deb, Lothar Thiele, Carlos A. Coello Coello, and David Corne, editors, First International Conference on Evolutionary Multi-Criterion Optimization, pages 197–212. Springer-Verlag. Lecture Notes in Computer Science No. 1993, 2001. [67] Kalyanmoy Deb, Lothar Thiele, Marco Laumanns, and Eckart Zitzler. Scalable Multi-Objective Optimization Test Problems. In Congress on Evolutionary Computation (CEC’2002), volume 1, pages 825–830, Piscataway, New Jersey, May 2002. IEEE Service Center. [68] Thomas Hanne. On the convergence of multiobjective evolutionary algorithms. European Journal of Operational Research, 117(3):553–564, 1999. [69] D.K. Saxena, J.A. Duro, A. Tiwari, K. Deb, and Qingfu Zhang. Objective re- duction in many-objective optimization: Linear and nonlinear algorithms. Evo- lutionary Computation, IEEE Transactions on, 17(1):77–99, Feb 2013. CINVESTAV-IPN Departamento de Computaci´on
  • 106. 90 BIBLIOGRAF´IA [70] David Hadka and Patrick Reed. Diagnostic Assessment of Search Controls and Failure Modes in Many-Objective Evolutionary Optimization. Evolutionary Computation, 20(3):423–452, Fall 2012. [71] Olivier Teytaud. On the hardness of offline multi-objective optimization. Evo- lutionary Computation, 15(4):475–491, December 2007. [72] Tobias Friedrich, Nils Hebbinghaus, and Frank Neumann. Plateaus can be har- der in multi-objective optimization. Theoretical Computer Science, 411(6):854– 864, February 6 2010. [73] Dimo Brockhoff, Tobias Friedrich, Nils Hebbinghaus, Christian Klein, Frank Neumann, and Eckart Zitzler. Do Additional Objectives Make a Problem Har- der? In Dirk Thierens, editor, 2007 Genetic and Evolutionary Computation Conference (GECCO’2007), volume 1, pages 765–772, London, UK, July 2007. ACM Press. [74] Oliver Sch¨utze, Adriana Lara, and Carlos A. Coello Coello. On the Influence of the Number of Objectives on the Hardness of a Multiobjective Optimization Problem. IEEE Transactions on Evolutionary Computation, 15(4):444–455, Au- gust 2011. [75] P. Sen and J. B. Yang. Multiple Criteria Decision Support in Engineering Design. Springer-Verlag, London, 1998. [76] Aimin Zhou, Bo-Yang Qu, Hui Li, Shi-Zheng Zhao, Ponnuthurai Nagaratnam Suganthan, and Qingfu Zhang. Multiobjective evolutionary algorithms: A sur- vey of the state of the art. Swarm and Evolutionary Computation, 1(1):32–49, March 2011. [77] Kaisa Miettinen. Graphical illustration of pareto optimal solutions. In Multi- Objective Programming and Goal Programming, volume 21 of Advances in Soft Computing, pages 197–202. Springer Berlin Heidelberg, 2003. [78] Andy Pryke, Sanaz Mostaghim, and Alireza Nazemi. Heatmap Visualization of Population Based Multi Objective Algorithms. In Shigeru Obayashi, Kal- yanmoy Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko Murata, editors, Evolutionary Multi-Criterion Optimization, 4th International Conference, EMO 2007, pages 361–375, Matshushima, Japan, March 2007. Springer. Lecture No- tes in Computer Science Vol. 4403. [79] David Walker, Jonathan Fieldsend, and Richard Everson. Visualising many- objective populations. In Proceedings of the 14th Annual Conference Companion on Genetic and Evolutionary Computation, GECCO ’12, pages 451–458, New York, NY, USA, 2012. ACM. CINVESTAV-IPN Departamento de Computaci´on
  • 107. BIBLIOGRAF´IA 91 [80] Shigeru Obayashi and Daisuke Sasaki. Visualization and Data Mining of Pa- reto Solutions Using Self-Organizing Map. In Carlos M. Fonseca, Peter J. Fle- ming, Eckart Zitzler, Kalyanmoy Deb, and Lothar Thiele, editors, Evolutionary Multi-Criterion Optimization. Second International Conference, EMO 2003, pa- ges 796–809, Faro, Portugal, April 2003. Springer. Lecture Notes in Computer Science. Volume 2632. [81] Mario K¨oppen and Kaori Yoshida. Visualization of pareto-sets in evolutionary multi-objective optimization. In Proceedings of the 7th International Conference on Hybrid Intelligent Systems, HIS ’07, pages 156–161, Washington, DC, USA, 2007. IEEE Computer Society. [82] Peter Fleming, Robin C. Purshouse, and Robert J. Lygoe. Many-Objective Optimization: An Engineering Design Perspective. In Carlos A. Coello Coello, Arturo Hern´andez Aguirre, and Eckart Zitzler, editors, Evolutionary Multi- Criterion Optimization. Third International Conference, EMO 2005, pages 14– 32, Guanajuato, M´exico, March 2005. Springer. Lecture Notes in Computer Science Vol. 3410. [83] Nicole Drechsler, Rolf Drechsler, and Bernd Becker. Multi-objective Optimi- sation Based on Relation favour. In Eckart Zitzler, Kalyanmoy Deb, Lothar Thiele, Carlos A. Coello Coello, and David Corne, editors, First Internatio- nal Conference on Evolutionary Multi-Criterion Optimization, pages 154–166. Springer-Verlag. Lecture Notes in Computer Science No. 1993, 2001. [84] Andr´e S¨ulflow, Nicole Drechsler, and Rolf Drechsler. Robust Multi-objective Optimization in High Dimensional Spaces. In Shigeru Obayashi, Kalyanmoy Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko Murata, editors, Evolutio- nary Multi-Criterion Optimization, 4th International Conference, EMO 2007, pages 715–726, Matshushima, Japan, March 2007. Springer. Lecture Notes in Computer Science Vol. 4403. [85] Francesco di Pierro, Shoon-Thiam Khu, and Dragan A. Savi´c. An Investi- gation on Preference Order Ranking Scheme for Multiobjective Evolutionary Optimization. IEEE Transactions on Evolutionary Computation, 11(1):17–45, February 2007. [86] Kalyanmoy Deb and Dhish Kumar Saxena. Searching for Pareto-optimal so- lutions through dimensionality reduction for certain large-dimensional multi- objective optimization problems. In 2006 IEEE Congress on Evolutionary Computation (CEC’2006), pages 3353–3360, Vancouver, BC, Canada, July 2006. IEEE. [87] Dimo Brockhoff and Eckart Zitzler. Objective Reduction in Evolutionary Mul- tiobjective Optimization: Theory and Applications. Evolutionary Computation, 17(2):135–166, Summer 2009. CINVESTAV-IPN Departamento de Computaci´on
  • 108. 92 BIBLIOGRAF´IA [88] Antonio L´opez Jaimes, Carlos A. Coello Coello, Hern´an Aguirre, and Kiyoshi Tanaka. Objective space partitioning using conflict information for solving many-objective problems. Information Sciences, 268:305 – 327, 2014. [89] Kalyanmoy Deb, J. Sundar, Udaya Bhaskara Rao N., and Shamik Chaudhuri. Reference Point Based Multi-Objective Optimization Using Evolutionary Algo- rithms. International Journal of Computational Intelligence Research, 2(3):273– 286, 2006. [90] Lothar Thiele, Kaisa Miettinen andPekka J. Korhonen, and Julian Molina. A Preference-Based Evolutionary Algorithm for Multi-Objective Optimization. Evolutionary Computation, 17(3):411–436, Fall 2009. [91] Eckart Zitzler and Simon K¨unzli. Indicator-based Selection in Multiobjective Search. In Xin Yao et al., editor, Parallel Problem Solving from Nature - PPSN VIII, pages 832–842, Birmingham, UK, September 2004. Springer-Verlag. Lec- ture Notes in Computer Science Vol. 3242. [92] Hiroyuki Sato, Hern´an E. Aguirre, and Kiyoshi Tanaka. Controlling Dominance Area of Solutions and Its Impact on the Performance of MOEAs. In Shigeru Obayashi, Kalyanmoy Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko Murata, editors, Evolutionary Multi-Criterion Optimization, 4th International Conference, EMO 2007, pages 5–20, Matshushima, Japan, March 2007. Sprin- ger. Lecture Notes in Computer Science Vol. 4403. [93] Antonio L´opez Jaimes and Carlos A. Coello Coello. Study of Preference Re- lations in Many-Objective Optimization. In 2009 Genetic and Evolutionary Computation Conference (GECCO’2009), pages 611–618, Montreal, Canada, July 8–12 2009. ACM Press. ISBN 978-1-60558-325-9. [94] Andre B. de Carvalho and Aurora Pozo. Measuring the Convergence and Di- versity of CDAS Multi-Objective Particle Swarm Optimization Algorithms: A Study of Many-objective Problems. Neurocomputing, 75(1):43–51, Jan 2012. [95] M. Farina and P. Amato. A fuzzy definition of “optimality” for many-criteria optimization problems. IEEE Transactions on Systems, Man, and Cybernetics Part A—Systems and Humans, 34(3):315–326, May 2004. [96] David Corne and Joshua Knowles. Techniques for Highly Multiobjective Op- timisation: Some Nondominated Points are Better than Others. In Dirk Thie- rens, editor, 2007 Genetic and Evolutionary Computation Conference (GEC- CO’2007), volume 1, pages 773–780, London, UK, July 2007. ACM Press. [97] P. J. Bentley and J. P. Wakefield. Finding Acceptable Solutions in the Pareto- Optimal Range using Multiobjective Genetic Algorithms. In P. K. Chawdhry, R. Roy, and R. K. Pant, editors, Soft Computing in Engineering Design and CINVESTAV-IPN Departamento de Computaci´on
  • 109. BIBLIOGRAF´IA 93 Manufacturing, Part 5, pages 231–240, London, June 1997. Springer Verlag London Limited. [98] Hern´an Aguirre and Kiyoshi Tanaka. Many-Objective Optimization by Space Partitioning and Adaptive -Ranking on MNK-Landscapes. In Matthias Ehr- gott, Carlos M. Fonseca, Xavier Gandibleux, Jin-Kao Hao, and Marc Sevaux, editors, Evolutionary Multi-Criterion Optimization. 5th International Confe- rence, EMO 2009, pages 407–422. Springer. Lecture Notes in Computer Science Vol. 5467, Nantes, France, April 2009. [99] Robin C. Purshouse and Peter J. Fleming. An Adaptive Divide-and-Conquer Methodology for Evolutionary Multi-criterion Optimisation. In Carlos M. Fon- seca, Peter J. Fleming, Eckart Zitzler, Kalyanmoy Deb, and Lothar Thiele, edi- tors, Evolutionary Multi-Criterion Optimization. Second International Confe- rence, EMO 2003, pages 133–147, Faro, Portugal, April 2003. Springer. Lecture Notes in Computer Science. Volume 2632. [100] Kalyanmoy Deb, Manikanth Mohan, and Shikhar Mishra. A Fast Multi- Objective Evolutionary Algorithm for Finding Well–Spread Pareto–Optimal Solutions. KanGAL report 2003002, Indian Institute of Technology, Kanpur, India, 2003. [101] Antonio L´opez Jaimes, Carlos A. Coello Coello, and Debrup Chakraborty. Ob- jective Reduction Using a Feature Selection Technique. In 2008 Genetic and Evolutionary Computation Conference (GECCO’2008), pages 674–680, Atlan- ta, USA, July 2008. ACM Press. ISBN 978-1-60558-131-6. [102] Carlos M. Fonseca and Peter J. Fleming. Multiobjective Optimization and Multiple Constraint Handling with Evolutionary Algorithms—Part I: A Unified Formulation. IEEE Transactions on Systems, Man, and Cybernetics, Part A: Systems and Humans, 28(1):26–37, 1998. [103] Kalyanmoy Deb. Solving Goal Programming Problems Using Multi-Objective Genetic Algorithms. In 1999 Congress on Evolutionary Computation, pages 77–84, Washington, D.C., July 1999. IEEE Service Center. [104] J¨urgen Branke, Thomas Kaußler, and Hartmut Schmeck. Guiding Multi Objec- tive Evolutionary Algorithms Towards Interesting Regions. Technical Report 398, Institute f¨ur Angewandte Informatik und Formale Beschreibungsverfahren, Universit¨at Karlsruhe, Karlsruhe, Germany, February 2000. [105] Kalyanmoy Deb and J. Sundar. Reference Point Based Multi-Objective Op- timization Using Evolutionary Algorithms. In Maarten Keijzer et al., editor, 2006 Genetic and Evolutionary Computation Conference (GECCO’2006), volu- me 1, pages 635–642, Seattle, Washington, USA, July 2006. ACM Press. ISBN 1-59593-186-4. CINVESTAV-IPN Departamento de Computaci´on
  • 110. 94 BIBLIOGRAF´IA [106] Antonio L´opez Jaimes and Carlos A. Coello Coello. Including preferences into a multiobjective evolutionary algorithm to deal with many-objective engineering optimization problems. Information Sciences, 277:1 – 20, 2014. [107] Juli´an Molina, Luis V. Santana, Alfredo G. Hern´andez-D´ıaz, Carlos A. Coello Coello, and Rafael Caballero. g-dominance: Reference point based dominance for MultiObjective Metaheuristics. European Journal of Operational Research, 197(2):685–692, September 2009. [108] Karthik Sindhya, Ana Belen Ruiz, and Kaisa Miettinen. A Preference Based Interactive Evolutionary Algorithm for Multi-objective Optimization: PIE. In Ricardo H.C. Takahashi, Kalyanmoy Deb, Elizabeth F. Wanner, and Salvatore Grecco, editors, Evolutionary Multi-Criterion Optimization, 6th International Conference, EMO 2011, pages 212–225, Ouro Preto, Brazil, April 2011. Sprin- ger. Lecture Notes in Computer Science Vol. 6576. [109] Maoguo Gong, Fang Liu, Wei Zhang, Licheng Jiao, and Qingfu Zhang. Inter- active MOEA/D for Multi-Objective DEcision Making. In 2011 Genetic and Evolutionary Computation Conference (GECCO’2011), pages 721–728, Dublin, Ireland, July 12-16 2011. ACM Press. [110] H. Jain and K. Deb. An Evolutionary Many-Objective Optimization Algo- rithm Using Reference-Point Based Nondominated Sorting Approach, Part II: Handling Constraints and Extending to an Adaptive Approach. Evolutionary Computation, IEEE Transactions on, 18(4):602–622, Aug 2014. [111] Eckart Zitzler and Lothar Thiele. Multiobjective Optimization Using Evolu- tionary Algorithms—A Comparative Study. In A. E. Eiben, editor, Parallel Problem Solving from Nature V, pages 292–301, Amsterdam, September 1998. Springer-Verlag. [112] Joshua Knowles and David Corne. Properties of an Adaptive Archiving Algo- rithm for Storing Nondominated Vectors. IEEE Transactions on Evolutionary Computation, 7(2):100–116, April 2003. [113] Tobias Wagner, Nicola Beume, and Boris Naujoks. Pareto-, Aggregation-, and Indicator-Based Methods in Many-Objective Optimization. In Shigeru Obayas- hi, Kalyanmoy Deb, Carlo Poloni, Tomoyuki Hiroyasu, and Tadahiko Murata, editors, Evolutionary Multi-Criterion Optimization, 4th International Confe- rence, EMO 2007, pages 742–756, Matshushima, Japan, March 2007. Springer. Lecture Notes in Computer Science Vol. 4403. [114] Hiroyuki Sato, Hern´an E. Aguirre, and Kiyoshi Tanaka. Pareto partial dominan- ce MOEA and hybrid archiving strategy included CDAS in many-objective op- timization. In 2010 IEEE Congress on Evolutionary Computation (CEC’2010), pages 3720–3727, Barcelona, Spain, July 18–23 2010. IEEE Press. CINVESTAV-IPN Departamento de Computaci´on
  • 111. BIBLIOGRAF´IA 95 [115] K. Gerstl, G. Rudolph, O. Schutze, and H. Trautmann. Finding evenly spaced fronts for multiobjective control via averaging hausdorff-measure. In Electri- cal Engineering Computing Science and Automatic Control (CCE), 2011 8th International Conference on, pages 1–6, Oct 2011. [116] G¨unter Rudolph, Heike Trautmann, Soumyadip Sengupta, and Oliver Sch¨utze. Evenly spaced pareto front approximations for tricriteria problems based on triangulation. In RobinC. Purshouse, PeterJ. Fleming, CarlosM. Fonseca, Sal- vatore Greco, and Jane Shaw, editors, Evolutionary Multi-Criterion Optimiza- tion, volume 7811 of Lecture Notes in Computer Science, pages 443–458. Sprin- ger Berlin Heidelberg, 2013. [117] Harold W Kuhn. The Hungarian Method for the Assignment Problem. Naval Research Logistics Quarterly, 2(1–2):83–97, March 1955. [118] James Munkres. Algorithms for the Assignment and Transportation Problems. Journal of the Society for Industrial and Applied Mathematics, 5(1):32–38, March 1957. [119] Fran¸cois Bourgeois and Jean-Claude Lassalle. An Extension of the Munkres Algorithm for the Assignment Problem to Rectangular Matrices. Commun. ACM, 14(12):802–804, December 1971. [120] K T Fang and Y Wang. Number-Theoretic Methods in Statistics. Chapman & Hall/CRC Monographs on Statistics & Applied Probability. Taylor & Francis, 1994. [121] John A. Cornell. Experiments with Mixtures: Designs, Models, and the Analysis of Mixture Data. Wiley Series in Probability and Statistics. John Wiley & Sons, Inc., New York, third edition, 2002. [122] Henry Scheff´e. Experiments with mixtures. Journal of the Royal Statistical Society. Series B (Methodological), 20(2):344–360, 1958. [123] N M Korobov. The approximate computation of multiple integrals. Doklady Akademii Nauk SSSR, 124:1207–1210, 1959. [124] Kai-Tai Fang and Ling-Yau Chan. Uniform design and its industrial applica- tions. In Hoang Pham, editor, Springer Handbook of Engineering Statistics, pages 229–247. Springer London, 2006. [125] J M Hammersley. Monte-Carlo methods for solving multivariable problems. Annals of the New York Academy of Sciences, 86(3):844–874, 1960. [126] Y Wang and K T Fang. Number-Theoretic Method in Applied statistics (II). Chinese Annals of Mathematics. Serie B, 11:859–914, 1990. CINVESTAV-IPN Departamento de Computaci´on
  • 112. 96 BIBLIOGRAF´IA [127] R. E. Steuer. Multiple Criteria Optimization: Theory, Computation and Appli- cation. John Wiley, New York, 1986. [128] Kalyanmoy Deb, Lothar Thiele, Marco Laumanns, and Eckart Zitzler. Sca- lable Test Problems for Evolutionary Multiobjective Optimization. In Ajith Abraham, Lakhmi Jain, and Robert Goldberg, editors, Evolutionary Multiob- jective Optimization. Theoretical Advances and Applications, pages 105–145. Springer, USA, 2005. [129] Simon Huband, Phil Hingston, Luigi Barone, and Lyndon While. A Review of Multiobjective Test Problems and a Scalable Test Problem Toolkit. IEEE Transactions on Evolutionary Computation, 10(5):477–506, October 2006. [130] Eckart Zitzler, Kalyanmoy Deb, and Lothar Thiele. Comparison of Multiobjec- tive Evolutionary Algorithms: Empirical Results. Evolutionary Computation, 8(2):173–195, Summer 2000. CINVESTAV-IPN Departamento de Computaci´on