SlideShare una empresa de Scribd logo
Normalmente, un problema de optimización restringido puede describirse como un
problema de programación no lineal (NLP) [1] como se muestra a continuación.
En el problema de PNL anterior, la función f es la función objetiva, donde f (X): RD → R,
hay D variables, X = (x1, .., xD), es un vector de
el tamaño D, X ∈ RD, RD 6 representa todo el espacio de búsqueda, gi son las restricciones
de desigualdad, hj son las restricciones de igualdad y x (L) k, x (U) k son las restricciones
de límite inferior y las restricciones de límite superior, respectivamente. Donde pyq se
definen como el número de restricciones de desigualdad e igualdad, respectivamente. Por
lo tanto, el objetivo de la optimización es encontrar un vector X factible, para minimizar la
función objetiva. Cuando el vector X contiene un subconjunto de vectores µ y ν de variables
continuas reales y enteras, respectivamente, | µ | + | ν | = D, entonces el problema de PNL
se convierte en un problema de programación no lineal de enteros mixtos (MINLP). Los
NLP y MINLP no convexos se encuentran comúnmente en situaciones del mundo real. Por
lo tanto, la comunidad científica continúa desarrollando nuevos enfoques para obtener
soluciones óptimas con un tiempo de cálculo aceptable en diversos campos de la ingeniería,
la industria y la ciencia.
Por ejemplo, en la optimización del diseño, el objetivo del diseño podría ser simplemente
minimizar el costo o maximizar la eficiencia de la producción.
Sin embargo, el objetivo podría ser más complejo, p. Ej. controlar el comportamiento
altamente no lineal del proceso de neutralización del pH en una planta química. La
necesidad de resolver problemas prácticos de PNL / MINLP ha llevado al desarrollo de un
gran número de heurísticas y metaheurísticas durante las últimas dos décadas [2, 3].
Las metaheurísticas, que están surgiendo como alternativas efectivas para resolver
problemas de optimización NP-hard, son estrategias para diseñar o mejorar procedimientos
heurísticos muy generales con alto rendimiento, con el fin de encontrar soluciones (casi)
óptimas. El objetivo de las metaheurísticas es la exploración (diversificación) y explotación
(intensificación) eficientes del espacio de búsqueda, donde un algoritmo eficaz establece
una buena relación entre estos dos parámetros.
Por ejemplo, podemos aprovechar la experiencia de búsqueda para orientar a los motores
de búsqueda aplicando estrategias de aprendizaje o incorporando decisiones
probabilísticas. Las metaheurísticas se pueden clasificar en dos grupos principales,
búsqueda local y basada en la población. En el primer grupo, el proceso de búsqueda
comienzacon una solución candidata y luego se mejora en cada iteración durante el tiempo
de ejecución.
Los algoritmos como la búsqueda de vecindad variable (VNS) [4], la búsqueda tabú (TS)
[5], el recocido simulado (SA) [6] y la búsqueda local iterada [7] se consideran parte del
grupo de metaheurísticas de búsqueda local. Por otro lado, en el segundo grupo, entre las
metaheurísticas basadas en la población, los algoritmos evolutivos son metaheurísticas
inspiradas en el proceso de selección natural.
Los algoritmos genéticos (GA) [8], la programación genética [9], la evolución diferencial
(DE) [10] y la estrategia de evolución (ES)[11] se consideran algoritmos evolutivos basados
en poblaciones de última generación. Además, la optimización de colonias de hormigas
(ACO) [12], el algoritmo de búsqueda de cuco (CSA) [13], el algoritmo de enjambre de
partículas (PSO) [14], son algunas metaheurísticas representativas basadas en
poblaciones categorizadas como basadas en enjambres [15].
Aunque existe una gran cantidad de investigación sobre metaheurística, continúa
utilizándose en muchos campos, p. Ej. análisis de conglomerados, programación,
inteligencia artificial, ingeniería de procesos,etc., con resultados halagadores. Sin embargo,
no existe un algoritmo heurístico particular adecuado para todos los problemas de
optimización [16]. Por lo tanto, diseñar una nueva optimización Técnicas es un campo de
investigación activo dentro de la comunidad científica [17].
Un estudio de algunos de los algoritmos bioinspirados basados en animales más
relevantes incluye, entre otros: Virus Colony Search (VCS) [18], Lightning Search Algorithm
(LSA) [19], Ant Lion Optimizer (ALO) [20] , Algoritmo de optimización de león (LOA) [21],
Optimizador de hiena manchada (SHO) [22], Optimización de Harris Hawks (HHO) [23],
Algoritmo de libélula (DFA) [24], Optimizador de lobo gris (GWO) [25, 26 ], Algoritmo de
ecolocalización de delfines [27, 28], Algoritmo de caminante acuático (WSA), [28, 29].
Además, algunos algoritmos bioinspirados basados en fenómenos físicos sobresalientes
para la optimización son: Búsqueda de sistema cargado (CSS) [30], Búsqueda de sistema
cargado magnético (MCSS) [28, 31], Optimización de cuerpos en colisión (CBO) [28, 32],
Optimización de la evaporación de agua (WEO) [28, 33], Sistema de partículas vibrantes
(VPS) [28, 34], Térmico
Optimización de intercambio (TEO) [28, 35], Algoritmo de partenogénesis cíclica (CPA) [28,
36] y el último algoritmo Enhanced Shuffled Shepherd Optimization Algorithm (ESSOA)para
estructuras de espacio de diseño óptimas [28, 37], entre otros.
Aquí, se propone un novedoso algoritmo bioinspirado, llamado Dingo Optimization
Algorithm (DOA) para resolver tareas de optimización. Se basa en la simulación de las
estrategias de caza de los dingos, que son: atacar persiguiendo, tácticas de agrupación y
comportamiento de carroñero.
El resto de este documento está organizado de la siguiente manera. La sección 2 ilustra los
detalles de DOA, incluida la inspiración y el modelo matemático. Para ilustrar la
competencia y solidez del enfoque propuesto, en la Sección 3 sepresentan varios ejemplos
numéricos y su comparación con las metaheurísticas más modernas. Finalmente, la
Sección 4 resume nuestros hallazgos y concluye el documento con una breve discusión
sobre el alcance para el trabajo futuro.
Este tipo de problema dispone de un conjunto de 𝑛 trabajos, denotado como 𝐽𝑖, 1 ≤
𝑖 ≤ 𝑛, cada uno de ellos compuesto por una serie ordenada de operaciones
restringidas por precedencia. Se da un conjunto de 𝑚 máquinas, denotado como
𝑀𝑘, 1 ≤ 𝑘 ≤ 𝑚. La 𝑘𝑡ℎ
operación del trabajo 𝐽𝑖 es denotado como 𝑂𝑖,𝑘, 1 ≤ 𝑘 ≤ 𝑚 y
su correspondiente asignación de máquina de 𝑂𝑖,𝑘 es denotado por 𝑎𝑖,𝑘, 1 ≤ 𝑎𝑖,𝑘 ≤
𝑚. Donde tanto 𝑂𝑖,𝑘 como 𝑎𝑖,𝑘 son datos que han sido dados por adelantado.
El tiempo de procesamiento 𝑂𝑖,𝑘 es indicado por 𝑤𝑖,𝑘, que es una variable aleatoria
que sigue una función de distribución de probabilidad que son determinadas con un
valor esperado 𝑤𝑖,𝑘 y una desviación estándar 𝜎𝑖,𝑘. Para describir el ambiente del
taller de trabajo (Job Shop), se usa una matriz de pares operación-trabajo, denotada
como [𝑤
̅𝑖,𝑘, 𝜎𝑖,𝑘, 𝑎𝑖,𝑘]. Cada máquina solo puede llevar acabo como máximo una
operación a la vez. Las operaciones no pueden adelantarse una vez iniciadas.
Como resultado de la programación de decisiones, al trabajo 𝐽𝑖 se le establecerá un
tiempo de finalización 𝐶𝑖 que es el tiempo de finalización de la última operación 𝐽𝑖.
El 𝐶𝑚𝑎𝑥 representa el intervalo de tiempo, el cual es el tiempo de finalización máximo
de todos los trabajos [75].
Un programa de orden de trabajo especifica cómo será la secuenciación de las
operaciones en cada máquina. Un cronograma factible, es denotado como 𝑋∗
, el
cual es definido como un cronograma que satisface las restricciones de la anterior
sobre el orden en el que se deben llevar acabo las operaciones de cada trabajo, al
igual que satisfacer las restricciones de exclusión mutua con la finalidad de asegurar
que un trabajo se realice como máximo en un momento en una máquina.
Donde ⊓ es el conjunto de programas factibles sin los tiempos de inactividad entre
trabajos. Para un problema de 𝑛 trabajos y 𝑚 máquinas, el tamaño de ⊓ es dado
por | ⊓ | que es
(n×m)!
(𝑚!)𝑛 . El objetivo principal del problema de programación de tipo de
taller de trabajo (Job Shop) es encontrar un cronograma factible 𝑋∗
∈⊓ que minimice
los objetivos específicos y al mismo tiempo respete las siguientes restricciones:
i. Una operación puede llevarse a cabo solo si sus predecesores han
terminado.
ii. Cada máquina solo puede procesar una operación a la vez como máximo.
iii. Las operaciones una vez iniciadas no se pueden adelantar.
Frecuentemente las medidas de rendimiento que se utilizan en el problema de
programación de tipo taller de trabajo (Job Shop) son el retraso, la tardanza, la
anticipación y el tiempo de flujo, todos estos problemas son considerados
operaciones de minimización (makespan).
Por lo tanto, para una matriz par de operación-trabajo [𝑤
̅𝑖,𝑘,𝜎𝑖,𝑘, 𝑎𝑖,𝑘] para el
problema de Job Shop se puede formular como:
min 𝐸[𝐶𝑚𝑎𝑥] (1)
𝑆 ∈ Ω
Sujeto a: 𝑂𝑖,𝑘 → 𝑂𝑖,𝑘+1, ∀𝑂𝑖,𝑘 ∈ 𝑆, 1 ≤ 𝑖 ≤ 𝑛, 1 ≤ 𝑘 ≤ 𝑚 − 1
En donde el intervalo de espera (makespan) 𝐸[𝐶𝑚𝑎𝑥] es considerado como la
función objetivo del problema a trabajar. Un programa factible se le considera a una
solución que satisface las restricciones de precedencia y de exclusión mutua.
La ecuación (1) es un problema de optimización de simulación estocástica la cual
es restringida por un gran número de posibles soluciones. De acuerdo a las
características de las operaciones se describen de manera eficaz, se puede utilizar
el método de optimización de simulación para evaluar la función objetivo, el cual
reemplaza la función objetivo analítica con los modelos de simulación. Para evaluar
la verdadera función objetivo del programa factible 𝑆, es necesaria la realización de
una simulación estocástica con infinitas repeticiones, aun realizando estas infinitas
repeticiones de simulación es prácticamente imposible que la función objetivo de la
ecuación (1) se precisa. Por lo tanto, de acuerdo al número de repeticiones
simuladas de la ec. (1) se puede reformular la función objetivo de la siguiente
manera:
min F(S) =
1
𝐿
∑ 𝐶𝑚𝑎𝑥
𝑙
(𝑆)
𝐿
𝑙=1
(2)
𝑆 ∈ Ω
Sujeto a: 𝑂𝑖,𝑘 → 𝑂𝑖,𝑘+1, ∀𝑂𝑖,𝑘 ∈ 𝑆, 1 ≤ 𝑖 ≤ 𝑛, 1 ≤ 𝑘 ≤ 𝑚 − 1
Donde 𝐿 es la duración de la simulación, es decir el número de replicas realizadas
de la simulación, 𝐶𝑚𝑎𝑥
𝑙
(𝑆)es el intervalo de tempo en la 𝑙𝑡ℎ
réplica simulada del
programa factible 𝑆, 𝑂𝑖,𝑘 → 𝑂𝑖,𝑘+1 es el orden de las operaciones 𝐽𝑖. La función
objetivo F(S)es la duración promedio del programa factible 𝑆 cuando la duración de
la simulación es 𝐿 . Ente mayo sea el número de repeticiones de la simulación, más
preciso es el valor de la función objetivo F(S). Esto nos dice que si 𝐿 es lo
suficientemente grande hará que la función objetivo F(S) sea lo suficientemente
preciso. En donde 𝐿𝑒 = 10000 representa la 𝐿 con un valor lo suficientemente
grande.
En la ecuación (2) se define como la longitud de simulación de 𝐿 = 𝐿𝑒. Todo esto se
puede simplificar a F(S) es la función objetivo de un programa factible S calculado
por el modelo exacto.

Más contenido relacionado

DOCX
Teoria de optimizacion by. manuel rivas
PPTX
PROGRAMACION LINEAL
PPTX
Presentación optimizacion de sistema
DOCX
Teoria optimizacion
DOCX
Teoría de Optimización
DOCX
323012985 investigacion-operativa-final
PPTX
I programacion lineal
PPTX
Presentación1optimizacion
Teoria de optimizacion by. manuel rivas
PROGRAMACION LINEAL
Presentación optimizacion de sistema
Teoria optimizacion
Teoría de Optimización
323012985 investigacion-operativa-final
I programacion lineal
Presentación1optimizacion

Similar a Normalmente.docx (20)

DOCX
Trabajo escrito individual
PPT
Investigación de operaciones
PPT
Investigación de operaciones
PDF
Javierperez teoría de la optimización
PPTX
Optimizacion De Sistemas
DOCX
Informe - Investigacion de Operaciones
PDF
Diapositivas sobre Programación lineal para IO.pdf
PPTX
Optimización - Yesenia Moreno - IUPSM Maracay
PPTX
Optimización de sistemas y funciones
PDF
Optimizacion en IMRT
DOCX
Teoría de optimización
PDF
Metodos de Programacion no lineal
PPTX
Optimizacion Osvelis Ruiz
PDF
Secuencia genetico logistica
PPTX
Optimizacion de Sistemas y Funciones PSM
PPTX
Optimizacion Angel Peña
PPTX
Revista de inv de operac
PPTX
Programacion lineal HERRAMIENTAS
PPTX
Optimización de Sistemas y Funciones
PPTX
Optimizacion presentacion Victorherrera
Trabajo escrito individual
Investigación de operaciones
Investigación de operaciones
Javierperez teoría de la optimización
Optimizacion De Sistemas
Informe - Investigacion de Operaciones
Diapositivas sobre Programación lineal para IO.pdf
Optimización - Yesenia Moreno - IUPSM Maracay
Optimización de sistemas y funciones
Optimizacion en IMRT
Teoría de optimización
Metodos de Programacion no lineal
Optimizacion Osvelis Ruiz
Secuencia genetico logistica
Optimizacion de Sistemas y Funciones PSM
Optimizacion Angel Peña
Revista de inv de operac
Programacion lineal HERRAMIENTAS
Optimización de Sistemas y Funciones
Optimizacion presentacion Victorherrera
Publicidad

Último (20)

PPTX
clase MICROCONTROLADORES ago-dic 2019.pptx
PPTX
Introducción al Diseño de Máquinas Metodos.pptx
PPTX
376060032-Diapositivas-de-Ingenieria-ESTRUCTURAL.pptx
PPT
Sustancias Peligrosas de empresas para su correcto manejo
PDF
Copia de Presentación Propuesta de Marketing Corporativo Blanco y Negro.pdf
PPT
357161027-seguridad-industrial-diapositivas-ppt.ppt
PPTX
MODULO 1.SEGURIDAD Y SALUD CONCEPTOS GENERALES.pptx
DOCX
CONCEPTOS BASICOS DE LA PROGRAMACION STEP
PPTX
CAPACITACIÓN DE USO ADECUADO DE EPP.pptx
PDF
prg2_t01_p01_Fundamentos POO - parte1.pdf
PDF
GUÍA PARA LA IMPLEMENTACIÓN DEL PLAN PARA LA REDUCCIÓN DEL RIESGO DE DESASTRES
PPTX
GEOLOGIA, principios , fundamentos y conceptos
PPTX
Software para la educación instituciones superiores
PDF
Informe Comision Investigadora Final distribución electrica años 2024 y 2025
PDF
5 Presentación de PowerPointGENERACIÓN DESECHOS UIS 18-02-2023 (1).pdf
PDF
Módulo-de Alcance-proyectos - Definición.pdf
PPTX
MODULO 2. METODOLOGIAS PARA ANALISIS DE RIESGOS 2da Parte.pptx
PPT
TRABAJOS EN ALTURA PARA OBRAS DE INGENIERIA
PDF
Oficio SEC 293416 Comision Investigadora
PDF
1132-2018 espectrofotometro uv visible.pdf
clase MICROCONTROLADORES ago-dic 2019.pptx
Introducción al Diseño de Máquinas Metodos.pptx
376060032-Diapositivas-de-Ingenieria-ESTRUCTURAL.pptx
Sustancias Peligrosas de empresas para su correcto manejo
Copia de Presentación Propuesta de Marketing Corporativo Blanco y Negro.pdf
357161027-seguridad-industrial-diapositivas-ppt.ppt
MODULO 1.SEGURIDAD Y SALUD CONCEPTOS GENERALES.pptx
CONCEPTOS BASICOS DE LA PROGRAMACION STEP
CAPACITACIÓN DE USO ADECUADO DE EPP.pptx
prg2_t01_p01_Fundamentos POO - parte1.pdf
GUÍA PARA LA IMPLEMENTACIÓN DEL PLAN PARA LA REDUCCIÓN DEL RIESGO DE DESASTRES
GEOLOGIA, principios , fundamentos y conceptos
Software para la educación instituciones superiores
Informe Comision Investigadora Final distribución electrica años 2024 y 2025
5 Presentación de PowerPointGENERACIÓN DESECHOS UIS 18-02-2023 (1).pdf
Módulo-de Alcance-proyectos - Definición.pdf
MODULO 2. METODOLOGIAS PARA ANALISIS DE RIESGOS 2da Parte.pptx
TRABAJOS EN ALTURA PARA OBRAS DE INGENIERIA
Oficio SEC 293416 Comision Investigadora
1132-2018 espectrofotometro uv visible.pdf
Publicidad

Normalmente.docx

  • 1. Normalmente, un problema de optimización restringido puede describirse como un problema de programación no lineal (NLP) [1] como se muestra a continuación. En el problema de PNL anterior, la función f es la función objetiva, donde f (X): RD → R, hay D variables, X = (x1, .., xD), es un vector de el tamaño D, X ∈ RD, RD 6 representa todo el espacio de búsqueda, gi son las restricciones de desigualdad, hj son las restricciones de igualdad y x (L) k, x (U) k son las restricciones de límite inferior y las restricciones de límite superior, respectivamente. Donde pyq se definen como el número de restricciones de desigualdad e igualdad, respectivamente. Por lo tanto, el objetivo de la optimización es encontrar un vector X factible, para minimizar la función objetiva. Cuando el vector X contiene un subconjunto de vectores µ y ν de variables continuas reales y enteras, respectivamente, | µ | + | ν | = D, entonces el problema de PNL se convierte en un problema de programación no lineal de enteros mixtos (MINLP). Los NLP y MINLP no convexos se encuentran comúnmente en situaciones del mundo real. Por lo tanto, la comunidad científica continúa desarrollando nuevos enfoques para obtener soluciones óptimas con un tiempo de cálculo aceptable en diversos campos de la ingeniería, la industria y la ciencia. Por ejemplo, en la optimización del diseño, el objetivo del diseño podría ser simplemente minimizar el costo o maximizar la eficiencia de la producción. Sin embargo, el objetivo podría ser más complejo, p. Ej. controlar el comportamiento altamente no lineal del proceso de neutralización del pH en una planta química. La necesidad de resolver problemas prácticos de PNL / MINLP ha llevado al desarrollo de un gran número de heurísticas y metaheurísticas durante las últimas dos décadas [2, 3]. Las metaheurísticas, que están surgiendo como alternativas efectivas para resolver problemas de optimización NP-hard, son estrategias para diseñar o mejorar procedimientos heurísticos muy generales con alto rendimiento, con el fin de encontrar soluciones (casi) óptimas. El objetivo de las metaheurísticas es la exploración (diversificación) y explotación (intensificación) eficientes del espacio de búsqueda, donde un algoritmo eficaz establece una buena relación entre estos dos parámetros. Por ejemplo, podemos aprovechar la experiencia de búsqueda para orientar a los motores de búsqueda aplicando estrategias de aprendizaje o incorporando decisiones probabilísticas. Las metaheurísticas se pueden clasificar en dos grupos principales, búsqueda local y basada en la población. En el primer grupo, el proceso de búsqueda comienzacon una solución candidata y luego se mejora en cada iteración durante el tiempo de ejecución. Los algoritmos como la búsqueda de vecindad variable (VNS) [4], la búsqueda tabú (TS) [5], el recocido simulado (SA) [6] y la búsqueda local iterada [7] se consideran parte del grupo de metaheurísticas de búsqueda local. Por otro lado, en el segundo grupo, entre las metaheurísticas basadas en la población, los algoritmos evolutivos son metaheurísticas inspiradas en el proceso de selección natural. Los algoritmos genéticos (GA) [8], la programación genética [9], la evolución diferencial (DE) [10] y la estrategia de evolución (ES)[11] se consideran algoritmos evolutivos basados en poblaciones de última generación. Además, la optimización de colonias de hormigas (ACO) [12], el algoritmo de búsqueda de cuco (CSA) [13], el algoritmo de enjambre de
  • 2. partículas (PSO) [14], son algunas metaheurísticas representativas basadas en poblaciones categorizadas como basadas en enjambres [15]. Aunque existe una gran cantidad de investigación sobre metaheurística, continúa utilizándose en muchos campos, p. Ej. análisis de conglomerados, programación, inteligencia artificial, ingeniería de procesos,etc., con resultados halagadores. Sin embargo, no existe un algoritmo heurístico particular adecuado para todos los problemas de optimización [16]. Por lo tanto, diseñar una nueva optimización Técnicas es un campo de investigación activo dentro de la comunidad científica [17]. Un estudio de algunos de los algoritmos bioinspirados basados en animales más relevantes incluye, entre otros: Virus Colony Search (VCS) [18], Lightning Search Algorithm (LSA) [19], Ant Lion Optimizer (ALO) [20] , Algoritmo de optimización de león (LOA) [21], Optimizador de hiena manchada (SHO) [22], Optimización de Harris Hawks (HHO) [23], Algoritmo de libélula (DFA) [24], Optimizador de lobo gris (GWO) [25, 26 ], Algoritmo de ecolocalización de delfines [27, 28], Algoritmo de caminante acuático (WSA), [28, 29]. Además, algunos algoritmos bioinspirados basados en fenómenos físicos sobresalientes para la optimización son: Búsqueda de sistema cargado (CSS) [30], Búsqueda de sistema cargado magnético (MCSS) [28, 31], Optimización de cuerpos en colisión (CBO) [28, 32], Optimización de la evaporación de agua (WEO) [28, 33], Sistema de partículas vibrantes (VPS) [28, 34], Térmico Optimización de intercambio (TEO) [28, 35], Algoritmo de partenogénesis cíclica (CPA) [28, 36] y el último algoritmo Enhanced Shuffled Shepherd Optimization Algorithm (ESSOA)para estructuras de espacio de diseño óptimas [28, 37], entre otros. Aquí, se propone un novedoso algoritmo bioinspirado, llamado Dingo Optimization Algorithm (DOA) para resolver tareas de optimización. Se basa en la simulación de las estrategias de caza de los dingos, que son: atacar persiguiendo, tácticas de agrupación y comportamiento de carroñero. El resto de este documento está organizado de la siguiente manera. La sección 2 ilustra los detalles de DOA, incluida la inspiración y el modelo matemático. Para ilustrar la competencia y solidez del enfoque propuesto, en la Sección 3 sepresentan varios ejemplos numéricos y su comparación con las metaheurísticas más modernas. Finalmente, la Sección 4 resume nuestros hallazgos y concluye el documento con una breve discusión sobre el alcance para el trabajo futuro.
  • 3. Este tipo de problema dispone de un conjunto de 𝑛 trabajos, denotado como 𝐽𝑖, 1 ≤ 𝑖 ≤ 𝑛, cada uno de ellos compuesto por una serie ordenada de operaciones restringidas por precedencia. Se da un conjunto de 𝑚 máquinas, denotado como 𝑀𝑘, 1 ≤ 𝑘 ≤ 𝑚. La 𝑘𝑡ℎ operación del trabajo 𝐽𝑖 es denotado como 𝑂𝑖,𝑘, 1 ≤ 𝑘 ≤ 𝑚 y su correspondiente asignación de máquina de 𝑂𝑖,𝑘 es denotado por 𝑎𝑖,𝑘, 1 ≤ 𝑎𝑖,𝑘 ≤ 𝑚. Donde tanto 𝑂𝑖,𝑘 como 𝑎𝑖,𝑘 son datos que han sido dados por adelantado. El tiempo de procesamiento 𝑂𝑖,𝑘 es indicado por 𝑤𝑖,𝑘, que es una variable aleatoria que sigue una función de distribución de probabilidad que son determinadas con un valor esperado 𝑤𝑖,𝑘 y una desviación estándar 𝜎𝑖,𝑘. Para describir el ambiente del taller de trabajo (Job Shop), se usa una matriz de pares operación-trabajo, denotada como [𝑤 ̅𝑖,𝑘, 𝜎𝑖,𝑘, 𝑎𝑖,𝑘]. Cada máquina solo puede llevar acabo como máximo una operación a la vez. Las operaciones no pueden adelantarse una vez iniciadas. Como resultado de la programación de decisiones, al trabajo 𝐽𝑖 se le establecerá un tiempo de finalización 𝐶𝑖 que es el tiempo de finalización de la última operación 𝐽𝑖. El 𝐶𝑚𝑎𝑥 representa el intervalo de tiempo, el cual es el tiempo de finalización máximo de todos los trabajos [75]. Un programa de orden de trabajo especifica cómo será la secuenciación de las operaciones en cada máquina. Un cronograma factible, es denotado como 𝑋∗ , el cual es definido como un cronograma que satisface las restricciones de la anterior sobre el orden en el que se deben llevar acabo las operaciones de cada trabajo, al igual que satisfacer las restricciones de exclusión mutua con la finalidad de asegurar que un trabajo se realice como máximo en un momento en una máquina. Donde ⊓ es el conjunto de programas factibles sin los tiempos de inactividad entre trabajos. Para un problema de 𝑛 trabajos y 𝑚 máquinas, el tamaño de ⊓ es dado por | ⊓ | que es (n×m)! (𝑚!)𝑛 . El objetivo principal del problema de programación de tipo de taller de trabajo (Job Shop) es encontrar un cronograma factible 𝑋∗ ∈⊓ que minimice los objetivos específicos y al mismo tiempo respete las siguientes restricciones: i. Una operación puede llevarse a cabo solo si sus predecesores han
  • 4. terminado. ii. Cada máquina solo puede procesar una operación a la vez como máximo. iii. Las operaciones una vez iniciadas no se pueden adelantar. Frecuentemente las medidas de rendimiento que se utilizan en el problema de programación de tipo taller de trabajo (Job Shop) son el retraso, la tardanza, la anticipación y el tiempo de flujo, todos estos problemas son considerados operaciones de minimización (makespan). Por lo tanto, para una matriz par de operación-trabajo [𝑤 ̅𝑖,𝑘,𝜎𝑖,𝑘, 𝑎𝑖,𝑘] para el problema de Job Shop se puede formular como: min 𝐸[𝐶𝑚𝑎𝑥] (1) 𝑆 ∈ Ω Sujeto a: 𝑂𝑖,𝑘 → 𝑂𝑖,𝑘+1, ∀𝑂𝑖,𝑘 ∈ 𝑆, 1 ≤ 𝑖 ≤ 𝑛, 1 ≤ 𝑘 ≤ 𝑚 − 1 En donde el intervalo de espera (makespan) 𝐸[𝐶𝑚𝑎𝑥] es considerado como la función objetivo del problema a trabajar. Un programa factible se le considera a una solución que satisface las restricciones de precedencia y de exclusión mutua. La ecuación (1) es un problema de optimización de simulación estocástica la cual es restringida por un gran número de posibles soluciones. De acuerdo a las características de las operaciones se describen de manera eficaz, se puede utilizar el método de optimización de simulación para evaluar la función objetivo, el cual reemplaza la función objetivo analítica con los modelos de simulación. Para evaluar la verdadera función objetivo del programa factible 𝑆, es necesaria la realización de una simulación estocástica con infinitas repeticiones, aun realizando estas infinitas repeticiones de simulación es prácticamente imposible que la función objetivo de la ecuación (1) se precisa. Por lo tanto, de acuerdo al número de repeticiones simuladas de la ec. (1) se puede reformular la función objetivo de la siguiente manera:
  • 5. min F(S) = 1 𝐿 ∑ 𝐶𝑚𝑎𝑥 𝑙 (𝑆) 𝐿 𝑙=1 (2) 𝑆 ∈ Ω Sujeto a: 𝑂𝑖,𝑘 → 𝑂𝑖,𝑘+1, ∀𝑂𝑖,𝑘 ∈ 𝑆, 1 ≤ 𝑖 ≤ 𝑛, 1 ≤ 𝑘 ≤ 𝑚 − 1 Donde 𝐿 es la duración de la simulación, es decir el número de replicas realizadas de la simulación, 𝐶𝑚𝑎𝑥 𝑙 (𝑆)es el intervalo de tempo en la 𝑙𝑡ℎ réplica simulada del programa factible 𝑆, 𝑂𝑖,𝑘 → 𝑂𝑖,𝑘+1 es el orden de las operaciones 𝐽𝑖. La función objetivo F(S)es la duración promedio del programa factible 𝑆 cuando la duración de la simulación es 𝐿 . Ente mayo sea el número de repeticiones de la simulación, más preciso es el valor de la función objetivo F(S). Esto nos dice que si 𝐿 es lo suficientemente grande hará que la función objetivo F(S) sea lo suficientemente preciso. En donde 𝐿𝑒 = 10000 representa la 𝐿 con un valor lo suficientemente grande. En la ecuación (2) se define como la longitud de simulación de 𝐿 = 𝐿𝑒. Todo esto se puede simplificar a F(S) es la función objetivo de un programa factible S calculado por el modelo exacto.