2
Lo más leído
4
Lo más leído
5
Lo más leído
CADENAS DE MARKOV
Piero Cuneo M.
CONCEPTOSBÁSICOS
• Espacio muestral: es el conjunto de posibles valores
• resultados de un experimento
• Probabilidad: es la posibilidad de ocurrencia de un evento
• Evento: subconjunto del espacio muestral
• Función de distribución: función que asigna a cada evento
• una probabilidad
• Variable aleatoria: una función que asigna valores reales a los resultados de un
experimento.
• Es un proceso que se desarrolla de manera aleatoria en el tiempo.
¿QUÉ ES UN PROCESO ESTOCÁSTICO?
Mutaciones de un virus
• Es un proceso que se desarrolla de manera aleatoria en el tiempo.
¿QUÉ ES UN PROCESO ESTOCÁSTICO?
• Los ingresos por ventas de una compañía
• El desarrollo del tráfico en una ciudad
• Cantidad de productos en inventario
• Índice de homicidios de una región
• La demanda de la energía eléctrica.
• Estabilidad política de una región
• Asistentes a la universidad el día de parcial
Otros ejemplos
DEFINICIÓN FORMAL
• Proceso estocástico: es una familia de variables aleatorias
{ 𝑋(𝑡 ) , 𝑡 ∈ 𝑇 } en donde t toma valores del conjunto T.
DESCRIPCIÓN DE UN PROCESO ESTOCÁSTICO
{ 𝑋(𝑡), 𝑡∈ 𝑇 }
• Para describir un proceso estocástico basta conocer la distribución de probabilidad
conjunta de dichas variables.
• Para cada t el sistema se encuentra en uno de un número finito de
• estados mutuamente excluyentes; 0, 1, 2, … , M
• Si T es finito se trata de un proceso discreto
• Si T es un subconjunto de los reales se trata de un proceso continuo
• Una cadena de Markov es un proceso estocástico que cumple con la propiedad de
perdida de memoria.
• Los estados futuros del proceso dependen únicamente del presente, por lo mismo
son independientes del pasado.
• Las cadenas de Markov son modelos probabilísticos que se usan para predecir la
evolución y el comportamiento a corto y a largo plazo de determinados sistemas.
Cadenas de Markov
• Definición formal de un proceso markoviano:
• Considere el proceso ( 𝑋 𝑛+1, 𝑋 𝑛, 𝑋 𝑛−1,…, 𝑋1, 𝑋0)
• Si 𝑋 𝑛 = 𝑖→ el proceso se encuentra en el estado i en el tiempo
• o etapa n.
• Un proceso cumple con la propiedad markoviana si:
•
Cadenas de Markov
𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖, 𝑋 𝑛−1 = 𝐾 𝑛−1,…, 𝑋1 = 𝐾1, 𝑋0 =𝐾0)
= 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 =𝑖)
Presente Pasado
Probabilidad de transición
• La probabilidad 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖)se denomina probabilidad de transición.
Probabilidades estacionarias
• Se cumple: 0≤ 𝑃𝑖𝑗
𝑛 ≤1 𝑝𝑎𝑟𝑎 𝑡 𝑜 𝑑𝑜𝑖, 𝑗, 𝑛 =0,1,2,…
Cadenas de Markov
• Matriz de transición de una etapa: matriz cuadrada formada por las
probabilidades de transición.
Resume todas las probabilidades de transición para los M estados
posibles del sistema.
Cadenas de Markov
• Representación gráfica de un proceso de Markov
• Un proceso de Markov puede representarse gráficamente si se conocen los M
estados posibles del sistema y las probabilidades de transición asociadas a
ellos.
Cadenas de Markov
0 1
𝛼
𝛽
1−𝛽
𝛼
1−𝛽
0𝑃 =
1
0 1
1−𝛼
𝛽
1−𝛼
PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
• Diremos que un estado j es alcanzable desde el estado i, si existe una sucesión de arcos
(camino) que van desde i hasta j.
• Un estado j es absorbente si Pjj=1.Siempre que se ingresa a un estado absorbente nunca se
saldrá de el , es un conjunto cerrado que contiene un solo estado .
• Un estado i es un estado transitorio si existe un estado j que es alcanzable desde i , pero i no
es alcanzable desde j
• Si un estado no es transitorio , es un estado recurrente, se repite
• Un estado recurrente i es periódico si su trayectoria es k >1 y la trayectoria de regreso del
estado i al estado i es múltiplo de k .
• Un estado recurrente no es periódico, es aperiódico.
• Si todos loes estados de una cadena son recurrentes , aperiódicos y se comunican entre si ,
se dice que la cadena es ergodica.
CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
• Periodicidad:
• En la siguiente CM todos los estados son periódicos de periodo k=2:
• Cadenas ergodicas:
• Es posible avanzar desde un estado i hasta cualquier estado j , no es necesario que se logre
en un solo paso , pero debe ser posible para que cualquier resultado sea logrado. Deben de
ser recurrentes, aperiódicos y comunicados entre si.
CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
• Estado Estable:
• Se describe el comportamiento a largo plazo de las CM , refleja una probabilidad constante
luego de un largo periodo.
PROBABILIDADES DE ESTADO ESTABLE
• Concepto:
• Sea X una CM cuyos estados son todos transitorios o absorbentes. En tal caso diremos que
X es absorbente
CADENAS ABSORBENTES







I
RQ
P
0
'
• I: Matriz Identidad
• Q: M. de estados transitorios.
• R: Transiciones de estados transitorios a
estados absorbentes.
• 0: Matriz de ceros
• Concepto:
• El número medio de etapas que se estará en el estado transitorio j antes de la absorción,
suponiendo que empezamos en el estado transitorio i, viene dado por el elemento (i,j) de:
(I–Q’)–1
Proposición: La probabilidad de ser absorbido por un estado absorbente j, suponiendo que
empezamos en el estado transitorio i, viene dada por el elemento (i,j) de la matriz
(I–Q’)–1 R, que se denomina matriz fundamental de la CM
CADENAS ABSORBENTES







I
RQ
P
0
'• I: Matriz Identidad
• Q: M. de estados transitorios.
• R: Transiciones de estados transitorios a
estados absorbentes.
• 0: Matriz de ceros
Cadenas de markov io2

Más contenido relacionado

PPT
Cadenas de markov
PPTX
unidad 2 Medidcion de la productividad
PPTX
Analisis de Redes - Investigacion de Operaciones
PPTX
Tendencias Lineales o no lineales / Estadistica
DOCX
Optimizacion de redes
DOC
Ejercicios inventarios
DOCX
La naturaleza del pensamiento de sistemas duros unidad 3
DOC
Proceso Esbelto, Reingeniería y la Metodología de las 5 S
Cadenas de markov
unidad 2 Medidcion de la productividad
Analisis de Redes - Investigacion de Operaciones
Tendencias Lineales o no lineales / Estadistica
Optimizacion de redes
Ejercicios inventarios
La naturaleza del pensamiento de sistemas duros unidad 3
Proceso Esbelto, Reingeniería y la Metodología de las 5 S

La actualidad más candente (20)

PPT
Balanceo de línea de producción
PPTX
Ejemplos sistemas de inventarios op iii
PPT
Cadena de markov
PDF
4. Diseño Experimental Para un Factor
PPTX
Muestreo del-trabajo
PPTX
Otras cartas de control
PPT
13 problema de redes
PPTX
Unidad 3. Transporte y asignación
DOCX
Guia de ejercicios_-_capacidad_de_produccion
PDF
Administracion y control de materiales (7)
PPTX
Importancia estratégica del pronóstico y la demanda
PPTX
Unidad 4. Sistemas y modelos de inventarios
PPTX
Cadenas de markov con estados absorbentes
PPTX
Toc teoria de restricciones
PPTX
4.4 tipos generales de factores restrictivos
PPTX
2.1 informacion general del control de la produccion
PDF
Unidad 2 mps plan maestro de produccion
PPT
Ingenieria De La Productividad
Balanceo de línea de producción
Ejemplos sistemas de inventarios op iii
Cadena de markov
4. Diseño Experimental Para un Factor
Muestreo del-trabajo
Otras cartas de control
13 problema de redes
Unidad 3. Transporte y asignación
Guia de ejercicios_-_capacidad_de_produccion
Administracion y control de materiales (7)
Importancia estratégica del pronóstico y la demanda
Unidad 4. Sistemas y modelos de inventarios
Cadenas de markov con estados absorbentes
Toc teoria de restricciones
4.4 tipos generales de factores restrictivos
2.1 informacion general del control de la produccion
Unidad 2 mps plan maestro de produccion
Ingenieria De La Productividad
Publicidad

Similar a Cadenas de markov io2 (20)

PPTX
Cadenas de markov investigacion de operaciones
DOCX
Final grupo markov
DOC
Procesos estocasticos blog
DOC
Procesos estocasticos blog
DOC
Trabajo final
DOCX
Cadenas de Markov_BLOG_UNEXPO
PPT
Cadenas markov (1)
PDF
Presentación sobre las Cadenas de Markov
PDF
markov (2).pdf
DOCX
Cadenas de markov
DOCX
Cadenas de markov
DOCX
PPT
PDF
l3_cadenas markox para matemáticas y administración
PDF
cpfund10.pdf
PPTX
PDF
Unidad II Introduccion a los procesos de Markov
PPTX
SESION4_CADENA_DE_MARKOV.pptx
PPT
Procesos y Cadenas de Markov
PDF
Matriz transicion
Cadenas de markov investigacion de operaciones
Final grupo markov
Procesos estocasticos blog
Procesos estocasticos blog
Trabajo final
Cadenas de Markov_BLOG_UNEXPO
Cadenas markov (1)
Presentación sobre las Cadenas de Markov
markov (2).pdf
Cadenas de markov
Cadenas de markov
l3_cadenas markox para matemáticas y administración
cpfund10.pdf
Unidad II Introduccion a los procesos de Markov
SESION4_CADENA_DE_MARKOV.pptx
Procesos y Cadenas de Markov
Matriz transicion
Publicidad

Último (9)

PPTX
ucss Clase 13 Marketing Automation.pptx
PDF
Portadas Nacionales 22-Agosto-2025.pdf..
PPTX
ESTRATEGIAS DE MARKETING PARA UN RESTAURANTE
PDF
LIBRO DE COMUNICACIÓN Y MARKETING POLÍTICO
PPTX
estadistica practica y muchas mas cosas generales
PDF
Portadas Nacionales 21-Agosto-2025.pdf..
PPTX
DISEÑO AMBIENTAL SUPER Y LEGENDARIO.pptx
PDF
Controladores-y-metricas-de-la-Cadena-de-Suministro.pdf
PDF
Trademarketing, definición y funcionamiento dentro de la estrategia de market...
ucss Clase 13 Marketing Automation.pptx
Portadas Nacionales 22-Agosto-2025.pdf..
ESTRATEGIAS DE MARKETING PARA UN RESTAURANTE
LIBRO DE COMUNICACIÓN Y MARKETING POLÍTICO
estadistica practica y muchas mas cosas generales
Portadas Nacionales 21-Agosto-2025.pdf..
DISEÑO AMBIENTAL SUPER Y LEGENDARIO.pptx
Controladores-y-metricas-de-la-Cadena-de-Suministro.pdf
Trademarketing, definición y funcionamiento dentro de la estrategia de market...

Cadenas de markov io2

  • 2. CONCEPTOSBÁSICOS • Espacio muestral: es el conjunto de posibles valores • resultados de un experimento • Probabilidad: es la posibilidad de ocurrencia de un evento • Evento: subconjunto del espacio muestral • Función de distribución: función que asigna a cada evento • una probabilidad • Variable aleatoria: una función que asigna valores reales a los resultados de un experimento.
  • 3. • Es un proceso que se desarrolla de manera aleatoria en el tiempo. ¿QUÉ ES UN PROCESO ESTOCÁSTICO? Mutaciones de un virus
  • 4. • Es un proceso que se desarrolla de manera aleatoria en el tiempo. ¿QUÉ ES UN PROCESO ESTOCÁSTICO? • Los ingresos por ventas de una compañía • El desarrollo del tráfico en una ciudad • Cantidad de productos en inventario • Índice de homicidios de una región • La demanda de la energía eléctrica. • Estabilidad política de una región • Asistentes a la universidad el día de parcial Otros ejemplos
  • 5. DEFINICIÓN FORMAL • Proceso estocástico: es una familia de variables aleatorias { 𝑋(𝑡 ) , 𝑡 ∈ 𝑇 } en donde t toma valores del conjunto T.
  • 6. DESCRIPCIÓN DE UN PROCESO ESTOCÁSTICO { 𝑋(𝑡), 𝑡∈ 𝑇 } • Para describir un proceso estocástico basta conocer la distribución de probabilidad conjunta de dichas variables. • Para cada t el sistema se encuentra en uno de un número finito de • estados mutuamente excluyentes; 0, 1, 2, … , M • Si T es finito se trata de un proceso discreto • Si T es un subconjunto de los reales se trata de un proceso continuo
  • 7. • Una cadena de Markov es un proceso estocástico que cumple con la propiedad de perdida de memoria. • Los estados futuros del proceso dependen únicamente del presente, por lo mismo son independientes del pasado. • Las cadenas de Markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Cadenas de Markov
  • 8. • Definición formal de un proceso markoviano: • Considere el proceso ( 𝑋 𝑛+1, 𝑋 𝑛, 𝑋 𝑛−1,…, 𝑋1, 𝑋0) • Si 𝑋 𝑛 = 𝑖→ el proceso se encuentra en el estado i en el tiempo • o etapa n. • Un proceso cumple con la propiedad markoviana si: • Cadenas de Markov 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖, 𝑋 𝑛−1 = 𝐾 𝑛−1,…, 𝑋1 = 𝐾1, 𝑋0 =𝐾0) = 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 =𝑖) Presente Pasado
  • 9. Probabilidad de transición • La probabilidad 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖)se denomina probabilidad de transición. Probabilidades estacionarias • Se cumple: 0≤ 𝑃𝑖𝑗 𝑛 ≤1 𝑝𝑎𝑟𝑎 𝑡 𝑜 𝑑𝑜𝑖, 𝑗, 𝑛 =0,1,2,… Cadenas de Markov
  • 10. • Matriz de transición de una etapa: matriz cuadrada formada por las probabilidades de transición. Resume todas las probabilidades de transición para los M estados posibles del sistema. Cadenas de Markov
  • 11. • Representación gráfica de un proceso de Markov • Un proceso de Markov puede representarse gráficamente si se conocen los M estados posibles del sistema y las probabilidades de transición asociadas a ellos. Cadenas de Markov 0 1 𝛼 𝛽 1−𝛽 𝛼 1−𝛽 0𝑃 = 1 0 1 1−𝛼 𝛽 1−𝛼
  • 12. PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
  • 13. PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
  • 14. • Diremos que un estado j es alcanzable desde el estado i, si existe una sucesión de arcos (camino) que van desde i hasta j. • Un estado j es absorbente si Pjj=1.Siempre que se ingresa a un estado absorbente nunca se saldrá de el , es un conjunto cerrado que contiene un solo estado . • Un estado i es un estado transitorio si existe un estado j que es alcanzable desde i , pero i no es alcanzable desde j • Si un estado no es transitorio , es un estado recurrente, se repite • Un estado recurrente i es periódico si su trayectoria es k >1 y la trayectoria de regreso del estado i al estado i es múltiplo de k . • Un estado recurrente no es periódico, es aperiódico. • Si todos loes estados de una cadena son recurrentes , aperiódicos y se comunican entre si , se dice que la cadena es ergodica. CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
  • 15. • Periodicidad: • En la siguiente CM todos los estados son periódicos de periodo k=2: • Cadenas ergodicas: • Es posible avanzar desde un estado i hasta cualquier estado j , no es necesario que se logre en un solo paso , pero debe ser posible para que cualquier resultado sea logrado. Deben de ser recurrentes, aperiódicos y comunicados entre si. CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
  • 16. • Estado Estable: • Se describe el comportamiento a largo plazo de las CM , refleja una probabilidad constante luego de un largo periodo. PROBABILIDADES DE ESTADO ESTABLE
  • 17. • Concepto: • Sea X una CM cuyos estados son todos transitorios o absorbentes. En tal caso diremos que X es absorbente CADENAS ABSORBENTES        I RQ P 0 ' • I: Matriz Identidad • Q: M. de estados transitorios. • R: Transiciones de estados transitorios a estados absorbentes. • 0: Matriz de ceros
  • 18. • Concepto: • El número medio de etapas que se estará en el estado transitorio j antes de la absorción, suponiendo que empezamos en el estado transitorio i, viene dado por el elemento (i,j) de: (I–Q’)–1 Proposición: La probabilidad de ser absorbido por un estado absorbente j, suponiendo que empezamos en el estado transitorio i, viene dada por el elemento (i,j) de la matriz (I–Q’)–1 R, que se denomina matriz fundamental de la CM CADENAS ABSORBENTES        I RQ P 0 '• I: Matriz Identidad • Q: M. de estados transitorios. • R: Transiciones de estados transitorios a estados absorbentes. • 0: Matriz de ceros