SlideShare ist ein Scribd-Unternehmen logo
1 von 8
NOMBRE DEL ALUMNO:
JAIME VALDIVIA CASTELLANOS
MATERIA:
INVESTIGACIÓN DE OPERACIONES II
NUMERO DE CONTROL:
119T0101
NOMBRE DEL DOCENTE:
ING. ROBERTO CRUZ ANDRADE
NÚMERO Y NOMBRE DE LA UNIDAD:
IV CADENAS DE MARKOV
INTRODUCCIÓN
En las cadenas de Markov considera ciertos puntos discretos en el tiempo para
toma valores de la variable aleatoria que caracteriza al sistema. Entonces las
cadenas de Markov se usan para estudiar ciertos comportamientos de largo y
cortos plazos de sistemas.
Los estados en el tiempo representan situación exhaustiva y mutuamente
excluyentes del sistema en un tiempo específico. Además el número de estado
puede ser finito o infinito.
Por lo general una cadena de Markov describe el comportamiento de transición de
un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen
situaciones donde los espaciamientos temporales dependen de las características
del sistema y por ello, pueden no ser iguales entre sí.
Las cadenas de Markov se pueden aplicar en áreas como la educación,
comercialización, servicios de salud, finanzas, contabilidad y producción.
4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV
La cadena de Markov recibe su nombre del matemático ruso AndreiMarkov que
desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema
se encuentre en un estado en particular en un momento dado. Algo más
importante aún, es que permite encontrar el promedio a la larga o las
probabilidades de estado estable para cada estado. Con esta información se
puede predecir el comportamiento del sistema a través del tiempo.
A veces nos interesa saber cómo cambia una variable aleatoria a través del
tiempo. Por ejemplo, desearíamos conocer cómo evoluciona el precio de las
acciones de una empresa en el mercado a través del tiempo.
La cadena de markov es una serie de eventos, en la cual la probabilidad de que
ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas
de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior
distingue a las cadenas de Markov de las series de eventos independientes, como
tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los
patrones de compra de los deudores morosos, para planear las necesidades de
personal y para analizar el reemplazo de equipo.
En matemáticas, se define como un proceso estocástico discreto que cumple con
la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su
instante actual, su estado presente resume toda la información relevante para
describir en probabilidad su estado futuro.
4.2. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE N PASOS
Suponga que estudiamos una cadena de markov con matriz. P de probabilidad de
transición conocida. Como todas las cadenas con las que trataremos son
estacionarias, no nos importara identificar nuestras cadenas de markov como
estacionarias. Una pregunta de interés es: si una cadena de markov está en el
estado i en el tiempo m, ¿Cuál es la probabilidad que n periodos después de la
cadena de markov este en el estado j? como se trata de una cadena de markov
estacionaria, esta probabilidad será independiente de m y, por tanto, podemos
escribir
Donde Se llama probabilidad en la etapa n de una transición de estado i al estado
j.
Es claro que pn(1)=pn para determinar pn(2) nótese que si el sistema se
encuentra hoy en el estado i. entonces para que el estado termine en el estado j
dentro de 2 periodos, debemos pasar del estado i al estado k y después pasar del
estado k al estado i este modo de razonar nos permite escribir
(Probabilidad de transición de i a k)
(Probabilidad de transición de k a j)
De acurdo con la definición de p. la matriz de transición de replanteamos la última
ecuación en la siguiente forma:
4.3. ESTADO ESTABLE
Para grande, n
p tiende a una matriz con renglones idénticos. Esto significa que
después de un largo tiempo, la cadena de markov se estabiliza, e
(independientemente del estado inicial ) hay una probabilidad j de que se está
en el estado j .
El vector  n 21, se llama distribución de estado estable o distribución
de equilibrio, para la cadena de markov. Para una cadena determinada con
matriz de transición , ¿cómo se puede hallar la distribución de probabilidad de
estado estable? A partir del teorema 1, se observa que para grande y toda ,
    jijij npnp 1 (6)
Puesto que  1npij (renglón de n
p ) (columna de ), se podría escribir
    kj
sk
k
ijij pnpnp 



1
1 (7)
Si es grande, sustituyendo la ecuación (6) en la (7), se obtiene




sk
k
kjkj p
1
 (8)
En forma de matriz, (8) se podría escribir como
p  (8`
)
Infortunadamente, el sistema de ecuaciones especificado en (8) tiene un número
infinito de soluciones, debido a que el rango de la matriz siempre resulta ser
1 s (véase capitulo 2, problema de repaso 21). Para obtener los valores únicos
de la probabilidad de estado estable, observe que para cualquier y cualquier ,
      121  npnpnp isii  (9)
4.4. ESTADOS ABSORBENTES
Es un estado a partir de la cual existe cero probabilidad de hacer una transición
fuera de ese estado, que contiene al menos un estado que es posible llegar a un
número de etapas comenzando en caulquier estado no absorbente.
En una cadena de Markov un conjunto C de estados se denomina absorbentes si
el sistema, pertenece indefinidamente. Un ejemplo especial de un conjunto
cerrado es un estado particular que tenga una probabilidad de transición
. En este caso se denomina estado absorbente.
Todos los estado de una cadena irreducible deben formar un conjunto cerrado y
ningún otro subconjunto puede ser cerrado.
Los estados absorbentes tendrás sumas de probabilidades que con el correr del
tiempo llegarán a ser cero, todo esto debido a que hay estados que tiene
probabilidad 1 y por ende los demás estados tenderán a llegar a esta clase de
estados.
CONCLUSIÓN
Como conclusión las cadenas de Markov nos permite hacer análisis sobre el
estudio de los comportamientos de ciertos sistemas en ciertos periodos que
pueden ser cortos o largos. Además se tiene una relación con las probabilidades
absolutas. Pero sin embargo lo más importante es el estudio del comportamiento
sistemas a largo plazo, cuando el número de transiciones tiene al infinito
Al conocer más o menos las probabilidades de un experimento, esto a su vez nos
permitirá conocer a corto yplazo los estados en que se encontrarían en periodos o
tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros
intereses, y tomar una decisión de manera consciente y no se comentan muchos
errores.
Esto también nos proporcionara un tiempo estimado para que identifiquemos cada
estado y el periodo en que se encuentra con la implementación de un proceso,
también se establece las probabilidades como una herramienta más en las
cadenas de Markov.
BIBLIOGRAFÍA
4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV
Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826
4.2. PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N PASOS
Investigación de operaciones, 5ª edición, Editorial taha, pp. 824-826
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l.
wishston, Editorial Thompson, pp. 928-931.
4.3. ESTADO ESTABLE
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l.
wishston, Editorial Thompson, pp. 934-938.
4.4. ESTADOS ABSORBENTES
Investigación de operaciones, 5ª edición, Editorial taha, pp. 826-830

Weitere ähnliche Inhalte

Was ist angesagt?

Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
Alvaro Gil
 
2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)
Pierina Diaz Meza
 
2.3. procedimiento para resolver problemas
2.3. procedimiento para resolver problemas2.3. procedimiento para resolver problemas
2.3. procedimiento para resolver problemas
Rodia Bravo
 
Solucion de ejercicios_capitulo_7_libro
Solucion de ejercicios_capitulo_7_libroSolucion de ejercicios_capitulo_7_libro
Solucion de ejercicios_capitulo_7_libro
Darkmono
 
Analisis de Redes - Investigacion de Operaciones
Analisis de Redes - Investigacion de OperacionesAnalisis de Redes - Investigacion de Operaciones
Analisis de Redes - Investigacion de Operaciones
Sergio Hernández Ortega
 

Was ist angesagt? (20)

Modelos de transporte
Modelos de transporteModelos de transporte
Modelos de transporte
 
Unidad 4
Unidad 4Unidad 4
Unidad 4
 
planeación agregada
 planeación agregada planeación agregada
planeación agregada
 
1.2 Definición de simulación
1.2 Definición de simulación   1.2 Definición de simulación
1.2 Definición de simulación
 
3.1 sistemas de tiempos predeterminados
3.1 sistemas de tiempos predeterminados3.1 sistemas de tiempos predeterminados
3.1 sistemas de tiempos predeterminados
 
Teoria de la dualidad y Analisis de la Sensibilidad
Teoria de la dualidad y Analisis de la SensibilidadTeoria de la dualidad y Analisis de la Sensibilidad
Teoria de la dualidad y Analisis de la Sensibilidad
 
Tendencias Lineales o no lineales / Estadistica
Tendencias Lineales o no lineales / EstadisticaTendencias Lineales o no lineales / Estadistica
Tendencias Lineales o no lineales / Estadistica
 
Optimizacion de redes
Optimizacion de redesOptimizacion de redes
Optimizacion de redes
 
Unidad 5-analisis-de-sensibilidad
Unidad 5-analisis-de-sensibilidadUnidad 5-analisis-de-sensibilidad
Unidad 5-analisis-de-sensibilidad
 
Análisis incremental word
Análisis incremental wordAnálisis incremental word
Análisis incremental word
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
 
5.4 flujo maximo
5.4 flujo maximo5.4 flujo maximo
5.4 flujo maximo
 
2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)
 
Hechos historicos de administracion de operaciones
Hechos historicos de  administracion de operacionesHechos historicos de  administracion de operaciones
Hechos historicos de administracion de operaciones
 
2.3. procedimiento para resolver problemas
2.3. procedimiento para resolver problemas2.3. procedimiento para resolver problemas
2.3. procedimiento para resolver problemas
 
Beneficio de la investigación de operaciones
Beneficio de la investigación de operacionesBeneficio de la investigación de operaciones
Beneficio de la investigación de operaciones
 
Graficas de control por atributo
Graficas de control por atributoGraficas de control por atributo
Graficas de control por atributo
 
Solucion de ejercicios_capitulo_7_libro
Solucion de ejercicios_capitulo_7_libroSolucion de ejercicios_capitulo_7_libro
Solucion de ejercicios_capitulo_7_libro
 
Analisis de Redes - Investigacion de Operaciones
Analisis de Redes - Investigacion de OperacionesAnalisis de Redes - Investigacion de Operaciones
Analisis de Redes - Investigacion de Operaciones
 
5.5 flujo a costo minimo
5.5 flujo a costo minimo5.5 flujo a costo minimo
5.5 flujo a costo minimo
 

Andere mochten auch (6)

Cadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operacionesCadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operaciones
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Resumen unidad 3
Resumen unidad 3Resumen unidad 3
Resumen unidad 3
 
Optimizacion De Redes
Optimizacion De RedesOptimizacion De Redes
Optimizacion De Redes
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
II Unidad Planeación de Capacidad
II Unidad Planeación de CapacidadII Unidad Planeación de Capacidad
II Unidad Planeación de Capacidad
 

Ähnlich wie Cadenas de markov

Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
ingverdu
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
ingverdu
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
paquitootd
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blog
oskr2588
 

Ähnlich wie Cadenas de markov (20)

Final grupo markov
Final grupo markovFinal grupo markov
Final grupo markov
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Matriz transicion
Matriz transicionMatriz transicion
Matriz transicion
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
 
Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
 
Cmtd
CmtdCmtd
Cmtd
 
Markov mono
Markov monoMarkov mono
Markov mono
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
 
2 produccion
2 produccion2 produccion
2 produccion
 
SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blog
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPO
 
cadenas de markov
cadenas de markovcadenas de markov
cadenas de markov
 
Aplicación de la matriceses
Aplicación de la matriceses Aplicación de la matriceses
Aplicación de la matriceses
 
Cadenas de markov io2
Cadenas de markov io2Cadenas de markov io2
Cadenas de markov io2
 

Cadenas de markov

  • 1. NOMBRE DEL ALUMNO: JAIME VALDIVIA CASTELLANOS MATERIA: INVESTIGACIÓN DE OPERACIONES II NUMERO DE CONTROL: 119T0101 NOMBRE DEL DOCENTE: ING. ROBERTO CRUZ ANDRADE NÚMERO Y NOMBRE DE LA UNIDAD: IV CADENAS DE MARKOV
  • 2. INTRODUCCIÓN En las cadenas de Markov considera ciertos puntos discretos en el tiempo para toma valores de la variable aleatoria que caracteriza al sistema. Entonces las cadenas de Markov se usan para estudiar ciertos comportamientos de largo y cortos plazos de sistemas. Los estados en el tiempo representan situación exhaustiva y mutuamente excluyentes del sistema en un tiempo específico. Además el número de estado puede ser finito o infinito. Por lo general una cadena de Markov describe el comportamiento de transición de un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen situaciones donde los espaciamientos temporales dependen de las características del sistema y por ello, pueden no ser iguales entre sí. Las cadenas de Markov se pueden aplicar en áreas como la educación, comercialización, servicios de salud, finanzas, contabilidad y producción.
  • 3. 4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV La cadena de Markov recibe su nombre del matemático ruso AndreiMarkov que desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo. A veces nos interesa saber cómo cambia una variable aleatoria a través del tiempo. Por ejemplo, desearíamos conocer cómo evoluciona el precio de las acciones de una empresa en el mercado a través del tiempo. La cadena de markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado. En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.
  • 4. 4.2. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE N PASOS Suponga que estudiamos una cadena de markov con matriz. P de probabilidad de transición conocida. Como todas las cadenas con las que trataremos son estacionarias, no nos importara identificar nuestras cadenas de markov como estacionarias. Una pregunta de interés es: si una cadena de markov está en el estado i en el tiempo m, ¿Cuál es la probabilidad que n periodos después de la cadena de markov este en el estado j? como se trata de una cadena de markov estacionaria, esta probabilidad será independiente de m y, por tanto, podemos escribir Donde Se llama probabilidad en la etapa n de una transición de estado i al estado j. Es claro que pn(1)=pn para determinar pn(2) nótese que si el sistema se encuentra hoy en el estado i. entonces para que el estado termine en el estado j dentro de 2 periodos, debemos pasar del estado i al estado k y después pasar del estado k al estado i este modo de razonar nos permite escribir (Probabilidad de transición de i a k) (Probabilidad de transición de k a j) De acurdo con la definición de p. la matriz de transición de replanteamos la última ecuación en la siguiente forma:
  • 5. 4.3. ESTADO ESTABLE Para grande, n p tiende a una matriz con renglones idénticos. Esto significa que después de un largo tiempo, la cadena de markov se estabiliza, e (independientemente del estado inicial ) hay una probabilidad j de que se está en el estado j . El vector  n 21, se llama distribución de estado estable o distribución de equilibrio, para la cadena de markov. Para una cadena determinada con matriz de transición , ¿cómo se puede hallar la distribución de probabilidad de estado estable? A partir del teorema 1, se observa que para grande y toda ,     jijij npnp 1 (6) Puesto que  1npij (renglón de n p ) (columna de ), se podría escribir     kj sk k ijij pnpnp     1 1 (7) Si es grande, sustituyendo la ecuación (6) en la (7), se obtiene     sk k kjkj p 1  (8) En forma de matriz, (8) se podría escribir como p  (8` ) Infortunadamente, el sistema de ecuaciones especificado en (8) tiene un número infinito de soluciones, debido a que el rango de la matriz siempre resulta ser 1 s (véase capitulo 2, problema de repaso 21). Para obtener los valores únicos de la probabilidad de estado estable, observe que para cualquier y cualquier ,       121  npnpnp isii  (9)
  • 6. 4.4. ESTADOS ABSORBENTES Es un estado a partir de la cual existe cero probabilidad de hacer una transición fuera de ese estado, que contiene al menos un estado que es posible llegar a un número de etapas comenzando en caulquier estado no absorbente. En una cadena de Markov un conjunto C de estados se denomina absorbentes si el sistema, pertenece indefinidamente. Un ejemplo especial de un conjunto cerrado es un estado particular que tenga una probabilidad de transición . En este caso se denomina estado absorbente. Todos los estado de una cadena irreducible deben formar un conjunto cerrado y ningún otro subconjunto puede ser cerrado. Los estados absorbentes tendrás sumas de probabilidades que con el correr del tiempo llegarán a ser cero, todo esto debido a que hay estados que tiene probabilidad 1 y por ende los demás estados tenderán a llegar a esta clase de estados.
  • 7. CONCLUSIÓN Como conclusión las cadenas de Markov nos permite hacer análisis sobre el estudio de los comportamientos de ciertos sistemas en ciertos periodos que pueden ser cortos o largos. Además se tiene una relación con las probabilidades absolutas. Pero sin embargo lo más importante es el estudio del comportamiento sistemas a largo plazo, cuando el número de transiciones tiene al infinito Al conocer más o menos las probabilidades de un experimento, esto a su vez nos permitirá conocer a corto yplazo los estados en que se encontrarían en periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros intereses, y tomar una decisión de manera consciente y no se comentan muchos errores. Esto también nos proporcionara un tiempo estimado para que identifiquemos cada estado y el periodo en que se encuentra con la implementación de un proceso, también se establece las probabilidades como una herramienta más en las cadenas de Markov.
  • 8. BIBLIOGRAFÍA 4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826 4.2. PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N PASOS Investigación de operaciones, 5ª edición, Editorial taha, pp. 824-826 Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l. wishston, Editorial Thompson, pp. 928-931. 4.3. ESTADO ESTABLE Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l. wishston, Editorial Thompson, pp. 934-938. 4.4. ESTADOS ABSORBENTES Investigación de operaciones, 5ª edición, Editorial taha, pp. 826-830