SlideShare una empresa de Scribd logo
1 de 27
Descargar para leer sin conexión
2012
  Examen de Análisis y Toma
  de decisiones.

  Dr. Manuel Jáuregui Renault




[CADENAS DE MARKOV]
Carlos Delgado Avila.         No de Cta: 409083200
Contenido
Contexto Histórico……………………………………………………………………….1

Introducción……………………………………………………………………………...3

Definiciones de cadenas de Markov……………………………………………………..4

Notaciones…………………………………………….…………………………………5

      Cadenas homogéneas y no homogéneas………………………………………...5
      Probabilidades de transición y matriz de transacción. ………………………….5
      Cadena de Markov homogénea………………………………………………….6
      Vector de probabilidad invariante……………………………….........................7
      Clases de comunicación. ……………………………..........................................8
      Tiempos de entrada…………………………….......................…………………8
      Recurrencia…………………………….......................…………………………8
      Periodicidad……………………………………………………………………..9


Tipos de Cadenas de Markov…………………………………………………………...9

      Cadenas Irreductibles……………………………………………………………9
      Cadenas positivo-recurrentes……………………………………………………9
      Cadenas de Markov en tiempo continuo………………………………………...9
      Cadenas absorbentes……………………………………………………………10
      Cadenas ergódicas o irregulares………………………………………………...10
      Cadenas Semiergódicas…………………………………………………………11
      Cadenas no ergódicas…………………………………………………………...11
      Cadenas cíclicas…………………………………………………………………12


Clasificación de cadenas de Markov…………………………………………………….13

      Análisis topológico de las cadenas de Markov…………………………………..13
      Propiedades de estado……………………………………………………………13
      Propiedades de clase……………………………………………………………...15


Aplicaciones de las cadenas de Markov…………………………………………………16

Análisis y toma de decisión del uso de cadenas de Markov; Ejemplo Practico…………17

Bibliografía………………………………………………………………………………24
“Una cadena de demostraciones debe tener su principio en alguna
parte”

                                                JEREMY BENTHAM
                                 An Introduction of Morals and Legislation




                                 0
Contexto Histórico
Andréi Andréyevich Márkov (14 de junio de 1856 - 20 de julio de 1922)


                                 Matemático ruso conocido por sus trabajos en la
                                 teoría de los números y la teoría de
                                 probabilidades.
                                Márkov nació en Riazán, Rusia. Antes de los 10
                                años su padre, un funcionario estatal, fue
                                trasladado a San Petersburgo donde Andréi entró
                                a estudiar en un instituto de la ciudad. Desde el
                                principio mostró cierto talento para las
                                matemáticas y cuando se graduó en 1874 ya
                                conocía a varios matemáticos de la Universidad
                                de San Petersburgo, donde ingresó tras su
                                graduación. En la Universidad fue discípulo
                                de Chebyshov y tras realizar sus tesis de
                                maestría y doctorado, en 1886 accedió como
                                adjunto a la Academia de Ciencias de San
                                Petersburgo a propuesta del propio Chebyshov.
Diez años después Márkov había ganado el puesto de académico regular.
Desde 1880, tras defender su tesis de maestría, Márkov impartió clases en la
Universidad y, cuando el propio Chebyshov dejó la Universidad tres años después,
fue Márkov quien le sustituyó en los cursos de teoría de la probabilidad. En 1905,
tras 25 años de actividad académica, Márkov se retiró definitivamente de la
Universidad, aunque siguió impartiendo algunos cursos sobre teoría de la
probabilidad.
A parte de su perfil académico, Andréi Márkov fue un convencido activista político.
Se opuso a los privilegios de la nobleza zarista y llegó a rechazar las
condecoraciones del propio zar en protesta por algunas decisiones políticas
relacionadas con la Academia de Ciencias. Hasta tal punto llegó su implicación en
la política que llegó a ser conocido con el sobrenombre de "el académico militante".
Márkov arrastró durante toda su vida problemas relacionados con una
malformación congénita en la rodilla que le llevaría varias veces al quirófano y que,
con el tiempo, fue la causa de su muerte cuando el 20 de julio del año 1922 una
de las muchas operaciones a las que se sometió le produjo una infección
generalizada de la que no pudo recuperarse.
Aunque Márkov influyó sobre diversos campos de las matemáticas, por ejemplo en
sus trabajos sobre fracciones continuas, la historia le recordará principalmente por
sus resultados relacionados con la teoría de la probabilidad. En 1887 completó la
prueba que permitía generalizar el teorema central del límite y que ya había
avanzado Chebyshov. Pero su aportación más conocida es otra.




                                         1
Su trabajo teórico en el campo de los procesos en los que están involucrados
componentes aleatorios (procesos estocásticos) darían fruto en un instrumento
matemático que actualmente se conoce como cadena de Márkov: secuencias de
valores de una variable aleatoria en las que el valor de la variable en el futuro
depende del valor de la variable en el presente, pero es independiente de la
historia de dicha variable. Las cadenas de Márkov, hoy día, se consideran una
herramienta esencial en disciplinas como la economía, la ingeniería, la
investigación de operaciones y muchas otras.




                           Universidad de San Petersburgo




                                         2
Introducción
                               Un proceso o sucesión de eventos que se
                               desarrolla en el tiempo en el cual el resultado en
                               cualquier etapa contiene algún elemento que
                               depende de un proceso al azar se denomina un
                               proceso aleatorio o proceso estocástico. Por
                               ejemplo, la sucesión podrían ser las condiciones
                               del tiempo en Veracruz en una serie de días
                               consecutivos: el tiempo cambia día con día de
                               una manera que en apariencia es algo aleatorio.
O bien la sucesión podría consistir de los precios diarios al cierre de ciertas
acciones que cotizan en la bolsa en donde otra vez interviene cierto grado de
aleatoriedad. Una sucesión de elecciones gubernamentales es otro ejemplo de un
proceso estocástico.

Un ejemplo muy simple de un proceso estocástico es una sucesión de ensayos de
Bernoulli en, por ejemplo, una sucesión de lanzamientos una moneda en este
caso el resultado en cualquier etapa es independiente de todo resultados previos.
Sin embargo en la mayoría de los procesos estocásticos cada resultado depende
de lo que sucedió en etapas anteriores del proceso. Por ejemplo, el tiempo en un
día determinado no es aleatorio por completo sino que es afectado en cierto grado
por el tiempo de días previos. El precio de una acción al cierre de cualquier día
depende en cierta medida del
comportamiento de la bolsa en días
previos.

El caso más simple de un proceso
estocástico en que los resultados
dependen de otro(s), ocurre cuando el
resultado en cada etapa solo depende
del resultado de la etapa anterior y no
de cualquiera de los resultados previos.
Tal proceso se denomina cadena de
Markov (una cadena de eventos, cada
evento ligado al precedente).




                                           3
Definiciones de Cadenas de Markov
“Las cadenas de Markov son una herramienta para analizar el comportamiento y el
gobierno de determinados tipos de procesos estocásticos, esto es, procesos que
evolucionan de forma no determinista a lo largo del tiempo en tomo a un conjunto
de estados. Por tanto, representa un sistema que varía su estado a lo largo del
tiempo. Siendo cada cambio una transición del sistema. Dichos cambios no están
predeterminados, aunque sí lo está la probabilidad del próximo estado en función
de los estados, probabilidad que es constante a lo largo del tiempo (sistema
homogéneo en el tiempo). Eventualmente, es una transición, el nuevo estado
puede ser el mismo que el anterior y es posible que exista la probabilidad de influir
en las probabilidades de transición actuando sobre el sistema (decisión).”

                                          Joan B. Fonollosa – Jose M. Sallan



“Una cadena de Markov es una sucesión de ensayos similares u observaciones en
la cual cada ensayo tiene el mismo número finito de resultados posibles y en
donde también la probabilidad de cada resultado para un ensayo dado depende
solo del resultado del ensayo inmediatamente precedente y no de cualquier
resultado previo.”

                                         Jagdish C. Arya – Robin W. Lardner


En matemáticas, se define como un proceso estocástico discreto que cumple con
la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su
instante actual, su estado presente resume toda la información relevante para
describir en probabilidad su estado futuro.
Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El
rango de estas variables, es llamado espacio estado, el valor de Xn es el estado
del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en
estados pasados es una función de Xn por sí sola, entonces:




Donde xi es el estado del proceso en el instante i. La identidad mostrada es
la propiedad de Markov.




                                          4
Notaciones
Cadenas homogéneas y no homogéneas

Una cadena de Markov se dice homogénea si la probabilidad de ir del estado i al
estado j en un paso no depende del tiempo en el que se encuentra la cadena, esto
es:


                                                        para todo n y para cualquier
                                                       i, j.
Si para alguna pareja de estados y para algún tiempo n la propiedad antes
mencionada no se cumple diremos que la cadena de Markov es no homogénea.


Probabilidades de transición y matriz de transición
La probabilidad de ir del estado i al estado j en n unidades de tiempo es:



En la probabilidad de transición en un paso se omite el superíndice de modo que
queda:



Un hecho importante es que las probabilidades de transición en n pasos satisfacen
la ecuación de Chapman-Kolmogorov, esto es, para cualquier k tal que
0 < k < n se cumple que



Donde E denota el espacio de estados.

Cuando la cadena de Markov es homogénea, muchas de sus propiedades útiles
se pueden obtener a través de su matriz de transición, definida entrada a entrada
como                 esto es, la entrada i, j corresponde a la probabilidad de ir del
estado i a j en un paso.
Del mismo modo se puede obtener la matriz de transición en n pasos como:

                        , donde                                .




                                          5
Cadena de Markov homogénea
Decimos que una cadena de Markov es homogénea o estacionaria cuando se
verifica que:




Es decir que las probabilidades de transición solo dependen de la diferencia entre
los instantes de tiempo y no del valor absoluto de estos. Esta característica se
cumple en muchos casos de interés práctico.

Las cadenas de Markov homogéneas que van a ser de nuestro interés son
aquellas en las que en régimen permanente el vector de estado tiende a un valor
asintóticamente estable, es decir:




                          Ejemplo: Erase una vez un hippie, que decide quedarse
                          vagabundeando por la huerta valenciana, especialmente
                          entre los pueblos de Almacera, Alboraya y Tavernes. El
                          hippie en la tarde se puede cansar del pueblo en el que
                          esta, sale a la carretera y se pone a pedir raid. El
                          diagrama que vemos abajo representa las probabilidades
                          de que lo recoja alguien en la dirección dada. En
                          Alboraya, de vez en cuando decide pasar la noche y
                          endulzar su vida con una horchata con fartons. Nuestro
                          interés es conocer las probabilidades de estado y ver si
existe un límite en régimen permanente (independientemente del lugar en el que el
hippie empiece su periplo).




                                        6
La matriz de transición viene dada por:




Y no depende del tiempo.

Entonces recordando que P(i + 1)= P(i) T (i, i + 1), se calcularan las
probabilidades de estado después de varias transiciones y partiendo de
condiciones iniciales distintas:




Luego, como vemos

                                              ()
Vector de probabilidad invariante
Se define la distribución inicial .

Diremos que un vector de probabilidad (finito o infinito numerable) es invariante
para una cadena de Markov si               donde P denota la matriz de transición de
la cadena de Markov. Al vector de probabilidad invariante también se le
llama distribución estacionaria o distribución de equilibrio.




                                          7
Clases de comunicación
Para dos estados i,j en el espacio de estados E, diremos que de i se accede a j (y
se denotará       ) si            para algún n, si           y          entonces
diremos que i comunica con j y se denotará i↔j.

La propiedad "↔" es una relación de equivalencia. Esta relación induce una
partición en el espacio de estados. A estas clases de equivalencia las
llamaremos clases de comunicación.
Dado un estado x, denotaremos a su clase de comunicación como C(x).

Diremos que un subconjunto C del espacio de estados (al que denotaremos E) es
cerrado si ningún estado de E-C puede ser accedido desde un estado de C, es
decir, si           para todo x∈C, para todo y∈E-C y para todo natural m>0.

Tiempos de entrada
Si          , definimos el primer tiempo de entrada a C como la variable aleatoria




esto es,     denota la primera vez que la cadena entra al conjunto de estados C.


Recurrencia
En una cadena de Markov con espacio de estados E, si x∈E se define:
                                                   y diremos que:

           x es estado recurrente si         .
           x es transitorio si
           x es absorbente si
           Una clase de comunicación es clase recurrente si todos sus estados
            son recurrentes.
Sea                          , si x∈Ediremos que:

           x es cero-recurrente si
           x es positivo-recurrente si
        El real    se interpreta como el tiempo promedio de recurrencia.




                                          8
Periodicidad
El periodo de un estado x∈E se define como:


           donde        denota el máximo común divisor.

               Si d(x)=1 diremos que x es un estado aperiódico.

               Una cadena de Markov se dice aperiódica si todos sus estados
                son aperiódicos.


Tipos de cadenas de Markov
Cadenas irreducibles
Una cadena de Markov se dice irreducible si se cumple cualquiera de las
siguientes condiciones (equivalentes entre sí):
   1.   Desde cualquier estado de E se puede acceder a cualquier otro.
   2.   Todos los estados se comunican entre sí.
   3.   C(x)=E para algún x∈E.
   4.   C(x)=E para todo x∈E.
   5.   El único conjunto cerrado es el total.
La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son
ejemplos de cadenas de Markov irreducibles.
Cadenas positivo-recurrentes
Una cadena de Markov se dice positivo-recurrente si todos sus estados son
positivo-recurrentes. Si la cadena es además irreducible es posible demostrar que
existe un único vector de probabilidad invariante y está dado por:

Cadenas de Markov en tiempo continuo
Si en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado en
el conjunto de números naturales, se consideran las variables
aleatorias Xt con t que varía en un intervalo continuo del conjunto de números
reales, tendremos una cadena en tiempo continuo. Para este tipo de cadenas en
tiempo continuo la propiedad de Markov se expresa de la siguiente manera:


tal que
Para una cadena de Markov continua con un número finito de estados puede
definirse una matriz estocástica dada por:




                                          9
La cadena se denomina homogénea si                               . Para una cadena de Markov
en tiempo continuo homogénea y con un número finito de estados puede definirse el llamado
generador infinitesimal como:2




Y puede demostrarse que la matriz estocástica viene dada por:




Cadenas absorbentes
Una cadena de Markov con espacio de estados finito se dice absorbente si se
cumplen las dos condiciones siguientes:

    1. La cadena tiene al menos un estado absorbente.
    2. De cualquier estado no absorbente se accede a algún estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su
complemento como D, tenemos los siguientes resultados:

           Su matriz de transición siempre se puede llevar a una de la forma



Donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz
identidad, 0 es la matriz nula y R alguna submatriz.

                             , esto es, no importa en donde se encuentre la
            cadena, eventualmente terminará en un estado absorbente.

Cadenas ergódicas o regulares
La cadena de Markov C1, de dos estados, tiene la matriz de probabilidades de
transición:


Calculemos la potencia decimosexta de esa matriz para aproximar la matriz de
probabilidades estacionarias:



Se observa que las probabilidades de estado estable de los diferentes estados son
independientes del estado de origen, razón por la que la matriz de probabilidades



                                              10
estacionarias tiene todas las filas iguales. Tenemos entonces una cadena de
Markov regular en la que las probabilidades estacionarias no dependen del estado
inicial. Además, ninguna de las probabilidades vale cero. Tenemos entonces una
cadena de Markov ergódica.

Cadenas Semiérgodicas
Tenemos ahora una cadena de C2 de cuatro estados, de matriz de probabilidades
de transición.




Si se observa la matriz de la transición decimosexta, se observa como todas las
filas tienden a ser iguales (aunque no completamente, especialmente las dos
primeras), con una diferencia respecto de las cadenas ergódicas: existen estados
cuya probabilidad de estado estable tiende a ser cero (esto es, que no aparecerán
den el comportamiento a largo plazo). Por lo tanto, no se trata de una cadena
ergódica. Sin embargo, sigue siendo cierto que todas las filas tienden hacia un
mismo valor, por lo que sigue siendo regular. Las cadenas de Markov regulares (y
también otras que veremos más adelante) con algunas de las columnas de la
matriz de probabilidades estacionarias igual a cero se llaman semiergódicas. Las
cadenas ergódicas pueden considerarse como un caso particular de las cadenas
semiergódicas, en las que no existen probabilidades de estado iguales a cero.




Cadenas no ergódicas
La cadena C3, de cuatro estados, tiene la siguiente matriz de transición:




Si observamos la matriz de la transición 16, podemos ver que, mientras algunas
filas tienen el mismo comportamiento que las de los casos anteriores, vemos que
otras tienden a ciertos valores, diferentes de los de las otras filas. Ello quiero decir
que, al contrario de lo que sucede con el caso regular, las probabilidades de



                                          11
estado estable si dependen de cuál ha sido el estado inicial de la cadena. Se trata
de una cadena semirregular




Cadenas Cíclicas

La cadena C4, cuya matriz de probabilidades de transición se muestra a
continuación, después de un número elevado de transiciones presenta un
comportamiento diferente del de las cadenas anteriores.




Al ir obteniendo matrices de transición, se observa que estas no convergen a un
valor concreto, sino que muestran un comportamiento cíclico. En este caso, las
transiciones impares tienden a un valor y las pares a otro.




Este tipo de cadenas son cadenas son cadenas cíclicas. En este caso particular,
nos encontramos ante una cadena de periodo p=2.

La columna es siempre cero, por lo que el estado I no aparecerá en las
probabilidades a largo plazo; quiere ello decir que la cadena considerada no es
ergódica, aunque es claro que pueden existir cadenas cíclicas ergódicas.




                                        12
También debemos preguntarnos qué ocurre con las probabilidades estacionarias
en las cadenas cíclicas, ya que si las sucesivas potencias de P no tienden hacia
unos valores determinados. Más adelante, cuando estudiamos el cálculo
sistemático de P*.



Clasificación de cadenas de Markov
De lo expuesto hasta ahora, si queremos analizar el comportamiento a largo plazo
de un proceso estocástico que cumpla la propiedad markoviana, necesitamos:

      Una metodología para poder clasificar la cadena como ergódica o no
       ergódica por una parte, y como regular, semirregular o cíclica por otra,
       examinado la matriz de probabilidades de transición.
      Una metodología que permita el cálculo de la matriz de probabilidades.

La clasificación de las cadenas de Markov puede realizarse mediante dos
metodologías:

      El análisis topológico, examinando las propiedades de los estados de la
       cadena y estableciendo clases de equivalencia entre los estados.
      El análisis espectral, examinando los valores propios de la matriz de
       probabilidades de transición de un paso.

Una vez clasificada la cadena, puede obtenerse información acerca de la forma
que presente la matriz de probabilidades estacionarias, lo cual facilita su obtención.

Análisis topológico de las cadenas de Markov
Permite la clasificación de las cadenas a partir de la información suministrada por
la matriz P utilizando propiedades relativas a la relación entre estados
(propiedades de estado). Estas propiedades permiten, a su vez, definir
subconjuntos de estados denominados clases. También podremos definir,
entonces, las propiedades de clase.


Propiedades de estado

Dados dos estados de una cadena, pueden establecerse dos tipos de relaciones
entre ellos:

      El estado i es descendente de j si cuando iniciamos el proceso es i existe
       una probabilidad no nula de que el proceso llegue a j. En este caso,
       diremos que existe un camino entre los estados i y j.



                                         13
   Los estados i y j se comunican si i es descendiente de j y j es descendiente
       de i.
      Existirá un ciclo dentro de una cadena de Markov si existe un camino en la
       cadena que comunique al estado i consigo mismo. Dicho circuito se
       caracteriza por el numero mínimo de transiciones que necesitara el sistema
       para volver al estado i, si se inició el proceso en ese estado. Dicho número
       constituirá la longitud del ciclo.

Obsérvese que, con las definiciones dadas, la existencia de un circuito implica que
todos los estados que lo forman están comunicados. Se conviene que todo estado
esta comunicado consigo mismo, ya que se al menos puede acceder a él en cero
transiciones (circuito de longitud cero), con independencia de que además existan
otros circuitos de longitud mayor.

Para analizar estas relaciones entre estados, es útil recordar que, según la teoría
de grafos, toda matriz cuadrada tiene asociado un grafo, cuya representación
gráfica se puede elaborar a partir de la matriz de probabilidades de transición, el
diagrama de transiciones de estados.

Cada estado de la cadena se representa por un vértice del grafo y cada transición
con probabilidad no nula se representa por una relación entre los vértices que
representan los estados anterior y posterior de la misma. De esta manera el
diagrama se representan todas las situaciones en las que un estado i es
descendente respecto de j.




                                        14
Propiedades de clase
                                                    Hemos establecido que un
                                                    estado      está   siempre
                                                    comunicado          consigo
                                                    mismo, la relación entre
                                                    estados estar comunicado
                                                    es reflexiva, simétrica y
                                                    transitiva, por lo que se
                                                    trata de una relación de
                                                    equivalencia.    Po    este
                                                    motivo, podemos decir que
                                                    un conjunto de estados
                                                    comunicados      entre    si
                                                    constituye un clase de
equivalencia. De esta manera podemos clasificar diversas clases los estados de
una cadena de Markov.

Podemos definir la propiedad de clase siguiente para las clases de equivalencia
que se hayan establecido:

      Una clase de equivalencia será final si cuando el proceso llega a uno de los
       estados de la clase, en las transiciones siguientes el proceso evoluciona
       siempre dentro de los estados de la clase.
      Aquellas clases de equivalencia que no sean clases finales serán las claves
       de paso. Las clases de paso tienen un interés muy limitado en el estudio de
       las cadenas de Markov.

Puesto que el sistema debe
ser capaz de evolucionar
indefinidamente entre un
número finito de estados,
toda cadena debe tener al
menos una clase final. Si en
su evolución a lo largo de
infinitas  transiciones    el
sistema puede pasar por
todos los estados, entonces
habrá una única clase final
que los englobara a todos
ellos. Este caso es el que
hemos definido anteriormente como cadena ergódica.



                                        15
Aplicaciones de las cadenas de Markov
Física
Las cadenas de Markov son usadas en muchos problemas de la termodinámica y
la física estadística. Ejemplos importantes se pueden encontrar en la Cadena de
Ehrenfest o el modelo de difusión de Laplace.
Meteorología
Si consideramos el clima de una región a través de distintos días, es claro que el
estado actual solo depende del último estado y no de toda la historia en sí, de
modo que se pueden usar cadenas de Markov para formular modelos
climatológicos básicos.
Modelos epidemiológicos
Una importante aplicación de las cadenas de Markov se encuentra en el proceso
Galton-Watson. Éste es un proceso de ramificación que se puede usar, entre otras
cosas, para modelar el desarrollo de una epidemia (véase modelaje matemático
de epidemias).
Internet
El pagerank de una página web (usado por Google en sus motores de búsqueda)
se define a través de una cadena de Markov, donde la posición que tendrá una
página en el buscador será determinada por su peso en la distribución
estacionaria de la cadena.
Simulación
Las cadenas de Markov son utilizadas para proveer una solución analítica a
ciertos problemas de simulación tales como el Modelo M/M/1.3
Juegos de azar
Son muchos los juegos de azar que se pueden modelar a través de una cadena
de Markov. El modelo de la ruina del jugador, que establece la probabilidad de que
una persona que apuesta en un juego de azar finalmente termine sin dinero, es
una de las aplicaciones de las cadenas de Markov en este rubro.
Economía y Finanzas
Las cadenas de Markov se pueden utilizar en modelos simples de valuación de
opciones para determinar cuándo existe oportunidad de arbitraje, así como en el
modelo de colapsos de una bolsa de valores o para determinar la volatilidad de
precios. En los negocios, las cadenas de Márkov se han utilizado para analizar los
patrones de compra de los deudores morosos, para planear las necesidades
de personal y para analizar el reemplazo de equipo.
Música
Diversos algoritmos de composición musical usan cadenas de Markov, por
ejemplo el software Csound o Max.




                                         16
Análisis y toma de decisión del uso de cadenas de Markov;
Ejemplo Practico



Modelos empleados para la Toma de decisiones en el cuidado de la salud

RESUMEN
El análisis de decisiones es un grupo de herramientas que permiten apoyar y
manejar un proceso de evaluación estructurado. Esta metodología se usa
ampliamente en la evaluación económica para planeación o programas de salud.
Este artículo delinea algunas características de las decisiones complejas y
muestra los fundamentos y etapas que deben considerarse cuando se toman
decisiones en un escenario de incertidumbre (definición del problema, selección
de un marco temporal de análisis adecuado, estructuración del problema,
desarrollo de un modelo para análisis, selección de la mejor alternativa y
realización de análisis de sensibilidad). Finalmente se presentan algunas críticas
que se han hecho a esta metodología.


Tomar una decisión implica escoger entre varias alternativas. Tomar la mejor
decisión supone haber hecho un análisis de lo que hubiera sucedido Tsi cada una
de las posibles alternativas se hubiera seleccionado. La toma de decisiones es un
acto cotidiano que está involucrado en múltiples actividades que generalmente se
hace por técnicas como la adivinanza, la reacción visceral, la intuición, o la
experiencia basada en opiniones o sucesos muy parecidos.
La toma decisiones de forma intuitiva generalmente resulta poco eficiente dado
que esta estrategia no suele incorporar todos los factores que pueden afectar la
decisión y sus resultados. Pocas decisiones se toman con plena certidumbre
sobre sus posibles consecuencias. El proceso de tomar decisiones puede ser
mejorado utilizando una metodología que combina una estructura explícita y una
técnica cuantitativa de análisis y que se ha denominado "enfoque sistemático de
toma de decisiones bajo condiciones de incertidumbre". Tal metodología, que no
es nativa del área de la salud, se concibió inicialmente como un proceso iterativo
para generar mayor conocimiento y facilitar la generación de alternativas creativas
que ayudaran a los tomadores de decisiones a realizar mejores decisiones.

¿Por qué puede ser difícil tomar una decisión?
La dificultad para tomar una decisión se relaciona con tres aspectos:
Estructurales, personales y políticos:




                                        17
1. Aspectos estructurales: Dentro de esta categoría se agrupan las siguientes
situaciones:
a. El grado de incertidumbre: La incertidumbre se presenta cuando no se conoce
completamente la probabilidad de que ocurra un evento. Al existir incertidumbre
resulta imposible conocer de antemano cuál va a ser el resultado de una decisión.
La incertidumbre puede relacionarse con el diagnóstico, la exactitud de las
herramientas diagnósticas, la calidad y disponibilidad de las fuentes de
información, la historia natural de las enfermedades, las opciones que tomen los
pacientes y los resultados del tratamiento. Al existir múltiples fuentes de
incertidumbre se hace más complicado tener un esquema claro de las diferentes
opciones y resultados de las posibles alternativas de decisión.
b. Cantidad de alternativas disponibles: Entre mayor sea el número de alternativas
entre las cuales haya que escoger, mayor será la complejidad del recorrido entre
la decisión y las posibles consecuencias. La utilización de herramientas gráficas,
como los árboles de decisión, permiten tener una visión más clara y precisa de los
diferentes cursos que pueden tomar las múltiples alternativas de decisión.
c. Consecuencias de tomar la decisión: Entre más graves son las consecuencias
de tomar una decisión incorrecta, más difícil resulta optar por una alternativa.
d. Frecuencia con la que se toman decisiones parecidas: A menor frecuencia,
mayor suele ser la dificultad para tomar la decisión.
2. Aspectos personales: Algunas características psicológicas de quien toma la
decisión pueden dificultar este proceso. Por ejemplo los patrones de personalidad
obsesivos, caracterizados por el perfeccionismo, la rigurosidad y la preocupación
exagerada por detalles, suelen presentar una tendencia a complicar la toma de
decisiones. Por otro lado las personas impulsivas tienden a tomar más fácilmente
decisiones, pero de manera no acertada, dada la falta de análisis que aplican a su
conducta. El tomador de decisiones debería ser una persona que tenga claridad
sobre las características personales que pudieran afectar el proceso de
seleccionar la alternativa acertada.
3. Aspectos políticos: En algunos casos la alternativa más acertada, escogida
mediante un proceso racional y sistematizado, debe supeditarse a
consideraciones de orden político que resultan prioritarias.
Para el manejo de los aspectos estructurales se ha desarrollado una metodología
que permite utilizar un abordaje cuantitativo y estructurado de las situaciones de
toma de decisiones, y que permite evaluar decisiones que se deben tomar en
situaciones en las que se presenten alternativas complejas y diversas fuentes de
incertidumbre. Dicha metodología, que como ya se mencionó se ha llamado
"análisis de decisiones bajo condiciones de incertidumbre", permite:
1. Generar una estructura gráfica que permita ver claramente la relación entre
alternativas y consecuencias.




                                       18
2. Asignar valores a las fuentes de incertidumbre: Asignando valores de
probabilidad a los puntos de incertidumbre se facilita su manejo. Si hay
certidumbre sobre un evento, su probabilidad de ocurrir es de uno (obviamente la
probabilidad de que no ocurra es cero). Si no hay certidumbre, la probabilidad de
ocurrir será menor que uno. Posteriormente se mostrará cómo se asignan estos
valores de probabilidad.
3. Facilitar la comparación entre las diferentes alternativas en términos numéricos.
En esta metodología, a las alternativas posibles se les asigna un valor numérico
que corresponde a un concepto estadístico denominado "valor esperado". En
estadística el valor esperado (o esperanza matemática) de una variable aleatoria
es la suma de la probabilidad de cada suceso multiplicada por su valor. Dicho de
otra forma el valor esperado se asemeja al resultado que se espera en promedio si
se repitiera un experimento (como lanzar una moneda, o medir la talla de un grupo
de personas, por ejemplo) muchas veces. La utilidad del valor esperado es
permitir elegir entre distintas alternativas. En general la alternativa que se elige es
aquella que tenga el valor esperado más alto (años de vida ganados, muertes
evitadas, por ejemplo), pero en ocasiones se selecciona aquella con el valor más
bajo (mortalidad, costos, por ejemplo).
Con estos insumos el tomador de decisiones puede identificar fácilmente las
opciones viables, predecir sus consecuencias o desenlaces, valorar la
probabilidad de los posibles resultados, determinar el valor de cada uno de los
desenlaces, y seleccionar la decisión que puede proveer el mejor resultado.
En el área del cuidado de la salud, el análisis de decisiones es una metodología
que se desarrolló alrededor de situaciones clínicas en pacientes individuales.
Sin embargo, se usa cada vez más frecuentemente en análisis económicos y para
la toma de decisiones políticas.

Etapas en un análisis de decisiones
Dado que el análisis de decisiones es una metodología que pretende, no solo
facilitar, sino además sistematizar el proceso de selección de alternativas, para
hacerlo, de alguna manera replicable, se ha definido una estructuración a lo largo
de una serie de etapas sucesivas (8) (debe tenerse en cuenta que la replicabilidad
de los resultados se ve fuertemente afectada por los aspectos personales y
políticos mencionados atrás):

1. Definición del problema:
Un problema se ha definido como la distancia que hay entre una situación que
existe y otra que se prefiere. El primer paso suele ser escribir el problema
utilizando pocas palabras, preferiblemente recurriendo al uso de verbos en
infinitivo, y hacer una descripción de ciertos detalles como magnitud, posibles
causas o responsables, momento de inicio, identificación de afectados con el



                                          19
problema, estrategias con las que ha intentado solucionarse, y posible resultado si
no se intenta ninguna solución. Este primer paso puede ser suficiente para tomar
una decisión acertada, lo cual sucede cuando se vislumbran alternativas de
decisión que no se habían considerado, cuando se evidencia que se estaba
sobredimensionando la gravedad del problema, cuando se ve que se estaba
tratando de solucionar el problema equivocado (esto se ha denominado "error tipo
tres"), o incluso cuando se encuentra que si no se hace nada, no pasa nada, y lo
que genera la dificultad muchas veces son los intentos de solución (en este último
caso se habla de pseudo problemas). Otra posibilidad que surge en este primer
paso es encontrar que el problema tiene sub problemas, lo cual implica efectuar
un trabajo de jerarquización y definir claramente cuál es el problema primario o
principal.

2. Definición del horizonte de análisis (marco temporal):
Cuando se evalúan alternativas relacionadas con patologías crónicas, el horizonte
de análisis suele ser largo. En estos casos los eventos pueden reaparecer durante
el período definido en el marco temporal: esto supone utilizar estrategias
especiales de análisis (cadenas y modelos de Markov para eventos recurrentes).
Por otro lado, la evaluación de alternativas relacionadas con complicaciones a
corto plazo o con eventos agudos supone un horizonte de análisis corto. En otras
palabras, el horizonte de análisis dependerá de la naturaleza del problema de
salud que se esté evaluando. Cualquiera que sea el caso, debe hacerse una
especie de negociación entre la exactitud del modelo analítico y la simplicidad del
mismo (10). Un modelo no debe ser una representación completa del mundo real
sino una síntesis de sus componentes más importantes.

3. Estructuración del problema:
La etapa de estructuración supone seguir esta secuencia:
- Identificar las alternativas relevantes: Una vez identificado el problema, deben
plantearse una serie de alternativas, las cuales suelen caer en alguna de las
siguientes categorías:
- Esperar y observar, lo cual es equivalente a la política de "no hacer nada".
- Iniciar una intervención.
- Buscar más información antes de decidir una intervención.
- Definir las consecuencias de cada alternativa identificada previamente: Cada
alternativa genera una serie de consecuencias cuya incorporación en la
estructuración del problema supone que esté suficientemente sustentada con
algún tipo de evidencia. Las consecuencias pueden categorizarse en dos grupos:
i) consecuencias intermedias. ii) desenlaces finales. Por ejemplo, si un médico se
encuentra prestando su servicio rural en un lugar apartado donde no dispone de
medios diagnósticos ni posibilidades de remitir rápidamente a sus pacientes, y



                                        20
recibe a un paciente con una herida por arma de fuego en el cráneo, podría
plantearse, de manera general, que hay dos alternativas: esperar y observar, o
arriesgarse a intervenir quirúrgicamente al paciente. Las consecuencias de cada
alternativa podrían definirse de manera simplista en dos categorías: el paciente
sobrevive o muere (aquí las consecuencias se presentan directamente como los
desenlaces finales). Sin embargo, considerando la falta de pericia quirúrgica del
médico, puede plantearse una consecuencia intermedia de la alternativa
intervencionista: que la cirugía se complique o que no se complique; cada una de
estas consecuencias intermedias puede resultar en la salvación o en la muerte del
paciente.
En la Figura 1 se muestra esta secuencia de consecuencias, con unas
convenciones de representación gráfica que se explicarán más adelante.




- Establecer la probabilidad con la que pueden suceder las diferentes
consecuencias de las alternativas planteadas: Un paso fundamental en este tipo
de análisis es cuantificar la incertidumbre: esto se logra asignando valores de
probabilidad a cada una de las consecuencias emanadas de las alternativas
propuestas para la solución del problema.
- Asignar un valor a los desenlaces: Un desenlace es lo que finalmente sucede si
se escoge una de las alternativas planteadas. En esta fase de la estructuración del
problema, se debe asignar un valor numérico a los desenlaces. Esta calificación
se realiza con base en el concepto de utilidad. De forma práctica la utilidad se
puede considerar como la medida de la preferencia de las personas por un
resultado bien o servicio. En particular, en el campo sanitario, seria la medida
cuantitativa de la preferencia de las personas por un resultado específico en salud.




                                        21
4. Desarrollo de un modelo del problema:
Un modelo es una abstracción o representación de un sistema real, de una idea
de un objeto (13). En un análisis de decisiones el modelo es una estructura que
busca representar la realidad del problema, combinando los insumos generados
en la etapa previa (etapa de estructuración), con el propósito de efectuar una serie
de cálculos matemáticos que ayuden a tomar la decisión. Los modelos más
utilizados como estrategia de análisis son los árboles de decisión. Mediante su uso
se pueden integrar, de manera secuencial, los diferentes elementos que surgen
una vez se ha estructurado el problema. En la construcción de un árbol de
decisión se siguen las siguientes convenciones

Punto de arranque: Es la presentación del problema en pocas palabras. Nodo de
decisión: Representa un punto donde se toma una conducta, como por ejemplo las
diferentes alternativas de solución que se plantean al problema. Su forma de
representación en el árbol es un cuadrado. Nodo probabilístico o de azar: Muestra
el punto donde se generan las diferentes consecuencias de una decisión, que no
están bajo el control de quien toma las decisiones. Como previamente se comentó,
las consecuencias generadas de un nodo de azar tienen un componente de
incertidumbre cuantificable por medio de probabilidades. Se representan
gráficamente con un círculo.
Nodo terminal: Representa los desenlaces finales. Se representa con un triángulo.
Conectores: Son líneas que unen los diferentes elementos descritos previamente.
La manera de conectar las diferentes estructuras obedece a una secuencia en la
que, lo que está a la izquierda, temporalmente ha ocurrido antes que lo que está a
la derecha. La amplitud
con la que se desarrolle
el árbol corresponde al
horizonte de análisis.


Definiciones y valores:
Los conectores que
salen de un nodo de
azar tienen en su parte
superior la descripción
del desenlace y el su
parte      inferior   la
cuantificación de la
incertidumbre (valores
de probabilidad). En el
extremo de los nodos
terminales se ubican
los valores asignados a
los           desenlaces
(utilidades).

Figura 2. Convenciones utilizadas en la construcción de un árbol de decision



                                        22
5. Efectuar análisis de sensibilidad:
Teniendo en cuenta que, ni los valores de probabilidad con que se mide la
incertidumbre ni los valores asignados a los desenlaces son valores fijos, al
efectuar un análisis de decisiones surge la duda sobre la posibilidad de que la
solución al problema cambiara si los valores de la medición de incertidumbre y
consecuencias variaran. Para resolver esta duda se realizan los análisis de
sensibilidad. Ellos permiten evaluar los resultados ante la posible gama de valores
que podrían tomar uno o más de los parámetros introducidos en el modelo.
Como resultado se puede conocer la estabilidad de la conclusión dada la
variabilidad de los supuestos introducidos en el modelo. Es frecuente que para
estos análisis se utilicen herramientas gráficas. En los casos en los que la
variabilidad se genera en un solo punto del modelo se utilizan los análisis de
sensibilidad de un parámetro. Si la fuente de variabilidad proviene de varios
puntos se habla de análisis de sensibilidad de múltiples parámetros.

6. Selección de la "mejor" alternativa:
Al finalizar el análisis se obtendrán una serie de valores numéricos (valores
esperados) que ponderarán de manera diferente las distintas alternativas de
decisión. Dependiendo de la medida de utilidad manejada, se seleccionará la
mejor opción (por ejemplo si se manejan años de vida saludable ganados, la mejor
opción será aquella con el mayor valor). Sin embargo, hay que tener en cuenta
que los resultados numéricos no son la única herramienta a la hora de tomar la
decisión final. Existen casos en los cuales tiene más peso algún otro tipo de factor,
como pueden ser aspectos clínicos o políticos. La recomendación general al
utilizar este tipo de métodos es que son solo herramientas para ayudar a decidir,
mas no el único elemento que se toma en cuenta para la toma final de la decisión.

Críticas al análisis de decisiones
Los detractores de esta metodología aducen tres razones para no recomendar su
uso:
1. Dificultad
Así existan herramientas manejables con computadores, la gran cantidad de
opciones derivada de la toma de una decisión compleja, hace que la estructura a
analizar se vuelva demasiado enmarañada y alejada de la realidad. Algunos
teóricos de la economía, conscientes de la limitación impuesta por la complejidad
que pueden alcanzar los modelos, han planteado que no es posible escogerla
mejor opción. Dentro de esta tendencia se plantea también la utilización de
modelos parsimoniosos que, si bien no capturan la integridad de la complejidad de
la situación, incorporan los aspectos más relevantes de la misma. Los árboles de
decisión tradicionales, presentan inconvenientes cuando se quiere representar
eventos que pueden ocurrir más de una vez, eventos cuyas probabilidades de
ocurrencia cambian con el tiempo, eventos que no ocurren inmediatamente y
eventos que tienen implicaciones a largo plazo en los pacientes (16,17). Las
cadenas y modelos de Markov permiten manejar estas dificultades que se
presentan con los árboles de decisión tradicionales, y son útiles cuando se quiere
modelar problemas que involucran riesgos que dependen del tiempo.




                                         23
2. Falta de sensibilidad política
Se ha planteado que esta metodología se engolosina con la estructura del
problema pero que no le da énfasis a las dificultades que implica poner en la
práctica la toma de la decisión. Aunque la objetividad y la neutralidad de valores
se han adjudicado a esta metodología como una de sus fortalezas, se h
encontrado que las personas que no han participado en la toma de la decisión
pueden mostrar resistencia ante el proceso de implementar la decisión. Esto ha
podido verse en el poco impacto que han tenido herramientas para tomar
decisiones, como las guías de práctica clínica o recomendaciones generadas en
consensos.
3. Limitación del razonamiento humano
Esta es una consideración más de índole filosófica y se basa en el planteamiento
de que no hay verdades absolutas, y que lo que se acepta como conocimiento no
es más que el resultado de cómo una cultura ha preparado y aleccionado a un
individuo para que evalúe y juzgue una situación. Desde esta perspectiva, los
hechos sobre los que se basa un análisis de decisiones no son completamente
objetivos, sino que están matizados por particularidades y características de un
grupo cultural: así las cosas, no tendría mucho sentido efectuar un riguroso
análisis numérico a unos datos que no son más que distorsiones introducidas por
la cultura.


Bibliografía
Matemáticas Aplicadas a la Administración y a la Economía.
Jagdish C. Arya, Robin W. Lardner.
Pearson Education 2002

Métodos cuantitativos de organización industrial II
Escrito por Joan B. Fonollosa – José M. Sallan, Albert Suñé.
Edicions UPC 2002

Elementos de Probabilidad y Estadistica
Elmer B. Mode
Reverte 2005 Reimpresión

Modelos empleados para la Toma de Decisiones en el Cuidado de la Salud
Ricardo Sánchez-Pedraza, Oscar Gamboa y Jorge A. Díaz
Rev. Salud pública. 10 (1):178-188, 2008




                                        24

Más contenido relacionado

La actualidad más candente

Introducción a la Simulación de Eventos Discretos
Introducción a la Simulación de Eventos DiscretosIntroducción a la Simulación de Eventos Discretos
Introducción a la Simulación de Eventos DiscretosJuan Manuel Carrión Delgado
 
Cadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operacionesCadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operacionesEddy Guerrero Vargas
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markovFabian Velazquez
 
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”vanessa sobvio
 
Presentacion linea de espera
Presentacion linea de esperaPresentacion linea de espera
Presentacion linea de esperaVINAYOCANDO13
 
simulacion numeros pseudoaleatorios
simulacion numeros pseudoaleatoriossimulacion numeros pseudoaleatorios
simulacion numeros pseudoaleatoriosAnel Sosa
 
5.4 aplicación de modelos de inventarios determinísticos
5.4 aplicación de modelos de inventarios determinísticos5.4 aplicación de modelos de inventarios determinísticos
5.4 aplicación de modelos de inventarios determinísticosJack Rivera Castillo
 
Proceso de Nacimiento y Muerte
Proceso de Nacimiento y MuerteProceso de Nacimiento y Muerte
Proceso de Nacimiento y MuerteAngel Carreras
 
Teoria de colas exposicion
Teoria de colas exposicionTeoria de colas exposicion
Teoria de colas exposicionMiguel Lozano
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelAlvaro Gil
 

La actualidad más candente (20)

Introducción a la Simulación de Eventos Discretos
Introducción a la Simulación de Eventos DiscretosIntroducción a la Simulación de Eventos Discretos
Introducción a la Simulación de Eventos Discretos
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Simulacion discreta
Simulacion discretaSimulacion discreta
Simulacion discreta
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Cadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operacionesCadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operaciones
 
lineas de espera
lineas de esperalineas de espera
lineas de espera
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markov
 
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
 
Probabilidades de estado estable
Probabilidades de estado estableProbabilidades de estado estable
Probabilidades de estado estable
 
Presentacion linea de espera
Presentacion linea de esperaPresentacion linea de espera
Presentacion linea de espera
 
Teoría de Colas
Teoría de ColasTeoría de Colas
Teoría de Colas
 
Procesos de Nacimiento y muerte - Teoria de colas
Procesos de Nacimiento y muerte - Teoria de colasProcesos de Nacimiento y muerte - Teoria de colas
Procesos de Nacimiento y muerte - Teoria de colas
 
Transporte y asignación
Transporte y asignaciónTransporte y asignación
Transporte y asignación
 
simulacion numeros pseudoaleatorios
simulacion numeros pseudoaleatoriossimulacion numeros pseudoaleatorios
simulacion numeros pseudoaleatorios
 
5.4 aplicación de modelos de inventarios determinísticos
5.4 aplicación de modelos de inventarios determinísticos5.4 aplicación de modelos de inventarios determinísticos
5.4 aplicación de modelos de inventarios determinísticos
 
Proceso de Nacimiento y Muerte
Proceso de Nacimiento y MuerteProceso de Nacimiento y Muerte
Proceso de Nacimiento y Muerte
 
Problemas Resueltos de Teoría de Colas
Problemas Resueltos de Teoría de ColasProblemas Resueltos de Teoría de Colas
Problemas Resueltos de Teoría de Colas
 
Formulas lineas de espera
Formulas lineas de esperaFormulas lineas de espera
Formulas lineas de espera
 
Teoria de colas exposicion
Teoria de colas exposicionTeoria de colas exposicion
Teoria de colas exposicion
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
 

Destacado

Cadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentesCadenas de markov con estados absorbentes
Cadenas de markov con estados absorbenteseduardoko
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blogoskr2588
 
Problemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovProblemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovKbl Julus Saraccini
 
Estado Finito de Cadenas de Markov
Estado Finito de Cadenas de MarkovEstado Finito de Cadenas de Markov
Estado Finito de Cadenas de MarkovLuis Pons
 
Ejercicios de cadenas de markov discretos
Ejercicios de cadenas de markov discretosEjercicios de cadenas de markov discretos
Ejercicios de cadenas de markov discretosingverdu
 
G2 monografia transformada de laplace
G2 monografia transformada de laplaceG2 monografia transformada de laplace
G2 monografia transformada de laplaceCentro de Multimedios
 
Unidad i. introduccion a los sistemas dinamicos.
Unidad i.  introduccion a los sistemas dinamicos.Unidad i.  introduccion a los sistemas dinamicos.
Unidad i. introduccion a los sistemas dinamicos.Julio Gomez
 
solucionario Investigación de operaciones Hamdy a. Taha
 solucionario Investigación de operaciones Hamdy a. Taha solucionario Investigación de operaciones Hamdy a. Taha
solucionario Investigación de operaciones Hamdy a. Tahaangel05az
 
Matrices y conclusiones
Matrices y conclusionesMatrices y conclusiones
Matrices y conclusionesSelvin Loayes
 
Regla de cramer o método por determinantes
Regla de cramer o método por determinantesRegla de cramer o método por determinantes
Regla de cramer o método por determinantesEdgar Mata
 

Destacado (15)

Cadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentesCadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentes
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blog
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Final grupo markov
Final grupo markovFinal grupo markov
Final grupo markov
 
Problemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovProblemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markov
 
Estado Finito de Cadenas de Markov
Estado Finito de Cadenas de MarkovEstado Finito de Cadenas de Markov
Estado Finito de Cadenas de Markov
 
Ejercicios de cadenas de markov discretos
Ejercicios de cadenas de markov discretosEjercicios de cadenas de markov discretos
Ejercicios de cadenas de markov discretos
 
Metodo de cramer
Metodo de cramerMetodo de cramer
Metodo de cramer
 
G2 monografia transformada de laplace
G2 monografia transformada de laplaceG2 monografia transformada de laplace
G2 monografia transformada de laplace
 
Proyecto Perronsisimo
Proyecto PerronsisimoProyecto Perronsisimo
Proyecto Perronsisimo
 
Unidad i. introduccion a los sistemas dinamicos.
Unidad i.  introduccion a los sistemas dinamicos.Unidad i.  introduccion a los sistemas dinamicos.
Unidad i. introduccion a los sistemas dinamicos.
 
solucionario Investigación de operaciones Hamdy a. Taha
 solucionario Investigación de operaciones Hamdy a. Taha solucionario Investigación de operaciones Hamdy a. Taha
solucionario Investigación de operaciones Hamdy a. Taha
 
Matrices y conclusiones
Matrices y conclusionesMatrices y conclusiones
Matrices y conclusiones
 
Investigacion de operaciones taha opti3
Investigacion de operaciones   taha opti3Investigacion de operaciones   taha opti3
Investigacion de operaciones taha opti3
 
Regla de cramer o método por determinantes
Regla de cramer o método por determinantesRegla de cramer o método por determinantes
Regla de cramer o método por determinantes
 

Similar a Cadenas de markov

Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacinespaquitootd
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...arivasg91
 
Teoria del caos en la descripción de la física
Teoria del caos en la descripción de la físicaTeoria del caos en la descripción de la física
Teoria del caos en la descripción de la físicapeteraliaga
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1yesi arrieta
 
CADENAS DE MARKOV.pptx
CADENAS DE MARKOV.pptxCADENAS DE MARKOV.pptx
CADENAS DE MARKOV.pptxjairo295
 
Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovSocorro Lomeli Sanchez
 
ppt cadena de markov Jean Melgar.pptx
ppt cadena de markov Jean Melgar.pptxppt cadena de markov Jean Melgar.pptx
ppt cadena de markov Jean Melgar.pptxJeanMelgar2
 

Similar a Cadenas de markov (20)

Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Markov mono
Markov monoMarkov mono
Markov mono
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
 
Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
 
Jornada argentinamcnabb
Jornada argentinamcnabbJornada argentinamcnabb
Jornada argentinamcnabb
 
Teoria del caos en la descripción de la física
Teoria del caos en la descripción de la físicaTeoria del caos en la descripción de la física
Teoria del caos en la descripción de la física
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
 
CADENAS DE MARKOV.pptx
CADENAS DE MARKOV.pptxCADENAS DE MARKOV.pptx
CADENAS DE MARKOV.pptx
 
Matriz transicion
Matriz transicionMatriz transicion
Matriz transicion
 
Cadenas de markov io2
Cadenas de markov io2Cadenas de markov io2
Cadenas de markov io2
 
Cmtd
CmtdCmtd
Cmtd
 
Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de Markov
 
Mafia
MafiaMafia
Mafia
 
Modelo de Cadena de Markov
Modelo de Cadena de MarkovModelo de Cadena de Markov
Modelo de Cadena de Markov
 
Procesos estocasticos y cadenas de markov
Procesos estocasticos y cadenas de markovProcesos estocasticos y cadenas de markov
Procesos estocasticos y cadenas de markov
 
cadenas de markov
cadenas de markovcadenas de markov
cadenas de markov
 
ppt cadena de markov Jean Melgar.pptx
ppt cadena de markov Jean Melgar.pptxppt cadena de markov Jean Melgar.pptx
ppt cadena de markov Jean Melgar.pptx
 

Último

Ley 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularLey 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularMooPandrea
 
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA IIAFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA IIIsauraImbrondone
 
Imperialismo informal en Europa y el imperio
Imperialismo informal en Europa y el imperioImperialismo informal en Europa y el imperio
Imperialismo informal en Europa y el imperiomiralbaipiales2016
 
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdfEjercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdfMaritzaRetamozoVera
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfPaolaRopero2
 
proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niñoproyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niñotapirjackluis
 
Valoración Crítica de EEEM Feco2023 FFUCV
Valoración Crítica de EEEM Feco2023 FFUCVValoración Crítica de EEEM Feco2023 FFUCV
Valoración Crítica de EEEM Feco2023 FFUCVGiustinoAdesso1
 
Programacion Anual Matemática4 MPG 2024 Ccesa007.pdf
Programacion Anual Matemática4    MPG 2024  Ccesa007.pdfProgramacion Anual Matemática4    MPG 2024  Ccesa007.pdf
Programacion Anual Matemática4 MPG 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...JAVIER SOLIS NOYOLA
 
Estrategias de enseñanza-aprendizaje virtual.pptx
Estrategias de enseñanza-aprendizaje virtual.pptxEstrategias de enseñanza-aprendizaje virtual.pptx
Estrategias de enseñanza-aprendizaje virtual.pptxdkmeza
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...JonathanCovena1
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...JAVIER SOLIS NOYOLA
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 

Último (20)

Ley 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularLey 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circular
 
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA IIAFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
 
Medición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptxMedición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptx
 
Unidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la InvestigaciónUnidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la Investigación
 
Imperialismo informal en Europa y el imperio
Imperialismo informal en Europa y el imperioImperialismo informal en Europa y el imperio
Imperialismo informal en Europa y el imperio
 
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdfEjercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
 
Fe contra todo pronóstico. La fe es confianza.
Fe contra todo pronóstico. La fe es confianza.Fe contra todo pronóstico. La fe es confianza.
Fe contra todo pronóstico. La fe es confianza.
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
 
proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niñoproyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 
Valoración Crítica de EEEM Feco2023 FFUCV
Valoración Crítica de EEEM Feco2023 FFUCVValoración Crítica de EEEM Feco2023 FFUCV
Valoración Crítica de EEEM Feco2023 FFUCV
 
Programacion Anual Matemática4 MPG 2024 Ccesa007.pdf
Programacion Anual Matemática4    MPG 2024  Ccesa007.pdfProgramacion Anual Matemática4    MPG 2024  Ccesa007.pdf
Programacion Anual Matemática4 MPG 2024 Ccesa007.pdf
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
 
Estrategias de enseñanza-aprendizaje virtual.pptx
Estrategias de enseñanza-aprendizaje virtual.pptxEstrategias de enseñanza-aprendizaje virtual.pptx
Estrategias de enseñanza-aprendizaje virtual.pptx
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 

Cadenas de markov

  • 1. 2012 Examen de Análisis y Toma de decisiones. Dr. Manuel Jáuregui Renault [CADENAS DE MARKOV] Carlos Delgado Avila. No de Cta: 409083200
  • 2. Contenido Contexto Histórico……………………………………………………………………….1 Introducción……………………………………………………………………………...3 Definiciones de cadenas de Markov……………………………………………………..4 Notaciones…………………………………………….…………………………………5 Cadenas homogéneas y no homogéneas………………………………………...5 Probabilidades de transición y matriz de transacción. ………………………….5 Cadena de Markov homogénea………………………………………………….6 Vector de probabilidad invariante……………………………….........................7 Clases de comunicación. ……………………………..........................................8 Tiempos de entrada…………………………….......................…………………8 Recurrencia…………………………….......................…………………………8 Periodicidad……………………………………………………………………..9 Tipos de Cadenas de Markov…………………………………………………………...9 Cadenas Irreductibles……………………………………………………………9 Cadenas positivo-recurrentes……………………………………………………9 Cadenas de Markov en tiempo continuo………………………………………...9 Cadenas absorbentes……………………………………………………………10 Cadenas ergódicas o irregulares………………………………………………...10 Cadenas Semiergódicas…………………………………………………………11 Cadenas no ergódicas…………………………………………………………...11 Cadenas cíclicas…………………………………………………………………12 Clasificación de cadenas de Markov…………………………………………………….13 Análisis topológico de las cadenas de Markov…………………………………..13 Propiedades de estado……………………………………………………………13 Propiedades de clase……………………………………………………………...15 Aplicaciones de las cadenas de Markov…………………………………………………16 Análisis y toma de decisión del uso de cadenas de Markov; Ejemplo Practico…………17 Bibliografía………………………………………………………………………………24
  • 3. “Una cadena de demostraciones debe tener su principio en alguna parte” JEREMY BENTHAM An Introduction of Morals and Legislation 0
  • 4. Contexto Histórico Andréi Andréyevich Márkov (14 de junio de 1856 - 20 de julio de 1922) Matemático ruso conocido por sus trabajos en la teoría de los números y la teoría de probabilidades. Márkov nació en Riazán, Rusia. Antes de los 10 años su padre, un funcionario estatal, fue trasladado a San Petersburgo donde Andréi entró a estudiar en un instituto de la ciudad. Desde el principio mostró cierto talento para las matemáticas y cuando se graduó en 1874 ya conocía a varios matemáticos de la Universidad de San Petersburgo, donde ingresó tras su graduación. En la Universidad fue discípulo de Chebyshov y tras realizar sus tesis de maestría y doctorado, en 1886 accedió como adjunto a la Academia de Ciencias de San Petersburgo a propuesta del propio Chebyshov. Diez años después Márkov había ganado el puesto de académico regular. Desde 1880, tras defender su tesis de maestría, Márkov impartió clases en la Universidad y, cuando el propio Chebyshov dejó la Universidad tres años después, fue Márkov quien le sustituyó en los cursos de teoría de la probabilidad. En 1905, tras 25 años de actividad académica, Márkov se retiró definitivamente de la Universidad, aunque siguió impartiendo algunos cursos sobre teoría de la probabilidad. A parte de su perfil académico, Andréi Márkov fue un convencido activista político. Se opuso a los privilegios de la nobleza zarista y llegó a rechazar las condecoraciones del propio zar en protesta por algunas decisiones políticas relacionadas con la Academia de Ciencias. Hasta tal punto llegó su implicación en la política que llegó a ser conocido con el sobrenombre de "el académico militante". Márkov arrastró durante toda su vida problemas relacionados con una malformación congénita en la rodilla que le llevaría varias veces al quirófano y que, con el tiempo, fue la causa de su muerte cuando el 20 de julio del año 1922 una de las muchas operaciones a las que se sometió le produjo una infección generalizada de la que no pudo recuperarse. Aunque Márkov influyó sobre diversos campos de las matemáticas, por ejemplo en sus trabajos sobre fracciones continuas, la historia le recordará principalmente por sus resultados relacionados con la teoría de la probabilidad. En 1887 completó la prueba que permitía generalizar el teorema central del límite y que ya había avanzado Chebyshov. Pero su aportación más conocida es otra. 1
  • 5. Su trabajo teórico en el campo de los procesos en los que están involucrados componentes aleatorios (procesos estocásticos) darían fruto en un instrumento matemático que actualmente se conoce como cadena de Márkov: secuencias de valores de una variable aleatoria en las que el valor de la variable en el futuro depende del valor de la variable en el presente, pero es independiente de la historia de dicha variable. Las cadenas de Márkov, hoy día, se consideran una herramienta esencial en disciplinas como la economía, la ingeniería, la investigación de operaciones y muchas otras. Universidad de San Petersburgo 2
  • 6. Introducción Un proceso o sucesión de eventos que se desarrolla en el tiempo en el cual el resultado en cualquier etapa contiene algún elemento que depende de un proceso al azar se denomina un proceso aleatorio o proceso estocástico. Por ejemplo, la sucesión podrían ser las condiciones del tiempo en Veracruz en una serie de días consecutivos: el tiempo cambia día con día de una manera que en apariencia es algo aleatorio. O bien la sucesión podría consistir de los precios diarios al cierre de ciertas acciones que cotizan en la bolsa en donde otra vez interviene cierto grado de aleatoriedad. Una sucesión de elecciones gubernamentales es otro ejemplo de un proceso estocástico. Un ejemplo muy simple de un proceso estocástico es una sucesión de ensayos de Bernoulli en, por ejemplo, una sucesión de lanzamientos una moneda en este caso el resultado en cualquier etapa es independiente de todo resultados previos. Sin embargo en la mayoría de los procesos estocásticos cada resultado depende de lo que sucedió en etapas anteriores del proceso. Por ejemplo, el tiempo en un día determinado no es aleatorio por completo sino que es afectado en cierto grado por el tiempo de días previos. El precio de una acción al cierre de cualquier día depende en cierta medida del comportamiento de la bolsa en días previos. El caso más simple de un proceso estocástico en que los resultados dependen de otro(s), ocurre cuando el resultado en cada etapa solo depende del resultado de la etapa anterior y no de cualquiera de los resultados previos. Tal proceso se denomina cadena de Markov (una cadena de eventos, cada evento ligado al precedente). 3
  • 7. Definiciones de Cadenas de Markov “Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no determinista a lo largo del tiempo en tomo a un conjunto de estados. Por tanto, representa un sistema que varía su estado a lo largo del tiempo. Siendo cada cambio una transición del sistema. Dichos cambios no están predeterminados, aunque sí lo está la probabilidad del próximo estado en función de los estados, probabilidad que es constante a lo largo del tiempo (sistema homogéneo en el tiempo). Eventualmente, es una transición, el nuevo estado puede ser el mismo que el anterior y es posible que exista la probabilidad de influir en las probabilidades de transición actuando sobre el sistema (decisión).” Joan B. Fonollosa – Jose M. Sallan “Una cadena de Markov es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene el mismo número finito de resultados posibles y en donde también la probabilidad de cada resultado para un ensayo dado depende solo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo.” Jagdish C. Arya – Robin W. Lardner En matemáticas, se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro. Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces: Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Markov. 4
  • 8. Notaciones Cadenas homogéneas y no homogéneas Una cadena de Markov se dice homogénea si la probabilidad de ir del estado i al estado j en un paso no depende del tiempo en el que se encuentra la cadena, esto es: para todo n y para cualquier i, j. Si para alguna pareja de estados y para algún tiempo n la propiedad antes mencionada no se cumple diremos que la cadena de Markov es no homogénea. Probabilidades de transición y matriz de transición La probabilidad de ir del estado i al estado j en n unidades de tiempo es: En la probabilidad de transición en un paso se omite el superíndice de modo que queda: Un hecho importante es que las probabilidades de transición en n pasos satisfacen la ecuación de Chapman-Kolmogorov, esto es, para cualquier k tal que 0 < k < n se cumple que Donde E denota el espacio de estados. Cuando la cadena de Markov es homogénea, muchas de sus propiedades útiles se pueden obtener a través de su matriz de transición, definida entrada a entrada como esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a j en un paso. Del mismo modo se puede obtener la matriz de transición en n pasos como: , donde . 5
  • 9. Cadena de Markov homogénea Decimos que una cadena de Markov es homogénea o estacionaria cuando se verifica que: Es decir que las probabilidades de transición solo dependen de la diferencia entre los instantes de tiempo y no del valor absoluto de estos. Esta característica se cumple en muchos casos de interés práctico. Las cadenas de Markov homogéneas que van a ser de nuestro interés son aquellas en las que en régimen permanente el vector de estado tiende a un valor asintóticamente estable, es decir: Ejemplo: Erase una vez un hippie, que decide quedarse vagabundeando por la huerta valenciana, especialmente entre los pueblos de Almacera, Alboraya y Tavernes. El hippie en la tarde se puede cansar del pueblo en el que esta, sale a la carretera y se pone a pedir raid. El diagrama que vemos abajo representa las probabilidades de que lo recoja alguien en la dirección dada. En Alboraya, de vez en cuando decide pasar la noche y endulzar su vida con una horchata con fartons. Nuestro interés es conocer las probabilidades de estado y ver si existe un límite en régimen permanente (independientemente del lugar en el que el hippie empiece su periplo). 6
  • 10. La matriz de transición viene dada por: Y no depende del tiempo. Entonces recordando que P(i + 1)= P(i) T (i, i + 1), se calcularan las probabilidades de estado después de varias transiciones y partiendo de condiciones iniciales distintas: Luego, como vemos () Vector de probabilidad invariante Se define la distribución inicial . Diremos que un vector de probabilidad (finito o infinito numerable) es invariante para una cadena de Markov si donde P denota la matriz de transición de la cadena de Markov. Al vector de probabilidad invariante también se le llama distribución estacionaria o distribución de equilibrio. 7
  • 11. Clases de comunicación Para dos estados i,j en el espacio de estados E, diremos que de i se accede a j (y se denotará ) si para algún n, si y entonces diremos que i comunica con j y se denotará i↔j. La propiedad "↔" es una relación de equivalencia. Esta relación induce una partición en el espacio de estados. A estas clases de equivalencia las llamaremos clases de comunicación. Dado un estado x, denotaremos a su clase de comunicación como C(x). Diremos que un subconjunto C del espacio de estados (al que denotaremos E) es cerrado si ningún estado de E-C puede ser accedido desde un estado de C, es decir, si para todo x∈C, para todo y∈E-C y para todo natural m>0. Tiempos de entrada Si , definimos el primer tiempo de entrada a C como la variable aleatoria esto es, denota la primera vez que la cadena entra al conjunto de estados C. Recurrencia En una cadena de Markov con espacio de estados E, si x∈E se define: y diremos que:  x es estado recurrente si .  x es transitorio si  x es absorbente si  Una clase de comunicación es clase recurrente si todos sus estados son recurrentes. Sea , si x∈Ediremos que:  x es cero-recurrente si  x es positivo-recurrente si El real se interpreta como el tiempo promedio de recurrencia. 8
  • 12. Periodicidad El periodo de un estado x∈E se define como: donde denota el máximo común divisor.  Si d(x)=1 diremos que x es un estado aperiódico.  Una cadena de Markov se dice aperiódica si todos sus estados son aperiódicos. Tipos de cadenas de Markov Cadenas irreducibles Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes condiciones (equivalentes entre sí): 1. Desde cualquier estado de E se puede acceder a cualquier otro. 2. Todos los estados se comunican entre sí. 3. C(x)=E para algún x∈E. 4. C(x)=E para todo x∈E. 5. El único conjunto cerrado es el total. La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de Markov irreducibles. Cadenas positivo-recurrentes Una cadena de Markov se dice positivo-recurrente si todos sus estados son positivo-recurrentes. Si la cadena es además irreducible es posible demostrar que existe un único vector de probabilidad invariante y está dado por: Cadenas de Markov en tiempo continuo Si en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado en el conjunto de números naturales, se consideran las variables aleatorias Xt con t que varía en un intervalo continuo del conjunto de números reales, tendremos una cadena en tiempo continuo. Para este tipo de cadenas en tiempo continuo la propiedad de Markov se expresa de la siguiente manera: tal que Para una cadena de Markov continua con un número finito de estados puede definirse una matriz estocástica dada por: 9
  • 13. La cadena se denomina homogénea si . Para una cadena de Markov en tiempo continuo homogénea y con un número finito de estados puede definirse el llamado generador infinitesimal como:2 Y puede demostrarse que la matriz estocástica viene dada por: Cadenas absorbentes Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones siguientes: 1. La cadena tiene al menos un estado absorbente. 2. De cualquier estado no absorbente se accede a algún estado absorbente. Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D, tenemos los siguientes resultados:  Su matriz de transición siempre se puede llevar a una de la forma Donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz identidad, 0 es la matriz nula y R alguna submatriz.  , esto es, no importa en donde se encuentre la cadena, eventualmente terminará en un estado absorbente. Cadenas ergódicas o regulares La cadena de Markov C1, de dos estados, tiene la matriz de probabilidades de transición: Calculemos la potencia decimosexta de esa matriz para aproximar la matriz de probabilidades estacionarias: Se observa que las probabilidades de estado estable de los diferentes estados son independientes del estado de origen, razón por la que la matriz de probabilidades 10
  • 14. estacionarias tiene todas las filas iguales. Tenemos entonces una cadena de Markov regular en la que las probabilidades estacionarias no dependen del estado inicial. Además, ninguna de las probabilidades vale cero. Tenemos entonces una cadena de Markov ergódica. Cadenas Semiérgodicas Tenemos ahora una cadena de C2 de cuatro estados, de matriz de probabilidades de transición. Si se observa la matriz de la transición decimosexta, se observa como todas las filas tienden a ser iguales (aunque no completamente, especialmente las dos primeras), con una diferencia respecto de las cadenas ergódicas: existen estados cuya probabilidad de estado estable tiende a ser cero (esto es, que no aparecerán den el comportamiento a largo plazo). Por lo tanto, no se trata de una cadena ergódica. Sin embargo, sigue siendo cierto que todas las filas tienden hacia un mismo valor, por lo que sigue siendo regular. Las cadenas de Markov regulares (y también otras que veremos más adelante) con algunas de las columnas de la matriz de probabilidades estacionarias igual a cero se llaman semiergódicas. Las cadenas ergódicas pueden considerarse como un caso particular de las cadenas semiergódicas, en las que no existen probabilidades de estado iguales a cero. Cadenas no ergódicas La cadena C3, de cuatro estados, tiene la siguiente matriz de transición: Si observamos la matriz de la transición 16, podemos ver que, mientras algunas filas tienen el mismo comportamiento que las de los casos anteriores, vemos que otras tienden a ciertos valores, diferentes de los de las otras filas. Ello quiero decir que, al contrario de lo que sucede con el caso regular, las probabilidades de 11
  • 15. estado estable si dependen de cuál ha sido el estado inicial de la cadena. Se trata de una cadena semirregular Cadenas Cíclicas La cadena C4, cuya matriz de probabilidades de transición se muestra a continuación, después de un número elevado de transiciones presenta un comportamiento diferente del de las cadenas anteriores. Al ir obteniendo matrices de transición, se observa que estas no convergen a un valor concreto, sino que muestran un comportamiento cíclico. En este caso, las transiciones impares tienden a un valor y las pares a otro. Este tipo de cadenas son cadenas son cadenas cíclicas. En este caso particular, nos encontramos ante una cadena de periodo p=2. La columna es siempre cero, por lo que el estado I no aparecerá en las probabilidades a largo plazo; quiere ello decir que la cadena considerada no es ergódica, aunque es claro que pueden existir cadenas cíclicas ergódicas. 12
  • 16. También debemos preguntarnos qué ocurre con las probabilidades estacionarias en las cadenas cíclicas, ya que si las sucesivas potencias de P no tienden hacia unos valores determinados. Más adelante, cuando estudiamos el cálculo sistemático de P*. Clasificación de cadenas de Markov De lo expuesto hasta ahora, si queremos analizar el comportamiento a largo plazo de un proceso estocástico que cumpla la propiedad markoviana, necesitamos:  Una metodología para poder clasificar la cadena como ergódica o no ergódica por una parte, y como regular, semirregular o cíclica por otra, examinado la matriz de probabilidades de transición.  Una metodología que permita el cálculo de la matriz de probabilidades. La clasificación de las cadenas de Markov puede realizarse mediante dos metodologías:  El análisis topológico, examinando las propiedades de los estados de la cadena y estableciendo clases de equivalencia entre los estados.  El análisis espectral, examinando los valores propios de la matriz de probabilidades de transición de un paso. Una vez clasificada la cadena, puede obtenerse información acerca de la forma que presente la matriz de probabilidades estacionarias, lo cual facilita su obtención. Análisis topológico de las cadenas de Markov Permite la clasificación de las cadenas a partir de la información suministrada por la matriz P utilizando propiedades relativas a la relación entre estados (propiedades de estado). Estas propiedades permiten, a su vez, definir subconjuntos de estados denominados clases. También podremos definir, entonces, las propiedades de clase. Propiedades de estado Dados dos estados de una cadena, pueden establecerse dos tipos de relaciones entre ellos:  El estado i es descendente de j si cuando iniciamos el proceso es i existe una probabilidad no nula de que el proceso llegue a j. En este caso, diremos que existe un camino entre los estados i y j. 13
  • 17. Los estados i y j se comunican si i es descendiente de j y j es descendiente de i.  Existirá un ciclo dentro de una cadena de Markov si existe un camino en la cadena que comunique al estado i consigo mismo. Dicho circuito se caracteriza por el numero mínimo de transiciones que necesitara el sistema para volver al estado i, si se inició el proceso en ese estado. Dicho número constituirá la longitud del ciclo. Obsérvese que, con las definiciones dadas, la existencia de un circuito implica que todos los estados que lo forman están comunicados. Se conviene que todo estado esta comunicado consigo mismo, ya que se al menos puede acceder a él en cero transiciones (circuito de longitud cero), con independencia de que además existan otros circuitos de longitud mayor. Para analizar estas relaciones entre estados, es útil recordar que, según la teoría de grafos, toda matriz cuadrada tiene asociado un grafo, cuya representación gráfica se puede elaborar a partir de la matriz de probabilidades de transición, el diagrama de transiciones de estados. Cada estado de la cadena se representa por un vértice del grafo y cada transición con probabilidad no nula se representa por una relación entre los vértices que representan los estados anterior y posterior de la misma. De esta manera el diagrama se representan todas las situaciones en las que un estado i es descendente respecto de j. 14
  • 18. Propiedades de clase Hemos establecido que un estado está siempre comunicado consigo mismo, la relación entre estados estar comunicado es reflexiva, simétrica y transitiva, por lo que se trata de una relación de equivalencia. Po este motivo, podemos decir que un conjunto de estados comunicados entre si constituye un clase de equivalencia. De esta manera podemos clasificar diversas clases los estados de una cadena de Markov. Podemos definir la propiedad de clase siguiente para las clases de equivalencia que se hayan establecido:  Una clase de equivalencia será final si cuando el proceso llega a uno de los estados de la clase, en las transiciones siguientes el proceso evoluciona siempre dentro de los estados de la clase.  Aquellas clases de equivalencia que no sean clases finales serán las claves de paso. Las clases de paso tienen un interés muy limitado en el estudio de las cadenas de Markov. Puesto que el sistema debe ser capaz de evolucionar indefinidamente entre un número finito de estados, toda cadena debe tener al menos una clase final. Si en su evolución a lo largo de infinitas transiciones el sistema puede pasar por todos los estados, entonces habrá una única clase final que los englobara a todos ellos. Este caso es el que hemos definido anteriormente como cadena ergódica. 15
  • 19. Aplicaciones de las cadenas de Markov Física Las cadenas de Markov son usadas en muchos problemas de la termodinámica y la física estadística. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el modelo de difusión de Laplace. Meteorología Si consideramos el clima de una región a través de distintos días, es claro que el estado actual solo depende del último estado y no de toda la historia en sí, de modo que se pueden usar cadenas de Markov para formular modelos climatológicos básicos. Modelos epidemiológicos Una importante aplicación de las cadenas de Markov se encuentra en el proceso Galton-Watson. Éste es un proceso de ramificación que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (véase modelaje matemático de epidemias). Internet El pagerank de una página web (usado por Google en sus motores de búsqueda) se define a través de una cadena de Markov, donde la posición que tendrá una página en el buscador será determinada por su peso en la distribución estacionaria de la cadena. Simulación Las cadenas de Markov son utilizadas para proveer una solución analítica a ciertos problemas de simulación tales como el Modelo M/M/1.3 Juegos de azar Son muchos los juegos de azar que se pueden modelar a través de una cadena de Markov. El modelo de la ruina del jugador, que establece la probabilidad de que una persona que apuesta en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de Markov en este rubro. Economía y Finanzas Las cadenas de Markov se pueden utilizar en modelos simples de valuación de opciones para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de precios. En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. Música Diversos algoritmos de composición musical usan cadenas de Markov, por ejemplo el software Csound o Max. 16
  • 20. Análisis y toma de decisión del uso de cadenas de Markov; Ejemplo Practico Modelos empleados para la Toma de decisiones en el cuidado de la salud RESUMEN El análisis de decisiones es un grupo de herramientas que permiten apoyar y manejar un proceso de evaluación estructurado. Esta metodología se usa ampliamente en la evaluación económica para planeación o programas de salud. Este artículo delinea algunas características de las decisiones complejas y muestra los fundamentos y etapas que deben considerarse cuando se toman decisiones en un escenario de incertidumbre (definición del problema, selección de un marco temporal de análisis adecuado, estructuración del problema, desarrollo de un modelo para análisis, selección de la mejor alternativa y realización de análisis de sensibilidad). Finalmente se presentan algunas críticas que se han hecho a esta metodología. Tomar una decisión implica escoger entre varias alternativas. Tomar la mejor decisión supone haber hecho un análisis de lo que hubiera sucedido Tsi cada una de las posibles alternativas se hubiera seleccionado. La toma de decisiones es un acto cotidiano que está involucrado en múltiples actividades que generalmente se hace por técnicas como la adivinanza, la reacción visceral, la intuición, o la experiencia basada en opiniones o sucesos muy parecidos. La toma decisiones de forma intuitiva generalmente resulta poco eficiente dado que esta estrategia no suele incorporar todos los factores que pueden afectar la decisión y sus resultados. Pocas decisiones se toman con plena certidumbre sobre sus posibles consecuencias. El proceso de tomar decisiones puede ser mejorado utilizando una metodología que combina una estructura explícita y una técnica cuantitativa de análisis y que se ha denominado "enfoque sistemático de toma de decisiones bajo condiciones de incertidumbre". Tal metodología, que no es nativa del área de la salud, se concibió inicialmente como un proceso iterativo para generar mayor conocimiento y facilitar la generación de alternativas creativas que ayudaran a los tomadores de decisiones a realizar mejores decisiones. ¿Por qué puede ser difícil tomar una decisión? La dificultad para tomar una decisión se relaciona con tres aspectos: Estructurales, personales y políticos: 17
  • 21. 1. Aspectos estructurales: Dentro de esta categoría se agrupan las siguientes situaciones: a. El grado de incertidumbre: La incertidumbre se presenta cuando no se conoce completamente la probabilidad de que ocurra un evento. Al existir incertidumbre resulta imposible conocer de antemano cuál va a ser el resultado de una decisión. La incertidumbre puede relacionarse con el diagnóstico, la exactitud de las herramientas diagnósticas, la calidad y disponibilidad de las fuentes de información, la historia natural de las enfermedades, las opciones que tomen los pacientes y los resultados del tratamiento. Al existir múltiples fuentes de incertidumbre se hace más complicado tener un esquema claro de las diferentes opciones y resultados de las posibles alternativas de decisión. b. Cantidad de alternativas disponibles: Entre mayor sea el número de alternativas entre las cuales haya que escoger, mayor será la complejidad del recorrido entre la decisión y las posibles consecuencias. La utilización de herramientas gráficas, como los árboles de decisión, permiten tener una visión más clara y precisa de los diferentes cursos que pueden tomar las múltiples alternativas de decisión. c. Consecuencias de tomar la decisión: Entre más graves son las consecuencias de tomar una decisión incorrecta, más difícil resulta optar por una alternativa. d. Frecuencia con la que se toman decisiones parecidas: A menor frecuencia, mayor suele ser la dificultad para tomar la decisión. 2. Aspectos personales: Algunas características psicológicas de quien toma la decisión pueden dificultar este proceso. Por ejemplo los patrones de personalidad obsesivos, caracterizados por el perfeccionismo, la rigurosidad y la preocupación exagerada por detalles, suelen presentar una tendencia a complicar la toma de decisiones. Por otro lado las personas impulsivas tienden a tomar más fácilmente decisiones, pero de manera no acertada, dada la falta de análisis que aplican a su conducta. El tomador de decisiones debería ser una persona que tenga claridad sobre las características personales que pudieran afectar el proceso de seleccionar la alternativa acertada. 3. Aspectos políticos: En algunos casos la alternativa más acertada, escogida mediante un proceso racional y sistematizado, debe supeditarse a consideraciones de orden político que resultan prioritarias. Para el manejo de los aspectos estructurales se ha desarrollado una metodología que permite utilizar un abordaje cuantitativo y estructurado de las situaciones de toma de decisiones, y que permite evaluar decisiones que se deben tomar en situaciones en las que se presenten alternativas complejas y diversas fuentes de incertidumbre. Dicha metodología, que como ya se mencionó se ha llamado "análisis de decisiones bajo condiciones de incertidumbre", permite: 1. Generar una estructura gráfica que permita ver claramente la relación entre alternativas y consecuencias. 18
  • 22. 2. Asignar valores a las fuentes de incertidumbre: Asignando valores de probabilidad a los puntos de incertidumbre se facilita su manejo. Si hay certidumbre sobre un evento, su probabilidad de ocurrir es de uno (obviamente la probabilidad de que no ocurra es cero). Si no hay certidumbre, la probabilidad de ocurrir será menor que uno. Posteriormente se mostrará cómo se asignan estos valores de probabilidad. 3. Facilitar la comparación entre las diferentes alternativas en términos numéricos. En esta metodología, a las alternativas posibles se les asigna un valor numérico que corresponde a un concepto estadístico denominado "valor esperado". En estadística el valor esperado (o esperanza matemática) de una variable aleatoria es la suma de la probabilidad de cada suceso multiplicada por su valor. Dicho de otra forma el valor esperado se asemeja al resultado que se espera en promedio si se repitiera un experimento (como lanzar una moneda, o medir la talla de un grupo de personas, por ejemplo) muchas veces. La utilidad del valor esperado es permitir elegir entre distintas alternativas. En general la alternativa que se elige es aquella que tenga el valor esperado más alto (años de vida ganados, muertes evitadas, por ejemplo), pero en ocasiones se selecciona aquella con el valor más bajo (mortalidad, costos, por ejemplo). Con estos insumos el tomador de decisiones puede identificar fácilmente las opciones viables, predecir sus consecuencias o desenlaces, valorar la probabilidad de los posibles resultados, determinar el valor de cada uno de los desenlaces, y seleccionar la decisión que puede proveer el mejor resultado. En el área del cuidado de la salud, el análisis de decisiones es una metodología que se desarrolló alrededor de situaciones clínicas en pacientes individuales. Sin embargo, se usa cada vez más frecuentemente en análisis económicos y para la toma de decisiones políticas. Etapas en un análisis de decisiones Dado que el análisis de decisiones es una metodología que pretende, no solo facilitar, sino además sistematizar el proceso de selección de alternativas, para hacerlo, de alguna manera replicable, se ha definido una estructuración a lo largo de una serie de etapas sucesivas (8) (debe tenerse en cuenta que la replicabilidad de los resultados se ve fuertemente afectada por los aspectos personales y políticos mencionados atrás): 1. Definición del problema: Un problema se ha definido como la distancia que hay entre una situación que existe y otra que se prefiere. El primer paso suele ser escribir el problema utilizando pocas palabras, preferiblemente recurriendo al uso de verbos en infinitivo, y hacer una descripción de ciertos detalles como magnitud, posibles causas o responsables, momento de inicio, identificación de afectados con el 19
  • 23. problema, estrategias con las que ha intentado solucionarse, y posible resultado si no se intenta ninguna solución. Este primer paso puede ser suficiente para tomar una decisión acertada, lo cual sucede cuando se vislumbran alternativas de decisión que no se habían considerado, cuando se evidencia que se estaba sobredimensionando la gravedad del problema, cuando se ve que se estaba tratando de solucionar el problema equivocado (esto se ha denominado "error tipo tres"), o incluso cuando se encuentra que si no se hace nada, no pasa nada, y lo que genera la dificultad muchas veces son los intentos de solución (en este último caso se habla de pseudo problemas). Otra posibilidad que surge en este primer paso es encontrar que el problema tiene sub problemas, lo cual implica efectuar un trabajo de jerarquización y definir claramente cuál es el problema primario o principal. 2. Definición del horizonte de análisis (marco temporal): Cuando se evalúan alternativas relacionadas con patologías crónicas, el horizonte de análisis suele ser largo. En estos casos los eventos pueden reaparecer durante el período definido en el marco temporal: esto supone utilizar estrategias especiales de análisis (cadenas y modelos de Markov para eventos recurrentes). Por otro lado, la evaluación de alternativas relacionadas con complicaciones a corto plazo o con eventos agudos supone un horizonte de análisis corto. En otras palabras, el horizonte de análisis dependerá de la naturaleza del problema de salud que se esté evaluando. Cualquiera que sea el caso, debe hacerse una especie de negociación entre la exactitud del modelo analítico y la simplicidad del mismo (10). Un modelo no debe ser una representación completa del mundo real sino una síntesis de sus componentes más importantes. 3. Estructuración del problema: La etapa de estructuración supone seguir esta secuencia: - Identificar las alternativas relevantes: Una vez identificado el problema, deben plantearse una serie de alternativas, las cuales suelen caer en alguna de las siguientes categorías: - Esperar y observar, lo cual es equivalente a la política de "no hacer nada". - Iniciar una intervención. - Buscar más información antes de decidir una intervención. - Definir las consecuencias de cada alternativa identificada previamente: Cada alternativa genera una serie de consecuencias cuya incorporación en la estructuración del problema supone que esté suficientemente sustentada con algún tipo de evidencia. Las consecuencias pueden categorizarse en dos grupos: i) consecuencias intermedias. ii) desenlaces finales. Por ejemplo, si un médico se encuentra prestando su servicio rural en un lugar apartado donde no dispone de medios diagnósticos ni posibilidades de remitir rápidamente a sus pacientes, y 20
  • 24. recibe a un paciente con una herida por arma de fuego en el cráneo, podría plantearse, de manera general, que hay dos alternativas: esperar y observar, o arriesgarse a intervenir quirúrgicamente al paciente. Las consecuencias de cada alternativa podrían definirse de manera simplista en dos categorías: el paciente sobrevive o muere (aquí las consecuencias se presentan directamente como los desenlaces finales). Sin embargo, considerando la falta de pericia quirúrgica del médico, puede plantearse una consecuencia intermedia de la alternativa intervencionista: que la cirugía se complique o que no se complique; cada una de estas consecuencias intermedias puede resultar en la salvación o en la muerte del paciente. En la Figura 1 se muestra esta secuencia de consecuencias, con unas convenciones de representación gráfica que se explicarán más adelante. - Establecer la probabilidad con la que pueden suceder las diferentes consecuencias de las alternativas planteadas: Un paso fundamental en este tipo de análisis es cuantificar la incertidumbre: esto se logra asignando valores de probabilidad a cada una de las consecuencias emanadas de las alternativas propuestas para la solución del problema. - Asignar un valor a los desenlaces: Un desenlace es lo que finalmente sucede si se escoge una de las alternativas planteadas. En esta fase de la estructuración del problema, se debe asignar un valor numérico a los desenlaces. Esta calificación se realiza con base en el concepto de utilidad. De forma práctica la utilidad se puede considerar como la medida de la preferencia de las personas por un resultado bien o servicio. En particular, en el campo sanitario, seria la medida cuantitativa de la preferencia de las personas por un resultado específico en salud. 21
  • 25. 4. Desarrollo de un modelo del problema: Un modelo es una abstracción o representación de un sistema real, de una idea de un objeto (13). En un análisis de decisiones el modelo es una estructura que busca representar la realidad del problema, combinando los insumos generados en la etapa previa (etapa de estructuración), con el propósito de efectuar una serie de cálculos matemáticos que ayuden a tomar la decisión. Los modelos más utilizados como estrategia de análisis son los árboles de decisión. Mediante su uso se pueden integrar, de manera secuencial, los diferentes elementos que surgen una vez se ha estructurado el problema. En la construcción de un árbol de decisión se siguen las siguientes convenciones Punto de arranque: Es la presentación del problema en pocas palabras. Nodo de decisión: Representa un punto donde se toma una conducta, como por ejemplo las diferentes alternativas de solución que se plantean al problema. Su forma de representación en el árbol es un cuadrado. Nodo probabilístico o de azar: Muestra el punto donde se generan las diferentes consecuencias de una decisión, que no están bajo el control de quien toma las decisiones. Como previamente se comentó, las consecuencias generadas de un nodo de azar tienen un componente de incertidumbre cuantificable por medio de probabilidades. Se representan gráficamente con un círculo. Nodo terminal: Representa los desenlaces finales. Se representa con un triángulo. Conectores: Son líneas que unen los diferentes elementos descritos previamente. La manera de conectar las diferentes estructuras obedece a una secuencia en la que, lo que está a la izquierda, temporalmente ha ocurrido antes que lo que está a la derecha. La amplitud con la que se desarrolle el árbol corresponde al horizonte de análisis. Definiciones y valores: Los conectores que salen de un nodo de azar tienen en su parte superior la descripción del desenlace y el su parte inferior la cuantificación de la incertidumbre (valores de probabilidad). En el extremo de los nodos terminales se ubican los valores asignados a los desenlaces (utilidades). Figura 2. Convenciones utilizadas en la construcción de un árbol de decision 22
  • 26. 5. Efectuar análisis de sensibilidad: Teniendo en cuenta que, ni los valores de probabilidad con que se mide la incertidumbre ni los valores asignados a los desenlaces son valores fijos, al efectuar un análisis de decisiones surge la duda sobre la posibilidad de que la solución al problema cambiara si los valores de la medición de incertidumbre y consecuencias variaran. Para resolver esta duda se realizan los análisis de sensibilidad. Ellos permiten evaluar los resultados ante la posible gama de valores que podrían tomar uno o más de los parámetros introducidos en el modelo. Como resultado se puede conocer la estabilidad de la conclusión dada la variabilidad de los supuestos introducidos en el modelo. Es frecuente que para estos análisis se utilicen herramientas gráficas. En los casos en los que la variabilidad se genera en un solo punto del modelo se utilizan los análisis de sensibilidad de un parámetro. Si la fuente de variabilidad proviene de varios puntos se habla de análisis de sensibilidad de múltiples parámetros. 6. Selección de la "mejor" alternativa: Al finalizar el análisis se obtendrán una serie de valores numéricos (valores esperados) que ponderarán de manera diferente las distintas alternativas de decisión. Dependiendo de la medida de utilidad manejada, se seleccionará la mejor opción (por ejemplo si se manejan años de vida saludable ganados, la mejor opción será aquella con el mayor valor). Sin embargo, hay que tener en cuenta que los resultados numéricos no son la única herramienta a la hora de tomar la decisión final. Existen casos en los cuales tiene más peso algún otro tipo de factor, como pueden ser aspectos clínicos o políticos. La recomendación general al utilizar este tipo de métodos es que son solo herramientas para ayudar a decidir, mas no el único elemento que se toma en cuenta para la toma final de la decisión. Críticas al análisis de decisiones Los detractores de esta metodología aducen tres razones para no recomendar su uso: 1. Dificultad Así existan herramientas manejables con computadores, la gran cantidad de opciones derivada de la toma de una decisión compleja, hace que la estructura a analizar se vuelva demasiado enmarañada y alejada de la realidad. Algunos teóricos de la economía, conscientes de la limitación impuesta por la complejidad que pueden alcanzar los modelos, han planteado que no es posible escogerla mejor opción. Dentro de esta tendencia se plantea también la utilización de modelos parsimoniosos que, si bien no capturan la integridad de la complejidad de la situación, incorporan los aspectos más relevantes de la misma. Los árboles de decisión tradicionales, presentan inconvenientes cuando se quiere representar eventos que pueden ocurrir más de una vez, eventos cuyas probabilidades de ocurrencia cambian con el tiempo, eventos que no ocurren inmediatamente y eventos que tienen implicaciones a largo plazo en los pacientes (16,17). Las cadenas y modelos de Markov permiten manejar estas dificultades que se presentan con los árboles de decisión tradicionales, y son útiles cuando se quiere modelar problemas que involucran riesgos que dependen del tiempo. 23
  • 27. 2. Falta de sensibilidad política Se ha planteado que esta metodología se engolosina con la estructura del problema pero que no le da énfasis a las dificultades que implica poner en la práctica la toma de la decisión. Aunque la objetividad y la neutralidad de valores se han adjudicado a esta metodología como una de sus fortalezas, se h encontrado que las personas que no han participado en la toma de la decisión pueden mostrar resistencia ante el proceso de implementar la decisión. Esto ha podido verse en el poco impacto que han tenido herramientas para tomar decisiones, como las guías de práctica clínica o recomendaciones generadas en consensos. 3. Limitación del razonamiento humano Esta es una consideración más de índole filosófica y se basa en el planteamiento de que no hay verdades absolutas, y que lo que se acepta como conocimiento no es más que el resultado de cómo una cultura ha preparado y aleccionado a un individuo para que evalúe y juzgue una situación. Desde esta perspectiva, los hechos sobre los que se basa un análisis de decisiones no son completamente objetivos, sino que están matizados por particularidades y características de un grupo cultural: así las cosas, no tendría mucho sentido efectuar un riguroso análisis numérico a unos datos que no son más que distorsiones introducidas por la cultura. Bibliografía Matemáticas Aplicadas a la Administración y a la Economía. Jagdish C. Arya, Robin W. Lardner. Pearson Education 2002 Métodos cuantitativos de organización industrial II Escrito por Joan B. Fonollosa – José M. Sallan, Albert Suñé. Edicions UPC 2002 Elementos de Probabilidad y Estadistica Elmer B. Mode Reverte 2005 Reimpresión Modelos empleados para la Toma de Decisiones en el Cuidado de la Salud Ricardo Sánchez-Pedraza, Oscar Gamboa y Jorge A. Díaz Rev. Salud pública. 10 (1):178-188, 2008 24