martes, 30 de octubre de 2012

Cadenas de Markov

En matemáticas, se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro

Una cadena de Markov es un proceso estocástico en el que Si el estado actual Xn y los estados previos X1, . . . , Xn−1 son conocidos La probabilidad del estado futuro Xn+1 No depende de los estados anteriores X1, . . . , Xn−1, y Solamente depende del estado actual Xn.

Para que el proceso estocástico del número de líneas ocupadas sea una cadena de Markov
es necesario que la probabilidad de cada posible número de líneas ocupadas en cualquier instante de tiempo dependa solamente del número de líneas ocupadas

CARACTERISTICAS

PUNTOS DISCRETOS {tk}                   RESULTADOS EXAHUSTIVOS Y MUTUAMENTE EXCLUSYENTES 

VARIABLE ALEATORIA                     ξtk 

PROCESO ESTOCASTICO                {ξtk} ES FAMILIA VARIABLES

CADENA DE MARKOV                CASO ESPECIAL DE PROCESO DE MARKOV USADO PARA EL 
                                                                      ESTUDIO DE CIERTO SISTEMAS EN EL CORTO Y LARGO PLAZO


PROBABILIDAD DE TRANSICIÓN O TRANSICIÓN DE UN PASO

REPRESENTA LA PROBABILIDAD DE QUE EL ESTADO ESTE EN Xn CUANDO t ES tn, DADO QUE ESTABA EN Xn-1 EN 

 

TRANSICIÓN DE m PASOS

 

LAS PROBABILIDADES DE IR DE UN PASO A OTRO EXISTEN, SON EXCLUYENTES Y ESTABLES EN EL TIEMPO Y SE REPRESENTAN CON LA MATRIZ P DE TRANSICION HOMOGENEA (TODAS LAS PROBABILIDADES DE TRANSICION SON FIJAS E INDEPENDIENTES EN EL TIEMPO)

No hay comentarios:

Publicar un comentario