+ All Categories
Home > Documents > Cadenas de markov

Cadenas de markov

Date post: 06-Jul-2015
Category:
Upload: oshin-miluska-zuniga-gamarra
View: 562 times
Download: 2 times
Share this document with a friend
14
CISNEROS RODRIGUEZ, Javier Gustavo CORAL FIGUEROA, John Andy LA ROSA MORALES, Carmen Elizabeth ZUÑIGA GAMARRA, Oshin Miluska
Transcript
Page 1: Cadenas de markov

CISNEROS RODRIGUEZ, Javier Gustavo

CORAL FIGUEROA, John Andy

LA ROSA MORALES, Carmen Elizabeth

ZUÑIGA GAMARRA, Oshin Miluska

Page 2: Cadenas de markov

Las cadenas de markov es un proceso

muy utilizado hoy en dia en casi todos los

ámbitos existentes pero sus inicios se

remontan a tiempos antiguos.

Page 3: Cadenas de markov

Las cadenas de markov son una

herramienta para analizar el

comportamiento y el gobierno de

determinados tipos de procesos

estocásticos.

Una cadena de markov, por tanto,

representa un sistema que varía su

estado a lo largo del tiempo

Page 4: Cadenas de markov

• Estado: Condiciones iniciales y finales del proceso

de Markov.

• Ensayo: Ocurrencias repetidas del evento que se

estudia.

• Probabilidad de Transición: Probabilidad de

pasar de un estado actual al siguiente.

• Matriz de transición (P): Es una matriz

cuadrada cuyos elementos son pij

Page 5: Cadenas de markov

• Pij : Probabilidad de cambiar del estado “i” al

estado “j”.

• P : Matriz formada por los valores de pij

(Matriz de transición).

• Si(t) : Probabilidad de encontrarse en el estado

“i” en el periodo “t”.

• S(t) : Vector de probabilidad de estado en el

periodo “t”.

Page 6: Cadenas de markov

CADENAS INFINITAS:

La ocurrencia de los eventos se considera indeterminada, pero tienden a una situación de estabilización.

• Planteamiento:

S1(t) + S2(t) +… + Sn(t) = 1 “ n estados “.pi1 + pi2 + … + pin = 1

La transición de un periodo al siguiente se expresa como:

S (t + 1) = S (t) P

Para el primer periodo : S (1) = S (0) PPara el segundo periodo: S (2) = S (1) P = S (0) P2

Para un periodo largo : S = SP

Page 7: Cadenas de markov

Cadenas Finitas:

Caracterizadas por que la ocurrencia de los

eventos terminan en los estados absorbentes.

Un estado absorbente es aquel que una vez

que se alcanza no pueden abandonarse.

Page 8: Cadenas de markov

La maderera “Cruz Blanca”, ubicada en cruz blanca- Huacho fabrica tres

tipos de muebles: Escritorios, Mesas y Roperos, estos son vendidos en el

centro de Lima. Pero en esta época del año la demanda es menor y para

cubrir los gastos de transporte y poder obtener utilidades el dueño piensa

ofrecer una promoción, la cual consiste en que si compran uno de los

muebles se llevan el segundo con el 25% de descuento, después de esto el

dueño desea saber que mueble es el más requerido por las personas.

De registros previos se ha determinado que de las personas que han

adquirido primero un escritorio luego el 20% de ellas eligen un escritorio; el

40 % una mesa y el 50% un ropero; mayores datos se muestran en la tabla.

En esta semana de las personas que llevan 2 muebles por la promoción, el

40% han elegido un escritorio, el 20 % mesas y el 40 % roperos.

• El Dueño desea saber que proporción encontrara en sus tiendas

después de una semana y después de 2 semanas.

Tienen Adquieren con el 20% dscto

E M R

E 0.2 0.3 0.5

M 0.4 0.2 0.4

R 0.4 0.3 0.3

Page 9: Cadenas de markov
Page 10: Cadenas de markov
Page 11: Cadenas de markov

La maderera “Cruz Blanca” fabrica principalmente escritorios, pero tiene un

problema ya que los últimos lotes de madera que ha recepcionado el dueño

no son las más adecuadas para este tipo de mueble. Debido a esto la

maderera considera un ensayo de markov donde:

Por datos históricos se obtiene:

Si actualmente existen 40 escritorios en buen estado y 10 en mal estado,

determinar la cantidad de escritorios que se llegan a vender.

ESTADOS ABSORVENTES ESTADOS DEL PROCESO

V=Vendidos B=Buen estado

NV= No Vendidos D=Defectuoso

Page 12: Cadenas de markov
Page 13: Cadenas de markov
Page 14: Cadenas de markov

Recommended