+ All Categories
Home > Documents > FOLLETOFINAL

FOLLETOFINAL

Date post: 24-Oct-2014
Category:
Upload: andres-sacoto
View: 573 times
Download: 0 times
Share this document with a friend
Popular Tags:
62
1 Apuntes de: PROBABILIDAD Y PROCESOS ESTOCASTICOS
Transcript
Page 1: FOLLETOFINAL

1

Apuntes de:

PROBABILIDAD Y

PROCESOS

ESTOCASTICOS

Page 2: FOLLETOFINAL

2

Elaborado por:

AndrΓ©s Sacoto C.

Nury Cornejo C.

Page 3: FOLLETOFINAL

1

Variable Aleatoria (V.A)

Una variable aleatoria es una variable que toma valores numΓ©ricos determinados por el

resultado de un experimento aleatorio. No hay que confundir la variable aleatoria con sus posibles

valores.

Ejemplo:

NΓΊmero de llamadas que recibe un telΓ©fono en una hora.

Tiempo que esperan los clientes para pagar en un supermercado.

nΒΊ de caras al lanzar 6 veces una moneda (valores: 0, 1, 2…).

Existen dos tipos de Variables Aleatorias:

Discretas: el conjunto de posibles valores es numerable. Suelen estar asociadas a

experimentos en que se mide el nΓΊmero de veces que sucede algo.

Continuas: el conjunto de posibles valores es no numerable. Puede tomar todos los

valores de un intervalo. Son el resultado de medir.

FunciΓ³n DistribuciΓ³n de Probabilidad

Se denota por 𝐹π‘₯ π‘₯0 representa en cada punto x0 la probabilidad de que la variable tome

un valor menor o igual que dicho punto, es decir, 𝑃(π‘₯ ≀ π‘₯0).

Ejemplo:

𝐹π‘₯ (2) = 𝑃(π‘₯ ≀ 2)

Propiedades

Dada una V.A X y 𝐹π‘₯ π‘₯ = limνœ€β†’0 𝐹π‘₯ π‘₯ + νœ€ , 𝐹π‘₯ π‘₯ = limνœ€β†’0 𝐹π‘₯ π‘₯ βˆ’ νœ€

1. 0≀𝐹π‘₯ π‘₯ ≀1 𝐹π‘₯ +∞ =1 𝐹π‘₯ βˆ’βˆž =0

2. 𝐹π‘₯ π‘₯ es una funciΓ³n no decreciente de x, esto es 𝐹π‘₯ π‘₯2 β‰₯ 𝐹π‘₯ π‘₯1 ; si π‘₯2 > π‘₯1 (siempre

creciente).

3. Si a<b =>𝐹π‘₯ π‘Ž ≀ 𝐹π‘₯ 𝑏

4. Si 𝐹π‘₯ π‘₯0 = 0 => 𝐹π‘₯ π‘₯ = 0 para todo x≀x0

5. P(x>x) = 1 – P(x ≀x) = 1 - 𝐹π‘₯ π‘₯

Page 4: FOLLETOFINAL

2

6. 𝐹π‘₯ π‘₯ es continua por la derecha, esto es 𝐹π‘₯ π‘₯+ = 𝐹π‘₯ π‘₯

7. P(x1<x< x2) = 𝐹π‘₯ π‘₯2 βˆ’ 𝐹π‘₯ π‘₯1

8. P(x=x) = 𝐹π‘₯ π‘₯+ βˆ’ 𝐹π‘₯ π‘₯βˆ’ si x es una V.A continua entonces la P(x=x) = 0

9. P(x1≀ x≀ x2) = 𝐹π‘₯ π‘₯2 βˆ’ 𝐹π‘₯ π‘₯1βˆ’

FunciΓ³n Densidad de Probabilidad

Describe la densidad de la probabilidad en cada punto del espacio de tal manera que la

probabilidad de que la variable aleatoria tome un valor dentro de un determinado conjunto sea la

integral de la funciΓ³n de densidad sobre dicho conjunto.

𝑓π‘₯ π‘₯ =𝑑𝐹π‘₯ (π‘₯)

𝑑π‘₯

Propiedades

1) 𝑓π‘₯ π‘₯ β‰₯ 0

2) P(a≀ x ≀b) = 𝑓π‘₯ (π‘₯)𝑑π‘₯𝑏

π‘Ž

3) 𝑓π‘₯ π‘₯ 𝑑π‘₯ = 1+∞

βˆ’βˆž ; 𝑓π‘₯ π‘₯ = 1π‘₯𝑖

4) 𝐹π‘₯ π‘₯ = 𝑓𝛼 (𝛼)𝑑𝛼π‘₯

βˆ’βˆž

Ejemplo:

Verificar si las siguientes funciones son distribuciones de probabilidad

a) 𝑓π‘₯ π‘₯ = π‘₯βˆ’3

3 ; π‘₯ = 1,2,3,4,5

𝑓π‘₯ π‘₯ =π‘₯ βˆ’ 3

3= 1

4

π‘₯=1

βˆ’2

3βˆ’

1

3+ 0 +

1

3+

2

3= 0

𝑓π‘₯ 1 𝑦 𝑓π‘₯ 2 < 0

∴ π‘π‘œ 𝑒𝑠 𝑓𝑒𝑛𝑐𝑖ó𝑛 𝑑𝑒 π‘‘π‘–π‘ π‘‘π‘Ÿπ‘–π‘π‘’π‘π‘–π‘œπ‘› 𝑑𝑒 π‘π‘Ÿπ‘œπ‘π‘Žπ‘π‘–π‘™π‘–π‘‘π‘Žπ‘‘

b) 𝑓π‘₯ π‘₯ = 2π‘’βˆ’2π‘₯ ; π‘₯ > 0 0 ; π‘₯ ≀ 0

2π‘’βˆ’2π‘₯𝑑π‘₯∞

0

= 2 βˆ’1

2π‘’βˆ’2π‘₯

0

∞

= 2 0 +1

2 = 1

Page 5: FOLLETOFINAL

3

∴ 𝑆𝑖 𝑒𝑠 π‘“π‘’π‘›π‘π‘–π‘œπ‘› 𝑑𝑒 π‘‘π‘–π‘ π‘‘π‘Ÿπ‘–π‘π‘’π‘π‘–π‘œπ‘› 𝑑𝑒 π‘π‘Ÿπ‘œπ‘π‘Žπ‘π‘–π‘™π‘–π‘‘π‘Žπ‘‘

Ejemplo:

Dada 𝑓π‘₯ π‘₯ = π‘Žπ‘’βˆ’3π‘₯ ; π‘₯ > 0 0 ; π‘₯ ≀ 0

a) Determinar a para que sea fdp.

b) P(2<x<5)

c) P(x<3)

d) P(x>6)

e) Graficar 𝑓π‘₯ π‘₯ y 𝐹π‘₯ π‘₯

a)

π‘Žπ‘’βˆ’3π‘₯𝑑π‘₯∞

0

= π‘Ž βˆ’1

3π‘’βˆ’3π‘₯

0

∞

= π‘Ž 0 +1

3 = 1

∴ π‘Ž = 3

b) P(2<x<5)

3π‘’βˆ’3π‘₯𝑑π‘₯5

2

= 3 βˆ’1

3π‘’βˆ’3π‘₯

2

5

= 3 βˆ’π‘’βˆ’15

3+

π‘’βˆ’6

3 = π‘’βˆ’6 βˆ’ π‘’βˆ’15

P (2<x<5) = 2.47x10-3

c) P(x<3)

3π‘’βˆ’3π‘₯𝑑π‘₯3

0

= 3 βˆ’1

3π‘’βˆ’3π‘₯

0

3

= 3 βˆ’π‘’βˆ’9

3+

𝑒0

3 =

1

3βˆ’ π‘’βˆ’9

P(x<3) = 0.333

d) P(x>6)

3π‘’βˆ’3π‘₯𝑑π‘₯∞

6

= 3 βˆ’1

3π‘’βˆ’3π‘₯

6

∞

= 3 βˆ’π‘’βˆ’βˆž

3+

π‘’βˆ’18

3 = π‘’βˆ’18 βˆ’ 0

P(x>6) = 1.523x10-18

e) 𝐹π‘₯ π‘₯

Page 6: FOLLETOFINAL

4

3π‘’βˆ’3𝛼 𝑑𝛼π‘₯

0

= 3 βˆ’1

3π‘’βˆ’3𝛼

0

π‘₯

= βˆ’π‘’βˆ’3π‘₯ + 1

𝐹π‘₯ π‘₯ = 1 βˆ’ π‘’βˆ’3π‘₯ ; π‘₯ > 0 0 ; π‘₯ ≀ 0

DistribuciΓ³n Binomial

Existen solamente dos resultado posibles en cada ensayo

La probabilidad de un Γ©xito es la misma en cada ensayoi

Hay n ensayos, donde n es constante

Los n ensayos son independientes

𝑏 π‘₯; 𝑛, 𝑝 = 𝑛π‘₯ 𝑝π‘₯ (1 βˆ’ 𝑝)π‘›βˆ’π‘₯ ; π‘₯ = 0,1,2,3, … , 𝑛

𝐡 π‘₯; 𝑛, 𝑝 = 𝑏 π‘˜; 𝑛, 𝑝 ; π‘₯ = 0,1,2,3, … , 𝑛

π‘₯

π‘˜=0

Identidades Binomiales

b(x; n, p) = b(n-x; n, 1-p)

B(x; n, p) = 1 – B(n-x-1; n; 1-p)

b(x; n, p) = B(x; n, p) – B(x-1; n, p)

b(x; n, p) = B(n-x; n, 1-p) – B(n-x-1; n, 1-p)

-2 0 2 4 6 8 100

0.5

1

1.5

2

2.5

3Funcion densidad de probabilidad

0 0.5 1 1.5 2 2.5 30

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1Funcion distribucion de probabilidad

Page 7: FOLLETOFINAL

5

Ejemplo:

Se asegura que en una empresa de instalaciones elΓ©ctricas, en el 70% de las instalaciones se

reducen al menos una 3Β° parte de los gastos si se hacen con ciertos materiales de buena calidad.

De acuerdo con lo anterior, cuΓ‘les son las probabilidades de que se reduzcan al menos una 3Β°

parte en:

a) Cuatro de seis instalaciones

b) En al menos tres de seis instalaciones

a) P(x=4)

p = 0.7

𝑏 4; 6,0.7 = 64 0.74(0.3)2 = 0.324

b) P(x=3)+P(x=4)+P(x=5)+P(x=6) Γ³ 1- [P(x=1) + P(x=2)]

1 βˆ’ 61 0.71 0.3 5 +

62 0.72 0.3 4 = 1 βˆ’ 0.069 = 0.93

DeterminaciΓ³n de probabilidades

Nos encontraremos casos en los que nos dan una grΓ‘fica de distribuciΓ³n de probabilidad y

nos piden calcular una serie de probabilidades lo cual veremos que se puede hacer solo con la

grΓ‘fica teniendo claros los conceptos de distribuciΓ³n de probabilidad.

Ejemplo:

Como tenemos los puntos en la grΓ‘fica

podemos determinar la funciΓ³n de

distribuciΓ³n de probabilidad de la siguiente

manera

𝐹π‘₯ π‘₯ =

0 ; π‘₯ < 0π‘₯ + 1

4; 0 ≀ π‘₯ < 1

1 ; π‘₯ β‰₯ 1

-1 -0.5 0 0.5 1 1.5 2 2.5 3

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Fx

x

Page 8: FOLLETOFINAL

6

Determinar:

a) P(x< -1/2)

b) P(1/4≀ x <1)

c) P(xβ‰₯ 5)

d) P(1/4≀ x ≀1)

e) P(x< 5)

f) P(x≀0)

g) P(x>1/2)

SoluciΓ³n:

a) En si nos estΓ‘n pidiendo Fx(-1/2) y esto es 0, como podemos observar en la grΓ‘fica y en la

funciΓ³n de distribuciΓ³n por tramos.

b) P(1/4≀ x <1)= Fx(1) - Fx(1/4), notemos que para ambos valores ΒΌ y 1 tenemos la funciΓ³n π‘₯+1

4 ya que el 1 no estΓ‘ incluido en la probabilidad que nos piden.

P (1/4≀ x <1)= 1/2 - 5/16 = 3/16

c) P(xβ‰₯ 5) = 1 – P(x<5) = 1 – Fx(5)

P (xβ‰₯ 5) = 1 – 1= 0

d) P(1/4≀ x ≀1) = Fx(1) – Fx(1/4), como ahora en la probabilidad que nos piden estΓ‘ incluido el

1 entonces Fx(1)=1 y tendrΓ­amos que

P (1/4≀ x ≀1) = 1 – 5/16 = 11/16

e) P(x<5) = Fx(5) = 1

f) P(x≀0) = Fx(0) , para lo cual usamos la ecuaciΓ³n π‘₯+1

4 y tenemos que

P(x≀0) = 1/4

g) P (x> 1/2) = 1 – P (x ≀ 1/2) = 1-Fx(1/2)

P (x> 1/2) = 1 – 3/8 = 5/8

Page 9: FOLLETOFINAL

7

Valor Esperado

En el caso que X sea una v.a. discreta, este valor es la media ponderada de los posibles

valores que puede tomar la variable X, en donde los pesos o ponderaciones son las probabilidades

de ocurrencia de los posibles valores de X. Luego el valor esperado de X se interpreta como una

media ponderada de los posibles valores de X, y no como el valor que se espera que tome X, pues

puede suceder que E [X] no sea uno de los posibles valores de X. En el caso de v.a. continua, E [X]

nos indica el centro de la funciΓ³n de densidad, es decir, nos indica el centro de gravedad de la

distribuciΓ³n.

𝑛π‘₯ = 𝐸 π‘₯ = π‘₯ 𝑓π‘₯ (π‘₯)∞

βˆ’βˆž

𝑑π‘₯ ; π‘‘π‘Žπ‘‘π‘œ π‘žπ‘’π‘’ π‘™π‘Ž 𝑉. 𝐴 𝑒𝑠 π‘π‘œπ‘›π‘‘π‘–π‘›π‘’π‘Ž

𝑛π‘₯ = 𝐸 π‘₯ = π‘₯𝑖 𝑃(π‘₯ = π‘₯𝑖)

∞

𝑖= βˆ’βˆž

; π‘‘π‘Žπ‘‘π‘œ π‘žπ‘’π‘’ π‘™π‘Ž 𝑉. 𝐴 𝑒𝑠 π‘‘π‘–π‘ π‘π‘Ÿπ‘’π‘‘π‘Ž

Propiedades

E[ c ] = c -> donde c es una constante

E[ c g(x) ] = c E[ g(x) ]

E[ g1(x) + g2(x) + g3(x) + … + gn(x)] = E[ g1(x) ] + E[ g2(x) + + … + E* gn(x) ]

Si fx(x) es simΓ©trica en x=a => E[ x ] = a

Si fx(x) es simΓ©trica en x=0 => E[ x ] = 0

Varianza

La varianza de una variable aleatoria es una medida de su dispersiΓ³n. Se trata de la

esperanza del cuadrado de la desviaciΓ³n de la variable frente su media y se mide en una unidad

diferente.

Var(x) = E[(x - nx)2]

Var(x) = π‘₯ βˆ’ 𝑛π‘₯ 2∞

βˆ’βˆžπ‘“π‘₯ π‘₯ 𝑑π‘₯ V.A Continua

Var(x) = π‘₯ βˆ’ 𝑛π‘₯ 2𝑃 π‘₯ = π‘₯𝑛 βˆžβˆ’βˆž V.A Discreta

Var(x) = E[ x2 ] – nx2

Page 10: FOLLETOFINAL

8

Propiedades

Var (c) = 0 ; c = constante

Var (x+c) = Var (x)

Var (cx) = c2 Var (x)

Ejemplo:

Una V.A. x puede tomar los valores -4, -3, -2, -1, 1, 2, 3, 4, con igual probabilidad.

Determinar la varianza de Y=2x3

SoluciΓ³n:

Como es una variable discreta y todos los valores tienen la misma probabilidad, entonces

la probabilidad de cada valor seria 1/8.

Var (Y) = Var (2x3) = 4 Var( x3 )

Var (Y) = 4 {E [ x6 ] – E [ x3 ]2}

E [ x6] = 4*[(-4)6(1/8) + (-3)6(1/8) + (-2)6(1/8) + (-1)6(1/8) + (1)6(1/8) + (2)6(1/8) + (3)6(1/8) +

(4)6(1/8)]

Var (Y) = 4890

Probabilidad Condicional

El concepto de probabilidad condicional es muy sencillo. EstΓ‘ basado en una situaciΓ³n

particular que podemos resumir como sigue: β€œprobabilidad de ocurrencia de un evento en un

escenario muy particular”

Vamos a explicar lo anterior. Suponga que se lanza un dado. Existe una clase de

escenarios exhaustivos y no traslapados como son: β€œel nΓΊmero del dado es par” y β€œel nΓΊmero del

dado es impar”. Entonces bajo la hipΓ³tesis de trabajar con esta clase de escenarios, uno se puede

preguntar la probabilidad de obtener algΓΊn determinado nΓΊmero bajo uno de estos escenarios.

P [ A/M] = 𝑃(π΄βˆ©π‘€)

𝑃(𝑀) ; P(M) β‰  0

Page 11: FOLLETOFINAL

9

FunciΓ³n DistribuciΓ³n Condicional

Fx (x / M) = P (x≀x /M) = 𝑃{ π‘₯≀π‘₯ βˆ©π‘€ }

𝑃 (𝑀)=

𝑃{ π‘₯≀π‘₯ ,𝑀 }

𝑃 (𝑀)

FunciΓ³n Densidad Condicional

fx ( x/ M) = 𝑑 𝐹π‘₯ (π‘₯/ 𝑀)

𝑑π‘₯ ; M en tΓ©rminos de x

Propiedades

Fx (+∞/ M) = 1

Fx (-∞/ M) = 0

P(x1 < x≀ x2) = Fx (x2 / M) - Fx (x1 / M) = P (x1<π‘₯ ≀ x2 ; M)

P (M)

Ejemplo:

Determinar Fx (x/ M) y fx (x/ M); dado que M= ,x≀a-

Dato: Fx (x) = P (x≀x)

SoluciΓ³n:

Fx(x /M)= P (x≀x/M) = 𝑃 (x≀π‘₯)βˆ©π‘€

𝑃 (𝑀)=

𝑃 x≀π‘₯ ∩(π‘₯β‰€π‘Ž)

𝑃 (𝑀)

Dibujaremos en una recta numΓ©rica para poder visualizar lo que nos piden

b<x<a

a x a

a x<x x a

Page 12: FOLLETOFINAL

10

Como podemos ver la intersecciΓ³n de estas dos rectas serΓ­a P (x≀x) y tendrΓ­amos:

Fx(x /M) = P(x≀x)

P(x≀a)=

Fx (x)

Fx (a)

Ejemplo:

M = ,b<x≀a-; a>b

SoluciΓ³n:

En este ejemplo tendrΓ­amos tres casos que los representaremos en las siguientes rectas.

Caso 1: Donde a>b pero menor que x

b a x

Fx(x /M)= P (x≀x/M) = 𝑃 (x≀π‘₯)βˆ©π‘€

𝑃 (𝑀)=

𝑃 x≀π‘₯ ∩(𝑏<π‘₯β‰€π‘Ž)

𝑃 (𝑏<π‘₯β‰€π‘Ž)

x<x

b a x

b<x<a

b a x

Como podemos observar la intersecciΓ³n de estas dos grΓ‘ficas serΓ­a P(b<x≀a) y tendrΓ­amos:

Fx(x /M) = P(b<x≀a)

P(b<x≀a)= 1

Caso 2: Donde a>b pero mayor que x

x b a

Fx(x /M)= P (x≀x/M) = 𝑃 (x≀π‘₯)βˆ©π‘€

𝑃 (𝑀)=

𝑃 x≀π‘₯ ∩(𝑏<π‘₯β‰€π‘Ž)

𝑃 (𝑏<π‘₯β‰€π‘Ž)

x<x

x b a

Page 13: FOLLETOFINAL

11

b<x<a

x b a

Como podemos observar la no existe intersecciΓ³n entre ambas graficas y tendrΓ­amos:

Fx (x /M) = 0

P(b<x≀a)= 0

Caso 3: Donde a>b pero x estΓ‘ entre ambos valores

b x a

Fx(x /M)= P (x≀x/M) = 𝑃 (x≀π‘₯)βˆ©π‘€

𝑃 (𝑀)=

𝑃 x≀π‘₯ ∩(𝑏<π‘₯β‰€π‘Ž)

𝑃 (𝑏<π‘₯β‰€π‘Ž)

x<x

b x a

a>b

b x a

Como podemos observar la intersecciΓ³n de las dos grΓ‘ficas serΓ­a P (x≀x)-P(x<b) y tendrΓ­amos:

Fx(x /M) = P x≀x βˆ’P x≀b

P(b<x≀a)=

Fx x βˆ’ Fx b

Fx a βˆ’Fx b

Probabilidad Total

Ai ∩ Aj = Ξ¦; iβ‰ j = 1,2,3,.., n

𝐴𝑖 = 𝑆

𝒏

π’Š=𝟏

Page 14: FOLLETOFINAL

12

Teorema de la probabilidad total

Sea A1, A2,..., An un sistema completo de sucesos tales que la probabilidad de cada uno de

ellos es distinta de cero, y sea B un suceso cualquier del que se conocen las probabilidades

condicionales P(B/Ai), entonces la probabilidad del suceso B viene dada por la expresiΓ³n:

P (B) =P (B/A1)*P (A1) + P (B/A2)*P (A2) + P (B/A3)*P (A3) + … + P (B/An)*P (An)

P (x≀x) =P (x≀x/ A1)*P (A1) + P (x≀x/ A2)*P (A2) + … + P (x≀x/An)*P (An)

Fx(x) =Fx(x/ A1)*P (A1) + Fx(x/ A2)*P (A2) + … + Fx(x/An)*P (An)

fx(x)= fx(x/A1)*P (A1) + fx(x/A2)*P (A2) + … + fx(x/An)*P (A1)

P(A/B) =𝑃(𝐴∩𝐡)

𝑃(𝐡) P(A/B)P(B) =P(B/A)P(A)

P(B/A) =𝑃(𝐴∩𝐡)

𝑃(𝐴) P(A/B) =

𝑃(𝐡/𝐴)𝑃(𝐴)

𝑃(𝐡)

P(B/A) =𝑃(𝐴/𝐡)𝑃(𝐡)

𝑃(𝐴)

Valor esperado de Y =g(x)

E [Y] =E [g(x)] = 𝑔 π‘₯ 𝑓π‘₯ π‘₯ 𝑑π‘₯∞

βˆ’βˆž

Valor esperado Condicional

E [x/ M] = π‘₯𝑓π‘₯ (π‘₯ 𝑀 )𝑑π‘₯∞

βˆ’βˆž ; V.A. Continua

E [x/ M] = π‘₯𝑛𝑃 [π‘₯ = π‘₯𝑛 𝑀 ]βˆžπ‘›=βˆ’βˆž ; V.A. Discreta

Ejemplo:

Sea X la entrada a un canal de comunicaciones y Y la salida. La entrada al canal es +1 Γ³ -

1con igual probabilidad. La salida del canal es la entrada mΓ‘s el de ruido N que estΓ‘

uniformemente distribuido en el intervalo [-2,2] encuentre la probabilidad de P *x=+1, Y≀y+

Page 15: FOLLETOFINAL

13

SoluciΓ³n:

Siendo Y =X + N, fN(x) es uniforme en (-2,2), por tanto fY(y/ x=+1) es tambiΓ©n uniforme en (-1,3), es

decir fY(y/ x=+1)=1

4

P(x=+1/ Y≀y) = 𝑓𝑦 𝑦 π‘₯ = +1 𝑑𝑦 = 1

4

0

βˆ’1

Ejercicio Completo

a) Determinar y graficar Fx(x)

b) Determinar c para que P(|x-3|<c) =1/4

c) E[x] y Var(x)

d) Determinar y Graficar Fx(x/M) y fx(x/M) ; M =,xβ‰₯3-

-5 -4 -3 -2 -1 0 1 2 3 4 50

0.05

0.1

0.15

0.2

0.25fn

n

-5 -4 -3 -2 -1 0 1 2 3 4 50

0.05

0.1

0.15

0.2

0.25fy(y/x=+1)

y

0 1 2 3 4 5 6 70

0.05

0.1

0.15

0.2

0.25

0.3

0.35fx

x

Page 16: FOLLETOFINAL

14

SoluciΓ³n:

a)

Para determinar Fx(x) primero debemos encontrar el valor de a

𝐹π‘₯ π‘₯ = 𝑓𝛼 𝛼 𝑑𝛼 = π‘Ž 𝛼 βˆ’ 1 𝑑𝛼π‘₯

1

+ π‘Žπ‘₯

2

𝑑𝛼π‘₯

0

+ βˆ’π‘Ž

2 𝛼 βˆ’ 6 𝑑𝛼

π‘₯

4

𝐹π‘₯ π‘₯ = π‘Ž 𝛼2

2βˆ’ 𝛼

1

π‘₯

+ 𝛼 2π‘₯ βˆ’

1

2 𝛼2

2βˆ’ 6𝛼

4

π‘₯

𝐹π‘₯ π‘₯ = π‘Ž π‘₯2

2βˆ’ π‘₯ +

1

2 + π‘Ž π‘₯ βˆ’ 2 βˆ’

π‘Ž

2 π‘₯2

2βˆ’ 6π‘₯ + 16

1 = π‘Ž

2+ 3π‘Ž =

7π‘Ž

2 β†’ ∴ π‘Ž =

2

7

𝐹π‘₯ π‘₯ =

0 ; π‘₯ < 1

π‘₯2

7βˆ’

2π‘₯

7+

1

7 ; 1 ≀ π‘₯ < 2

2π‘₯

7βˆ’

3

7 ; 2 ≀ π‘₯ < 4

βˆ’π‘₯2

14+

6π‘₯

7βˆ’

11

7 ; 4 ≀ π‘₯ < 6

1 ; π‘₯ β‰₯ 6

0 1 2 3 4 5 6 70

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1Fx

x

Page 17: FOLLETOFINAL

15

b)

Resolvemos el valor absoluto y tenemos

P (|x-3|<c) =P (-c<x-3<c) =P(3-c<x<3+c)= Fx(3+c)- Fx(3-c) =1/4

Reemplazamos en la funciΓ³n del intervalo correspondiente de Fx que serΓ­a 2π‘₯

7βˆ’

3

7 y

tenemos

2(3 + 𝑐)

7βˆ’

3

7βˆ’

2 3 βˆ’ 𝑐

7+

3

7=

1

4 ⟹ 6 + 2𝑐 βˆ’ 6 + 2𝑐 =

7

4

4c =7

4 ⟹ ∴ c =

7

16

c)

𝐸 π‘₯ = 2

7π‘₯(π‘₯ βˆ’ 1)𝑑π‘₯

2

1

+ 2π‘₯

7𝑑π‘₯

4

2

βˆ’ 1

7π‘₯(π‘₯ βˆ’ 6)𝑑π‘₯

6

4

𝐸 π‘₯ =2

7 π‘₯3

3βˆ’

π‘₯2

2

1

2

+ 2

7 π‘₯2

2

2

4

βˆ’1

7 π‘₯3

3βˆ’ 6

π‘₯2

2

4

6

=5

21+

12

7+

4

3

E x =23

7

d) Fx(x /M)= P (x≀x/M) = 𝑃 (x≀π‘₯)βˆ©π‘€

𝑃 (𝑀)=

𝑃 x≀π‘₯ ∩(π‘₯β‰₯3)

𝑃(π‘₯β‰₯3)

x≀x

3 x

xβ‰₯3

3 x

𝐹𝑋 π‘₯ 𝑀 = 𝐹π‘₯ π‘₯ βˆ’ 𝐹π‘₯ (3)

1 βˆ’ 𝐹π‘₯ (3)=

𝐹π‘₯ π‘₯ βˆ’37

47

𝐹𝑋 π‘₯ 𝑀 =

0 ; π‘₯ ≀ 3π‘₯ βˆ’ 3

2 ; 3 < π‘₯ ≀ 4

βˆ’π‘₯2

8+

3π‘₯

2βˆ’

7

2 ; 4 < π‘₯ ≀ 6

1 ; π‘₯ > 6

Page 18: FOLLETOFINAL

16

𝑓π‘₯ π‘₯ 𝑀 =𝑑𝐹π‘₯ (π‘₯/𝑀)

𝑑π‘₯

𝑓π‘₯ π‘₯ 𝑀 =

0 ; π‘₯ < 31

2 ; 3 ≀ π‘₯ < 4

βˆ’π‘₯

4+

3

2 ; 4 ≀ π‘₯ < 6

0 ; π‘₯ β‰₯ 6

0 1 2 3 4 5 6 70

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1Fx(X/M)

x

0 1 2 3 4 5 6 70

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

x

fx(X/M)

Page 19: FOLLETOFINAL

17

DeterminaciΓ³n de fY(y) Teorema Fundamental

Para encontrar fY(y) para un Y especΓ­fico, se resuelve la ecuaciΓ³n y= g(x) para x en tΓ©rminos

de y. Denotando las raΓ­ces por xn; y =g (x1) =g (x2) =…=g (xn)

π‘“π‘Œ 𝑦 = 𝑓π‘₯ (π‘₯1)

𝑔′(π‘₯1) +

𝑓π‘₯ (π‘₯2)

𝑔′(π‘₯2) + β‹― +

𝑓π‘₯ π‘₯𝑛

𝑔′ π‘₯𝑛 ; 𝑔′ π‘₯ =

𝑑 𝑔(π‘₯)

𝑑π‘₯

π‘“π‘Œ 𝑦 = 𝑓π‘₯ (π‘₯)

𝑔′(π‘₯)

Dos Variables

Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales

de forma semejante al caso unidimensional.

FXY (x, y) =P ,X≀x; Y≀y-

fXY (x,y) = π‘‘πΉπ‘‹π‘Œ (π‘₯ ,𝑦)

𝑑π‘₯𝑑𝑦

Propiedades FXY (x, y)

πΉπ‘‹π‘Œ βˆ’βˆž, 𝑦 = 0

πΉπ‘‹π‘Œ π‘₯, βˆ’βˆž = 0

πΉπ‘‹π‘Œ βˆ’βˆž,∞ = 1

𝑃 π‘₯1 < 𝑋 ≀ π‘₯2 , π‘Œ ≀ 𝑦 = πΉπ‘‹π‘Œ π‘₯2, 𝑦 βˆ’ πΉπ‘‹π‘Œ π‘₯1, 𝑦

𝑃 𝑋 ≀ π‘₯ , 𝑦1 < π‘Œ ≀ 𝑦2 = πΉπ‘‹π‘Œ π‘₯, 𝑦2 βˆ’ πΉπ‘‹π‘Œ π‘₯, 𝑦1

𝑃 π‘₯1 < 𝑋 ≀ π‘₯2 , 𝑦1 < π‘Œ ≀ 𝑦2 = πΉπ‘‹π‘Œ π‘₯2, 𝑦2 βˆ’ πΉπ‘‹π‘Œ π‘₯1, 𝑦2 βˆ’ πΉπ‘‹π‘Œ π‘₯2, 𝑦1 + πΉπ‘‹π‘Œ π‘₯1, 𝑦1

Page 20: FOLLETOFINAL

18

Propiedades fXY (x, y)

π‘“π‘‹π‘Œ π‘₯, 𝑦 𝑑π‘₯𝑑𝑦 = 1∞

βˆ’βˆž πΉπ‘‹π‘Œ π‘₯, 𝑦 = π‘“π‘‹π‘Œ (𝛼, 𝛽)𝑑𝛼𝑑𝛽

𝒙

βˆ’βˆž

π’š

βˆ’βˆž

Marginales

FX(x) =FXY (x,+∞) FY(y) =FXY (+∞,y)

𝑓𝑋 π‘₯ = π‘“π‘‹π‘Œ (π‘₯, 𝑦)𝑑𝑦+∞

βˆ’βˆž π‘“π‘Œ 𝑦 = π‘“π‘‹π‘Œ (π‘₯, 𝑦)𝑑π‘₯

+∞

βˆ’βˆž

Ejemplo:

Sea X,Y V.A. con funciΓ³n de densidad

π‘“π‘‹π‘Œ π‘₯, 𝑦 = 1 𝑠𝑖 𝑦 < π‘₯ ; 0 < π‘₯ < 10 π‘Ÿπ‘’π‘ π‘‘π‘œ

a) Comprobar que fXY(x,y) es una fdp.

b) Determinar la media de X e Y

c) Determinar la varianza de X e Y

d) Determinar las siguientes probabilides

P(x< Β½ ; Y<0)

P(x>1/2 ; -1/2< Y <1/2)

SoluciΓ³n:

En el siguiente grΓ‘fico podemos visualizar la zona de integraciΓ³n que se obtuvo al despejar |y|<x,

y que se encuentra limitado por 0<x<1

-x<y<x -> en la zona de integraciΓ³n tendremos a los y>x y a los y<-x

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

y= x

y= -x

y

x

Page 21: FOLLETOFINAL

19

a) Para comprobar que sea una f.d.p usaremos π‘“π‘‹π‘Œ π‘₯, 𝑦 𝑑π‘₯𝑑𝑦 = 1∞

βˆ’βˆž

∞

βˆ’βˆž

𝑑π‘₯𝑑𝑦 = 𝑦 βˆ’π‘₯π‘₯ 𝑑π‘₯ = 2π‘₯ 𝑑π‘₯ = 2

π‘₯2

2

0

1

= 1

1

0

1

0

π‘₯

βˆ’π‘₯

1

0

∴ 𝑆𝑖 𝑒𝑠 𝑓. 𝑑. 𝑝

b) Para determinar la media de X y Y primero debemos hallar la marginal de X y Y para lo cual

tenemos:

𝑓π‘₯ π‘₯ = π‘“π‘‹π‘Œ π‘₯, 𝑦 π‘‘π‘¦βˆž

βˆ’βˆž

𝑓π‘₯ π‘₯ = 𝑑𝑦π‘₯

βˆ’π‘₯

= 2π‘₯

E[x] = π‘₯ 2π‘₯ 𝑑π‘₯ = 2 π‘₯ 3

3

0

11

0

E[x]= 2/3

π‘“π‘Œ 𝑦 = π‘“π‘‹π‘Œ π‘₯, 𝑦 𝑑π‘₯∞

βˆ’βˆž

π‘“π‘Œ 𝑦 = 𝑑π‘₯1

𝑦

+ 𝑑π‘₯1

βˆ’π‘¦

= 1 βˆ’ 𝑦 + (1 + 𝑦)

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

y

x

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

y

x

Page 22: FOLLETOFINAL

20

π‘“π‘Œ 𝑦 = 1 + 𝑦 ; βˆ’1 < 𝑦 ≀ 01 βˆ’ 𝑦 ; 0 < 𝑦 ≀ 1

𝐸 𝑦 = 𝑦 1 + 𝑦 𝑑𝑦 + 𝑦 1 βˆ’ 𝑦 = 𝑦2

2+

𝑦3

3 βˆ’1

0

+ 𝑦2

2βˆ’

𝑦3

3

0

11

0

0

βˆ’1

𝐸 𝑦 = βˆ’1

2+

1

3+

1

2βˆ’

1

3= 0

c)

Var (x) =E [x2] – E [x]2

𝐸 π‘₯2 = π‘₯2 2π‘₯ 𝑑π‘₯1

0

= 2 π‘₯4

4

0

1

= 2 1

4 =

1

2

π‘‰π‘Žπ‘Ÿ π‘₯ = 1

2βˆ’

2

3

2

= 1

18

Var (y) =E [y2]– E [y]2

𝐸 𝑦2 = 𝑦2 1 + 𝑦 𝑑𝑦0

βˆ’1

+ 𝑦2 1 βˆ’ 𝑦 𝑑𝑦1

0

= 𝑦3

3+

𝑦4

4 βˆ’1

0

+ 𝑦3

3βˆ’

𝑦4

4

0

1

=1

6

π‘‰π‘Žπ‘Ÿ 𝑦 = 1

6βˆ’ 0 =

1

6

d)

P(x<1/2; y>0)

P x < 1 2 ; y > 0 = dydx = x0.5

0

dx = x2

2

0

0.5

= 1

8

0

βˆ’x

0.5

0

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

y

x

Page 23: FOLLETOFINAL

21

P(x>1/2; -1/2<y<1/2)

P x > 1 2 ; βˆ’1/2 < 𝑦 < 1/2 = dydx = 10.5

0

dx =1

2

0.5

βˆ’0.5

1

0.5

Desigualdad de Chebyshev

La desigualdad de Chebyshev es un resultado que ofrece una cota inferior a la probabilidad

de que el valor de una variable aleatoria con varianza finita estΓ© a una cierta distancia de su valor

esperado.

𝑃 π‘₯ βˆ’ 𝑒 β‰₯ π‘˜πœ ≀1

π‘˜2; π‘˜ > 0

Si una distribuciΓ³n de probabilidad tiene media 𝑒 y una desviaciΓ³n estΓ‘ndar 𝜍, la

probabilidad de obtener un valor que desvΓ­a de 𝑒 al menos en π‘˜πœ es a lo mucho1

𝐾2.

Ejemplo:

Suponga que el nΓΊmero de artΓ­culos producidos por una fΓ‘brica en una semana es una

variable aleatoria con media 50. Si la varianza de una semana de producciΓ³n se sabe que es igual a

25, entonces ΒΏQue podemos decir acerca de la probabilidad de que en esta semana la producciΓ³n

difiera en mΓ‘s de 10 a la media?

𝑒 = 50

𝜍 = 25

π‘₯ βˆ’ 50 = 10

10 β‰₯ 5π‘˜ β†’ π‘˜ ≀ 2

P =1

k2=

1

4

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

y

x

Page 24: FOLLETOFINAL

22

Ejemplo:

El nΓΊmero de clientes que visitan una sala exhibiciΓ³n de una empresa automotriz de un

sΓ‘bado por la maΓ±ana es una variable aleatoria con media

𝑒 = 18 y 𝜍 = 25 ΒΏ Con que probabilidad podremos asegurar que habrΓ‘ entre 8 28 clientes?.

π‘₯ βˆ’ 18 = 8

8 β‰₯ 2.5π‘˜ β†’ π‘˜ ≀ 3.2

𝑃 π‘₯ βˆ’ 𝑒 β‰₯ π‘˜πœ ≀ 1 βˆ’1

π‘˜2

βˆ’π‘˜πœ ≀ π‘₯ βˆ’ 𝑒 ≀ π‘˜πœ

βˆ’π‘˜πœ + 𝑒 ≀ π‘₯ ≀ π‘˜πœ + 𝑒

βˆ’π‘˜πœ + 𝑒 ≀ π‘₯ ≀ π‘˜πœ + 𝑒

βˆ’2.5π‘˜ + 18 ≀ π‘₯ ≀ 2.5π‘˜ + 18

βˆ’2.5π‘˜ + 18 = 8

βˆ’2.5π‘˜ = βˆ’10

π‘˜ = 4

𝑃 = 1 βˆ’1

16=

15

16

Momento Respecto al Origen

π‘šπ‘˜ = 𝐸 π‘₯π‘˜ = π‘₯π‘˜π‘“π‘₯ π‘₯ 𝑑π‘₯ ;

π‘š0 = 1

π‘š1 = 𝐸 π‘₯

π‘š2 = 𝐸[π‘₯2]

∞

βˆ’βˆž

Momento Central

πœ‡π‘˜ = 𝐸 (π‘₯ βˆ’ π‘›π‘˜)π‘˜ = π‘₯ βˆ’ π‘›π‘˜ π‘˜π‘“π‘₯ π‘₯ 𝑑π‘₯ ; πœ‡0 = 1πœ‡1 = 0

πœ‡2 = π‘‰π‘Žπ‘Ÿ(π‘₯)

∞

βˆ’βˆž

Page 25: FOLLETOFINAL

23

Variables Aleatorias Independientes

πΉπ‘‹π‘Œ π‘₯, 𝑦 = 𝐹π‘₯ π‘₯ βˆ— πΉπ‘Œ(𝑦)

π‘“π‘‹π‘Œ π‘₯, 𝑦 = 𝑓𝑋 π‘₯ βˆ— π‘“π‘Œ(𝑦)

𝑃 𝑋 = π‘₯𝑖 ; π‘Œ = 𝑦𝑖 = 𝑃 𝑋 = π‘₯𝑖 βˆ— 𝑃(π‘Œ = 𝑦𝑖)

FunciΓ³n de dos Variables Aleatorias

Dadas 2 V.A. y una funciΓ³n g(x,y), se forma la V.A z =g(x,y). Se requiere calcular fz(z) y Fz(z).

Ejemplo:

π‘“π‘‹π‘Œ π‘₯, 𝑦 = 16

3 π‘₯ + 𝑦 ; 0.5 ≀ 𝑦 ≀ π‘₯, 0.5 ≀ π‘₯ ≀ 1

Dado Z=X-Y, encuentre fz(z)

Page 26: FOLLETOFINAL

24

𝐹𝑧 𝑧 = π‘“π‘‹π‘Œ π‘₯, 𝑦 𝑑𝑦𝑑π‘₯π‘₯βˆ’π‘§

βˆ’βˆž

∞

βˆ’βˆž

𝑓𝑍 𝑧 =𝑑 𝐹𝑧 𝑧

𝑑𝑧= π‘“π‘‹π‘Œ π‘₯, π‘₯ βˆ’ 𝑧 𝑑π‘₯

∞

βˆ’βˆž

𝑓𝑍 𝑧 =16

3 π‘₯ + π‘₯ βˆ’ 𝑧 𝑑π‘₯

1

0.5+𝑧

= 16

3 2π‘₯ βˆ’ 𝑧 𝑑π‘₯

1

0.5+𝑧

𝑓𝑍 𝑧 = 16

3 π‘₯2 βˆ’ 𝑧π‘₯ 0.5+𝑧

1 =16

3 1 βˆ’ 𝑧 βˆ’ 0.5 + 𝑧 2 βˆ’ 𝑧(0.5 + 𝑧)

𝑓𝑍 𝑧 =16

3 1 βˆ’ 𝑧 βˆ’ (0.25 + 𝑧 + 𝑧2 βˆ’ 0.5𝑧 βˆ’ 𝑧2) =

16

3 1 βˆ’ 𝑧 βˆ’ (0.25 + 0.5𝑧)

𝑓𝑍 𝑧 =16

3 3

4βˆ’

3𝑧

2 = 4 βˆ’ 8𝑧 ; 0 ≀ 𝑧 ≀

1

2

DOS FUNCIONES DE DOS VARIABLES ALEATORIAS.

Dadas 2 V.A β€œx” e β€œy” las funciones g(x, y) y h(x, y), se forma sus V.A 𝑍 = 𝑔 π‘₯, 𝑦 , π‘Š = h(x, y).

𝐹𝑧𝑀 𝑧, 𝑀 = 𝑃 𝑍 ≀ 𝑧, π‘Š ≀ 𝑀

= 𝑃 g(x, y) ≀ 𝑧, h(x, y) ≀ 𝑀

= 𝑃 (x, y) ∈ D𝑧𝑀

𝐹𝑧𝑀 𝑧, 𝑀 = 𝑓π‘₯𝑦 π‘₯, 𝑦 𝑑π‘₯𝑑𝑦𝑧𝑀𝐷

𝑓𝑧𝑀 𝑧, 𝑀 =πœ•2𝐹𝑧𝑀 𝑧 ,𝑀

πœ•π‘πœ•π‘€

DefiniciΓ³n: Jacobino𝐽 π‘₯, 𝑦 de la transformaciΓ³n𝑍 = 𝑔 π‘₯, 𝑦 𝑒 π‘Š = h(x, y)es:

𝐽 π‘₯, 𝑦 =

𝑑𝑔

𝑑π‘₯

𝑑𝑔

𝑑𝑦𝑑𝑕

𝑑π‘₯

𝑑𝑕

𝑑𝑦

Page 27: FOLLETOFINAL

25

Teorema

Para determinar 𝑃𝑧𝑀 𝑧, 𝑀 se resuelve el sistema:

𝑍 = 𝑔 π‘₯, 𝑦

π‘Š = h x, y β†’ π‘₯, 𝑦 𝑒𝑛 π‘‘π‘’π‘Ÿπ‘šπ‘–π‘›π‘œπ‘  𝑑𝑒 𝑧, 𝑀.

Sean(π‘₯1, 𝑦1), (π‘₯2, 𝑦2), … , (π‘₯𝑛 , 𝑦𝑛) π‘‡π‘œπ‘‘π‘Žπ‘  π‘™π‘Žπ‘  π‘ π‘œπ‘™π‘’π‘π‘–π‘œπ‘›π‘’π‘  π‘Ÿπ‘’π‘Žπ‘™π‘’π‘ .

𝑍 = 𝑔(π‘₯1, 𝑦1) = 𝑔(π‘₯2 , 𝑦2) = β‹― = 𝑔(π‘₯𝑛 , 𝑦𝑛)

𝑀 = 𝑕(π‘₯1, 𝑦1) = 𝑕(π‘₯2, 𝑦2) = β‹― = 𝑕(π‘₯𝑛 , 𝑦𝑛)

𝑓𝑧𝑀 𝑧, 𝑀 = 𝑓π‘₯𝑦 (π‘₯𝑛 , 𝑦𝑛)

𝐽(π‘₯𝑛 , 𝑦𝑛)

𝑛

𝑛=1

Ejemplo:

𝑅, πœƒ β†’ V.A Independientes

𝑓𝑅 π‘Ÿ =π‘Ÿ

𝜍2𝑒

βˆ’π‘Ÿ2

2𝜍2 ; π‘Ÿ > 0

π‘“πœƒ πœƒ β†’ π‘’π‘›π‘–π‘“π‘œπ‘Ÿπ‘šπ‘’ 𝑒𝑛 (βˆ’πœ‹, πœ‹ )

TransformaciΓ³n:

π‘₯e𝑦 𝑒𝑛 π‘‘π‘’π‘Ÿπ‘šπ‘–π‘›π‘œπ‘  𝑑𝑒 πœƒ

π‘₯ = π‘…π‘π‘œπ‘ (πœƒ)

𝑦 = 𝑅𝑠𝑒𝑛(πœƒ)

1. 𝑓π‘₯𝑦 π‘₯ , 𝑦 = ? ?

SoluciΓ³n:

𝑅 𝑦 πœƒ 𝑒𝑛 π‘‘π‘’π‘Ÿπ‘šπ‘–π‘›π‘œπ‘  𝑑𝑒 π‘₯ 𝑒𝑦

π‘₯2 = 𝑅2π‘π‘œπ‘ 2(πœƒ)

𝑦2 = 𝑅2𝑠𝑒𝑛2(πœƒ)

π‘†π‘’π‘šπ‘Žπ‘›π‘‘π‘œ π‘’π‘ π‘‘π‘Žπ‘  π‘‘π‘œπ‘  π‘’π‘™π‘‘π‘–π‘šπ‘Žπ‘  π‘’π‘π‘’π‘Žπ‘π‘–π‘œπ‘›π‘’π‘ , π‘‘π‘’π‘›π‘’π‘šπ‘œπ‘  ∢

π‘₯2 + 𝑦2 = 𝑅2π‘π‘œπ‘ 2 πœƒ + 𝑅2𝑠𝑒𝑛2(πœƒ)

Page 28: FOLLETOFINAL

26

π‘₯2 + 𝑦2 = 𝑅2 π‘π‘œπ‘ 2 πœƒ + 𝑠𝑒𝑛2(πœƒ)

π‘π‘œπ‘Ÿ π‘–π‘‘π‘’π‘›π‘‘π‘–π‘‘π‘Žπ‘‘ π‘ƒπ‘–π‘‘π‘Žπ‘”π‘œπ‘Ÿπ‘–π‘π‘Ž:

π‘₯2 + 𝑦2 = 𝑅2 1

∴ 𝑅 = Β± π‘₯2 + 𝑦2

π‘₯

𝑦=

cos(πœƒ)

𝑠𝑒𝑛(πœƒ)

π‘₯

𝑦=

1

π‘‘π‘Žπ‘›(πœƒ)

tan πœƒ =𝑦

π‘₯

∴ πœƒ = arctan 𝑦

π‘₯

𝑓𝑅,πœƒ π‘Ÿ, πœƒ =π‘Ÿ

𝜍2𝑒

βˆ’π‘Ÿ2

2𝜍2 βˆ™1

2πœ‹

𝐽 π‘Ÿ, πœƒ =

𝑑π‘₯

π‘‘π‘Ÿ

𝑑π‘₯

π‘‘πœƒπ‘‘π‘¦

π‘‘π‘Ÿ

𝑑𝑦

π‘‘πœƒ

= cos(πœƒ) βˆ’π‘…π‘ π‘’π‘›(πœƒ)

𝑠𝑒𝑛(πœƒ) π‘…π‘π‘œπ‘ (πœƒ) = π‘…π‘π‘œπ‘ 2 πœƒ + 𝑅𝑠𝑒𝑛2 πœƒ = 𝑅

𝐽 π‘Ÿ, πœƒ = 𝑅

𝑓π‘₯𝑦 π‘₯, 𝑦 = π‘“π‘Ÿ ,πœƒ (π‘Ÿ, πœƒ)

𝐽(π‘Ÿ, πœƒ)

𝑁

𝑛=1

=π‘Ÿπ‘’

βˆ’π‘Ÿ2

2πœƒ2

π‘Ÿβˆ™

1

2πœ‹πœƒ2

𝑓π‘₯𝑦 π‘₯, 𝑦 = 𝑒

βˆ’ π‘₯ 2+𝑦2

2𝜍2

2πœ‹πœ2+

π‘’βˆ’

π‘₯ 2+𝑦2

2𝜍2

2πœ‹πœ2

𝑓π‘₯𝑦 π‘₯, 𝑦 = 𝑒

βˆ’ π‘₯ 2+𝑦2

2𝜍2

πœ‹πœ2

Page 29: FOLLETOFINAL

27

FunciΓ³n CaracterΓ­stica

Si z=g(x,y) β†’ Ξ¦z(w) =E[egwz]

Si z =x+y β†’ Ξ¦z(w) =E[egw(x+y)]

Si x e y son independientes

Ξ¦z(w) =E[egwx] E[egwy+ = Ξ¦x(w)*Ξ¦y(w)

Si z=x+y β†’ fz(z) = 𝑓π‘₯𝑦 (𝑧 βˆ’ 𝑦, 𝑦)π‘‘π‘¦βˆž

βˆ’βˆž

𝑓𝑧 𝑧 = 𝑓π‘₯ 𝑧 βˆ’ 𝑦 𝑓𝑦 𝑦 𝑑𝑦 = 𝑓π‘₯ (𝑧) βŠ› 𝑓𝑦 (𝑧)∞

βˆ’βˆž

Probabilidad Condicional

πΉπ‘Œ 𝑦 π‘₯ = π‘₯π‘˜ =𝑃[π‘Œ ≀ 𝑦, 𝑋 = π‘₯π‘˜]

𝑃[π‘₯ = π‘₯π‘˜]

π‘“π‘Œ 𝑦 π‘₯ = π‘₯π‘˜ =𝑑 πΉπ‘Œ 𝑦 π‘₯ = π‘₯π‘˜

𝑑π‘₯

π‘“π‘Œ 𝑦 π‘₯ = π‘₯π‘˜ =π‘“π‘‹π‘Œ (π‘₯, 𝑦)

𝑓π‘₯ (π‘₯)

Si x e y son independientes

πΉπ‘Œ 𝑦 π‘₯ = π‘₯π‘˜ = πΉπ‘Œ(𝑦)

Si x e y son V.A discretas

𝑃 π‘Œ ≀ 𝑦, 𝑋 = π‘₯π‘˜ = 𝑃[𝑋 = π‘₯π‘˜ , π‘Œ = 𝑦]

𝑃[π‘₯ = π‘₯π‘˜]

Momentos Condicionales

𝐸 𝑦 𝑋 = π‘₯ = 𝑦𝑓𝑦 𝑦 π‘₯ = π‘₯ 𝑑𝑦 β†’ 𝑉. 𝐴 πΆπ‘œπ‘›π‘‘π‘–π‘›π‘’π‘Žβˆž

βˆ’βˆž

𝐸 𝑦 𝑋 = π‘₯ = 𝑦𝑗 𝑃 𝑦 π‘₯ = π‘₯ β†’ 𝑉. 𝐴 π·π‘–π‘ π‘π‘Ÿπ‘’π‘‘π‘Ž

𝑁

𝑗 =1

Page 30: FOLLETOFINAL

28

Momentos Conjuntos

Dadas dos V.A x,y e fXY(x,y) y z=g(x,y)

𝐸 𝑔 π‘₯, 𝑦 = 𝑔(π‘₯, 𝑦)π‘“π‘‹π‘Œ (π‘₯, 𝑦)𝑑π‘₯π‘‘π‘¦βˆž

βˆ’βˆž

β†’ 𝑉. 𝐴 πΆπ‘œπ‘›π‘‘π‘–π‘›π‘’π‘Žβˆž

βˆ’βˆž

𝐸 𝑔 π‘₯, 𝑦 = 𝑔(π‘₯, 𝑦)

𝑖 ,π‘˜

𝑃 π‘₯ = π‘₯𝑖 ; π‘Œ = π‘¦π‘˜ β†’ 𝑉. 𝐴 π·π‘–π‘ π‘π‘Ÿπ‘’π‘‘π‘Ž

Covarianza

πΆπ‘‹π‘Œ = 𝐸 x βˆ’ 𝑛π‘₯ y βˆ’ 𝑛𝑦 = 𝐸 π‘‹π‘Œ βˆ’ 𝑛π‘₯𝑛𝑦

Coeficiente de covarianza

𝛾 =πΆπ‘‹π‘Œ

𝜍π‘₯πœπ‘¦ ; 0 ≀ π‘Ÿ ≀ 1 β†’ πΆπ‘‹π‘Œ ≀ 𝜍π‘₯πœπ‘¦

Teorema

Dos V.A se dice que son no correlacionadas si CXY =0

E[XY] =nXnY =E[X]E[Y]

Ortogonalidad

Dos V.A se dice que son ortogonales si el E[XY]=0

Teorema

Si dos V.A son independientes entre sΓ­ entonces son no correlacionadas.

Page 31: FOLLETOFINAL

29

FunciΓ³n CaracterΓ­stica Conjunta

πœ™π‘‹π‘Œ 𝑀1,𝑀2 = 𝐸 𝑒𝑔 𝑀1𝑋+𝑀2π‘Œ = π‘“π‘‹π‘Œ π‘₯, 𝑦 𝑒𝑔 𝑀1𝑋+𝑀2π‘Œ 𝑑π‘₯π‘‘π‘¦βˆž

βˆ’βˆž

∞

βˆ’βˆž

Por consiguiente πœ™π‘‹π‘Œ 𝑀1,𝑀2 es la transformada de Fourier de π‘“π‘‹π‘Œ π‘₯, 𝑦

Ejemplo:

Sea(X,Y) una variable aleatoria bidimensional con funciΓ³n de densidad

𝑓π‘₯ ,𝑦 𝑋, π‘Œ = 1 ; 𝑠𝑖 0 ≀ π‘₯ ≀ 1, 0 ≀ 𝑦 ≀ 1

0 ; 𝑒𝑛 𝑒𝑙 π‘Ÿπ‘’π‘ π‘‘π‘œ

Determinar:

La funciΓ³n de densidad de S= (X + Y)/ 2.

La covarianza entre S y X.

La 𝑃(𝑋 ≀ 0.5 , 𝑠 ≀ 1).

SoluciΓ³n:

Si 𝑆 ∈ 0 ,1

2

𝑃 𝑆 ≀ 𝑠 = 𝑃(0 ≀ 𝑋 ≀ 2𝑠 , 0 ≀ π‘Œ ≀ 2𝑠 βˆ’ π‘₯)

𝑃 𝑆 ≀ 𝑠 = 1 𝑑𝑦 𝑑π‘₯2π‘ βˆ’π‘₯

0

2𝑠

0

= 2𝑠 βˆ’ π‘₯ 𝑑π‘₯2𝑠

0

𝑃 𝑆 ≀ 𝑠 = 2 𝑠2

Si 𝑆 ∈ 1

2 , 1

𝑃 𝑆 ≀ 𝑠 = 1 βˆ’ 𝑃 𝑆 > 𝑠 = 1 βˆ’ 𝑃(2𝑠 βˆ’ 1 ≀ 𝑋 ≀ 1 , 2𝑠 βˆ’ π‘₯ ≀ π‘Œ ≀ 1)

𝑃 𝑆 ≀ 𝑠 = 1 βˆ’ 1 𝑑𝑦 𝑑π‘₯1

2π‘ βˆ’π‘₯

1

2π‘ βˆ’1

𝑃 𝑆 ≀ 𝑠 = 1 βˆ’ 2 𝑠 βˆ’ 1 2

Page 32: FOLLETOFINAL

30

𝐹𝑠 𝑠 =

0 ; 𝑠 < 0

2𝑠2 ; 0 ≀ 𝑠 < 1/2

1 βˆ’ 2 𝑠 βˆ’ 1 2 ; 1

2≀ 𝑠 < 1

1 ; 𝑠 β‰₯ 1

𝑓𝑠 𝑠 =

4𝑠 ; 0 ≀ 𝑠 < 1/2

βˆ’4 𝑠 βˆ’ 1 ; 1

2≀ 𝑠 < 1

0 ; 𝑅𝐸𝑆𝑇𝑂

b)

πΆπ‘œπ‘£ 𝑋, 𝑆 = 𝐸 𝑋𝑆 βˆ’ 𝐸 𝑋 𝐸 𝑆 = 𝐸 𝑋 𝑋 + π‘Œ

2 βˆ’ 𝐸 𝑋 𝐸 𝑆

πΆπ‘œπ‘£ 𝑋, 𝑆 =1

2𝐸 𝑋2 +

1

2𝐸 π‘‹π‘Œ βˆ’ 𝐸 𝑋 𝐸 𝑆

𝐸 𝑋 = π‘₯ 𝑑𝑦 𝑑π‘₯1

0

1

0

=1

2

𝐸 𝑋2 = π‘₯2 𝑑𝑦 𝑑π‘₯1

0

1

0

=1

3

𝐸 π‘‹π‘Œ = π‘₯𝑦 𝑑𝑦 𝑑π‘₯1

0

1

0

=1

4

𝐸 𝑆 =1

2𝐸 𝑋 +

1

2𝐸 π‘Œ =

1

2

πΆπ‘œπ‘£ 𝑋, 𝑆 =1

24

Esto podemos resolverlo graficando la zona que nos

piden

𝑃 π‘₯ ≀ 0.5 , π‘₯ + 𝑦 ≀ 2 =1

2

Page 33: FOLLETOFINAL

31

Secuencia de Variables Aleatorias

Sean 𝑛 variables aleatorias X1 , X2, … , Xn , entonces

𝐹X1 ,X2 ,…,Xn X1 , X2 , … , Xn = P(X1 ≀ x1 , X2 ≀ x2, … , Xn ≀ xn )

𝑓𝑋1 ,𝑋2 ,…,𝑋𝑛 𝑋1, 𝑋2, … , 𝑋𝑛 =

𝑑𝑛𝐹𝑋1 ,𝑋2 ,…,𝑋𝑛(𝑋1, 𝑋2, … , 𝑋𝑛)

𝑑𝑋1, 𝑑𝑋2, … , 𝑑𝑋𝑛

… 𝑓X1 ,X2 ,…,Xn X1 , X2, … , Xn dX1, dX2, … , dXn

∞

βˆ’βˆž

∞

βˆ’βˆž

∞

βˆ’βˆž

∞

βˆ’βˆž

= 1

𝑃 X1, X2 , … , Xn ∈ 𝐷𝑧 = … 𝑓X1 ,X2 ,…,Xn(X1, X2 , … , Xn )dX1, dX2, … , dXn

𝐷𝑧

Densidades Marginales

𝐹𝑋1 ,𝑋3 𝑋1, 𝑋3 = 𝐹𝑋1 ,𝑋2 ,𝑋3 ,𝑋4

𝑋1, ∞, 𝑋3, ∞

𝑓𝑋1 ,𝑋3 𝑋1, 𝑋3 = 𝑓𝑋1 ,𝑋2 ,𝑋3 ,𝑋4

𝑋1, 𝑋2, 𝑋3, 𝑋4 𝑑𝑋2𝑑𝑋4

∞

βˆ’βˆž

∞

βˆ’βˆž

Densidad Condicional

La distribuciΓ³n marginal de X es simplemente la ley de probabilidad de X haciendo caso

omiso de la informaciΓ³n referente a Y

𝑓 𝑋1, 𝑋2, … , π‘‹π‘˜ π‘‹π‘˜+1, π‘‹π‘˜+2, … , 𝑋𝑛 =𝑓(𝑋1, 𝑋2, π‘‹π‘˜+1, π‘‹π‘˜+2, … , 𝑋𝑛)

𝑓(π‘‹π‘˜+1 , π‘‹π‘˜+2, … , 𝑋𝑛)

Page 34: FOLLETOFINAL

32

Ejemplo:

𝑓 𝑋1 𝑋2, 𝑋3 =𝑓(𝑋1, 𝑋2, 𝑋3)

𝑓(𝑋2, 𝑋3)

𝐹 𝑋1 𝑋2, 𝑋3 = 𝑓 ∝1 𝑋2, 𝑋3 𝑋1

βˆ’βˆž

𝑑 ∝1

Ejemplo:

𝑓 𝑋1, 𝑋3 𝑋2, 𝑋4 =𝑓(𝑋1, 𝑋2, 𝑋3, 𝑋4)

𝑓(𝑋2, 𝑋4)

𝐹 𝑋1, 𝑋3 𝑋2, 𝑋4 = 𝑓 ∝1, ∝3 𝑋2, 𝑋4 𝑑 ∝1

𝑋3

βˆ’βˆž

𝑋1

βˆ’βˆž

𝑑 ∝3

Regla de la Cadena

𝑓 𝑋1, 𝑋2, 𝑋3, … , 𝑋𝑛

= 𝑓 𝑋𝑛 π‘‹π‘›βˆ’1, π‘‹π‘›βˆ’2, … , 𝑋1 βˆ— 𝑓 π‘‹π‘›βˆ’1 π‘‹π‘›βˆ’2, π‘‹π‘›βˆ’3, … , 𝑋1 βˆ— 𝑓 π‘‹π‘›βˆ’2 π‘‹π‘›βˆ’3, π‘‹π‘›βˆ’4, … , 𝑋1 βˆ— …

βˆ— 𝑓 𝑋2 𝑋1 βˆ— 𝑓 𝑋1

RemociΓ³n de Variables

Dado 𝑓 𝑋1, 𝑋2, 𝑋3 𝑋4, 𝑋5 ;

NotaciΓ³n:

𝑋1, 𝑋2, 𝑋3 => 𝑉. 𝐴. 𝑑𝑒 π‘™π‘Ž π‘–π‘§π‘žπ‘’π‘–π‘’π‘Ÿπ‘‘π‘Ž

𝑋4, 𝑋5 => 𝑉. 𝐴. 𝑑𝑒 π‘™π‘Ž π‘‘π‘’π‘Ÿπ‘’π‘π‘•π‘Ž

Para remover una V.A. de la β€œderecha” se multiplica por la densidad condicional de las variables

que desea remover, dado el resto de las variables de la derecha y se integra con respecto a ellas

de βˆ’βˆž π‘Ž ∞

Para remover una V.A. de la β€œizquierda” se integra con respecto a esa variable.

Page 35: FOLLETOFINAL

33

Ejemplo:

Dado 𝑓 𝑋1, 𝑋2 𝑋3 , remover 𝑋2

𝑓 𝑋1 𝑋3 = 𝑓 𝑋1, 𝑋2 𝑋3 𝑑𝑋2

∞

βˆ’βˆž

Dado 𝑓 𝑋1 𝑋2, 𝑋3, 𝑋4 , hallar 𝑓 𝑋1 𝑋4

𝑓 𝑋1 𝑋4 = 𝑓 𝑋1 𝑋2, 𝑋3, 𝑋4 βˆ— 𝑓 𝑋2, 𝑋3 𝑋4 𝑑𝑋2𝑑𝑋3

∞

βˆ’βˆž

∞

βˆ’βˆž

Variables Aleatorias Independientes

Supongamos que "X" e "Y" son variables aleatorias discretas. Si los eventos X = x / Y = y son

variables aleatorias independientes. En tal caso: P(X = x, Y = y) = P( X = x) P ( Y = y).

De manera equivalente: f(x,y) = f1(x).f2(y).

De manera general:

𝐹𝑋1 ,𝑋2 ,…,𝑋𝑛 𝑋1 , 𝑋2, … , 𝑋𝑛 = 𝐹𝑋1

𝑋1 βˆ— 𝐹𝑋2 𝑋2 βˆ— β€¦βˆ— 𝐹𝑋𝑛

𝑋𝑛

𝑓𝑋1 ,𝑋2 ,…,𝑋𝑛 𝑋1 , 𝑋2, … , 𝑋𝑛 = 𝑓𝑋1

𝑋1 βˆ— 𝑓𝑋2 𝑋2 βˆ— β€¦βˆ— 𝑓𝑋𝑛

𝑋𝑛

Suma de Variables Aleatorias

Sean 𝑋1, 𝑋2, … , 𝑋𝑛 una secuencia de variables aleatorias.

En forma particular analizaremos 𝑆𝑛 = 𝑋1 + 𝑋2

𝐸 𝑆𝑛 = 𝐸 𝑋1 + 𝑋2 = 𝐸 𝑋1 + 𝐸[𝑋2]

π‘‰π‘Žπ‘Ÿ 𝑆𝑛 = π‘‰π‘Žπ‘Ÿ 𝑋1 + π‘‰π‘Žπ‘Ÿ 𝑋2 + 2πΆπ‘œπ‘£(𝑋1, 𝑋2)

En forma general

𝐸 𝑆𝑛 = 𝐸 𝑋1 + 𝐸 𝑋2 + β‹― + 𝐸[𝑋𝑛 ]

π‘‰π‘Žπ‘Ÿ 𝑆𝑛 = π‘‰π‘Žπ‘Ÿ(π‘‹π‘˜)

𝑛

π‘˜=1

+ πΆπ‘œπ‘£(𝑋𝑗 , π‘‹π‘˜)

𝑛

π‘˜=1

𝑛

𝑗 =1

Page 36: FOLLETOFINAL

34

Teorema del Limite Central

Sea 𝑆𝑛 la suma de 𝑛 variables aleatorias independientes con igual distribuciΓ³n con

𝐸 𝑋 = 𝑒 y π‘‰π‘Žπ‘Ÿ 𝑋 = 𝜍2

Siendo

𝑍𝑛 =𝑆𝑛 βˆ’ 𝐸 𝑆𝑛

πœπ‘†π‘›

=𝑆𝑛 βˆ’ 𝑛𝑒

𝜍 𝑛

entonces

limπ‘›β†’βˆž

𝐹 𝑍𝑛 ≀ 𝑍 = π‘’βˆ’π‘‹2

2 𝑑𝑋𝑍

βˆ’βˆž

Nota: Se aplica independientemente de la distribuciΓ³n de las variables aleatorias equis. Es decir

que no importa si esta es binomial, exponencial, geomΓ©trica, etc.

Ejemplo:

Suponga que las ordenes en un comedor son variables aleatorias idΓ©nticamente

distribuidas con media igual a $8 y una desviaciΓ³n estΓ‘ndar de $2. Determine:

a) La probabilidad de que los primeros 100 clientes gasten un total de mΓ‘s de $860

b) La probabilidad de que los primeros 100 clientes gasten un total entre $760 y $840

c) DespuΓ©s de cuantas ordenes se puede estar un 95% seguro que el total gastado por todos

los clientes es mas de $1000

SoluciΓ³n:

𝑛 = 8 ; 𝜍 = 2

a)

𝑍𝑛 =860 βˆ’ 100(8)

2 (10)= 3

Entonces

𝑃 𝑧 > 3 = 0.9987

b)

𝑍𝑛 =840 βˆ’ 100(8)

2 (10)= 2

Page 37: FOLLETOFINAL

35

𝑍𝑛 =760 βˆ’ 100(8)

2 (10)= βˆ’2

Entonces

𝑃 2 > 𝑧 > βˆ’2 = 0.544

c)

𝑍𝑛 =1000 βˆ’ 𝑛(8)

2 ( 𝑛)

𝑃 𝑧 <1000 βˆ’ 8𝑛

2 𝑛 = 0.95

Entonces

1000 βˆ’ 8𝑛

2 𝑛= 1.6

1000000 βˆ’ 16000𝑛 + 64𝑛2 = 10.24𝑛

1𝑀 βˆ’ 16𝐾𝑛 βˆ’ 10.24𝑛 + 64𝑛2 = 0

𝑛 =16010.24 Β± 256327784.9 βˆ’ 4 1𝑀 (64)

2(64)=

16010.24 Β± 572.5

128= {

120.6129.5

β†’ 𝑛 = 120.6

Redondeando

𝑛 = 121 π‘œπ‘Ÿπ‘‘π‘’π‘›π‘’π‘ 

Ejemplo:

Un estudiante usa lΓ‘pices cuya duraciΓ³n es una variable aleatoria exponencial con media

de una semana. Use el teorema del lΓ­mite central para determinar el mΓ­nimo numero de lΓ‘pices

que deberΓ­a comprar al inicio del semestre (15 semanas) para tener una probabilidad de 0.99 de

no quedarse sin lΓ‘pices durante el semestre.

SoluciΓ³n:

𝑛 π‘™π‘Žπ‘π‘–π‘π‘’π‘  π‘π‘Žπ‘Ÿπ‘Ž 𝑆𝑛 15 π‘ π‘’π‘šπ‘Žπ‘›π‘Žπ‘ 

𝑒 = 1 ; 𝜍 = 1 ; 𝑆𝑛 = 15

Page 38: FOLLETOFINAL

36

𝑃 𝑍 <15 βˆ’ 𝑛

𝑛 = 0.99

15 βˆ’ 𝑛

𝑛= 2.325

225 βˆ’ 30𝑛 + 𝑛2 = 5.4056𝑛

225 βˆ’ 35.4056𝑛 + 𝑛2 = 0

𝑛1 = 8.3

𝑛2 = 27.1

Entonces el nΓΊmero de lΓ‘pices mΓ­nimo es 9.

Procesos Aleatorios o Estocasticos

Un proceso estocΓ‘stico es un concepto matemΓ‘tico que sirve para caracterizar una

sucesiΓ³n de variables aleatorias (estocΓ‘sticas) que evolucionan en funciΓ³n de otra variable,

generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia funciΓ³n

de distribuciΓ³n de probabilidad y, entre ellas, pueden estar correlacionadas o no.

Cada variable o conjunto de variables sometidas a influencias o impactos aleatorios

constituye un proceso estocΓ‘stico.

,X t

β†’ V.A. que nos proporciona informaciΓ³n

𝐹𝑋 𝑑 𝑋(𝑑) = 𝑃 𝑋(𝑑) ≀ π‘₯(𝑑)

Page 39: FOLLETOFINAL

37

Ejemplo:

Hallar 𝑒𝑋 𝑑 y π‘£π‘Žπ‘Ÿ 𝑋 𝑑 del siguiente proceso estocΓ‘stico, si se sabe que A es una variable

aleatoria uniforme con intervalo (0,2)

𝑋 𝑑, 𝐴 = 𝐴𝑆𝑒𝑛(𝑀𝑑)

𝐴 β†’ π‘‰π‘Žπ‘Ÿπ‘–π‘Žπ‘π‘™π‘’ π΄π‘™π‘’π‘Žπ‘‘π‘œπ‘Ÿπ‘–π‘Ž π‘ˆπ‘›π‘–π‘“π‘œπ‘Ÿπ‘šπ‘’ 𝑉. 𝐴. π‘ˆ. β†’ (0,2)

Se asume que wt es constante.

1era Forma de Resolverlo:

𝑒𝑋(𝑑) = 𝐸 𝑋 𝑑 = 𝐸 𝐴𝑆𝑒𝑛 𝑀𝑑 = 𝑆𝑒𝑛 𝑀𝑑 𝐸 𝐴 = 𝑆𝑒𝑛 𝑀𝑑 𝐴0.5∞

βˆ’βˆž

𝑑𝐴

= 𝑆𝑒𝑛 𝑀𝑑 0.5𝐴𝑑𝐴2

0

= 𝑆𝑒𝑛 𝑀𝑑 1

20.5𝐴2|0

2 = 𝑆𝑒𝑛 𝑀𝑑 0.5 2 2

2= 𝑆𝑒𝑛(𝑀𝑑)

π‘£π‘Žπ‘Ÿ 𝑋 𝑑 = 𝐸 𝑋 𝑑 βˆ’ 𝑒𝑋 𝑑 2 = 𝐸 𝑋 𝑑 2 βˆ’ 𝑒𝑋(𝑑)

2 = 𝐸 𝐴2𝑆𝑒𝑛2 𝑀𝑑 βˆ’ 𝑆𝑒𝑛2 𝑀𝑑

= 𝑆𝑒𝑛2 𝑀𝑑 𝐸 𝐴2 βˆ’ 𝑆𝑒𝑛2 𝑀𝑑 = 𝑆𝑒𝑛2 𝑀𝑑 𝐴20.5 𝑑𝐴2

0

βˆ’ 𝑆𝑒𝑛2 𝑀𝑑

= 𝑆𝑒𝑛2 𝑀𝑑 0.5

3𝐴3|0

2 βˆ’ 𝑆𝑒𝑛2 𝑀𝑑 = 𝑆𝑒𝑛2 𝑀𝑑 0.5 (8)

3 βˆ’ 𝑆𝑒𝑛2 𝑀𝑑

= 4

3𝑆𝑒𝑛2 𝑀𝑑 βˆ’ 𝑆𝑒𝑛2 𝑀𝑑 =

1

3𝑆𝑒𝑛2(𝑀𝑑)

2da Forma de Resolverlo:

𝑓𝐴 π‘Ž = 0,5 ; 0 ≀ π‘Ž ≀ 2

0 ; π‘œπ‘‘π‘Ÿπ‘œ π‘Ž

𝐹𝐴 π‘Ž = 1 ; π‘Ž β‰₯ 2

0.5𝐴 ; 0 ≀ π‘Ž < 20 ; π‘Ž < 0

Page 40: FOLLETOFINAL

38

𝐹𝑋 𝑑 (𝑋 𝑑 ) = 𝑃 𝑋 𝑑 ≀ π‘₯ 𝑑 = 𝑃 𝐴𝑆𝑒𝑛 𝑀𝑑 ≀ π‘₯ 𝑑 = 𝑃 𝐴 ≀π‘₯ 𝑑

𝑆𝑒𝑛 𝑀𝑑 = 𝐹𝐴

π‘₯ 𝑑

𝑆𝑒𝑛 𝑀𝑑

𝐹𝑋 𝑑 =

1 ; 𝑋 𝑑 β‰₯ 2𝑆𝑒𝑛(𝑀𝑑)

0.5 𝑋(𝑑)

𝑆𝑒𝑛(𝑀𝑑) ; 0 ≀ 𝑋(𝑑) < 2𝑆𝑒𝑛(𝑀𝑑)

0 ; 𝑋 𝑑 < 0

Para obtener los lΓ­mites hacemos lo siguiente:

𝑋 𝑑 = 𝐴𝑆𝑒𝑛 𝑀𝑑 ; 𝐴 ∈ 0,2 β†’ 𝑋 𝑑 ∈ 0,2𝑆𝑒𝑛 𝑀𝑑

Luego derivamos 𝐹𝑋(𝑑) para obtener 𝑓𝑋(𝑑):

𝑓𝑋(𝑑) =

0.5

𝑆𝑒𝑛(𝑀𝑑) ; 0 ≀ 𝑋(𝑑) ≀ 2𝑆𝑒𝑛(𝑀𝑑)

0 ; π‘‚π‘‘π‘Ÿπ‘œ 𝑋(𝑑)

Con lo que podemos hallar 𝑒𝑋(𝑑):

𝑒𝑋(𝑑) = 𝐸 𝑋 𝑑 = 𝑋 𝑑 0.5

𝑆𝑒𝑛 𝑀𝑑 𝑑𝑋 𝑑

2𝑆𝑒𝑛 (𝑀𝑑 )

0

=𝑋(𝑑)2

4𝑆𝑒𝑛(𝑀𝑑)|0

2𝑆𝑒𝑛 (𝑀𝑑 )=

4𝑆𝑒𝑛2(𝑀𝑑)

4𝑆𝑒𝑛(𝑀𝑑)

= 𝑆𝑒𝑛(𝑀𝑑)

Igual procedimiento se puede realizar para obtener la varianza de X(t).

AutocorrelaciΓ³n

La autocorrelaciΓ³n es la correlaciΓ³n cruzada de un seΓ±al consigo misma.

La funciΓ³n de autocorrelaciΓ³n resulta de gran utilidad para encontrar patrones repetitivos

dentro de una seΓ±al, como por ejemplo, la periodicidad de una seΓ±al enmascarada bajo el ruido o

para identificar la frecuencia fundamental de una seΓ±al que no contiene dicha componente, pero

aparecen numerosas frecuencias armΓ³nicas de esta.

𝑅𝑋 𝑑1 , 𝑑2 = 𝐸[𝑋 𝑑1 , 𝑋(𝑑2)]

Page 41: FOLLETOFINAL

39

Crosscorrelacion

La correlaciΓ³n cruzada es una medida de la similitud de dos formas de onda como una

funciΓ³n de un desfase aplicado a uno de ellos. Esto tambiΓ©n se conoce como un deslizamiento

producto punto o corredera interior-producto.

π‘…π‘‹π‘Œ 𝑑1 , 𝑑2 = 𝐸[𝑋 𝑑1 , π‘Œ(𝑑2)]

Autocovarianza

Es el cΓ‘lculo de la crosscovarianza de un proceso consigo mismo.

𝐢𝑋 𝑑1 , 𝑑2 = 𝐸[ 𝑋 𝑑1 βˆ’ π‘šπ‘‹(𝑑1) 𝑋 𝑑2 βˆ’ π‘šπ‘‹(𝑑2) ]

Crosscovarianza

El tΓ©rmino covarianza transversal se utiliza para referirse a la covarianza cov (X, Y) entre

dos vectores aleatorios X y Y, con el fin de distinguir que el concepto de la "covarianza" de un

vector X al azar, que se entiende ser la matriz de covarianzas entre los componentes escalares de

X.

πΆπ‘‹π‘Œ 𝑑1 , 𝑑2 = 𝐸[ 𝑋 𝑑1 βˆ’ π‘šπ‘‹(𝑑1) π‘Œ 𝑑2 βˆ’ π‘šπ‘Œ(𝑑2) ]

Simplificaciones para tener en cuenta:

𝐢𝑋 𝑑1 , 𝑑2 = 𝑅𝑋 𝑑1, 𝑑2 βˆ’ π‘šπ‘‹ 𝑑1 π‘šπ‘‹(𝑑2)

π‘‰π‘Žπ‘Ÿ 𝑋 𝑑 = 𝐸 𝑋 𝑑 βˆ’ π‘šπ‘‹ 𝑑 2 = 𝐢𝑋 𝑑, 𝑑 = 𝐸 𝑋 𝑑 2 βˆ’ 𝐸[𝑋(𝑑)]2 = 𝐸 𝑋 𝑑 𝑋 𝑑 βˆ’ 𝐸 𝑋 𝑑 2

= 𝑅𝑋(𝑑, 𝑑) βˆ’ 𝐸[𝑋(𝑑)]2

Page 42: FOLLETOFINAL

40

Coeficiente de CorrelaciΓ³n

El coeficiente de correlaciΓ³n de Pearson es un Γ­ndice que mide la relaciΓ³n lineal entre dos

variables aleatorias cuantitativas. A diferencia de la covarianza, la correlaciΓ³n de Pearson es

independiente de la escala de medida de las variables.

πœŒπ‘‹ 𝑑1, 𝑑2 =𝐢𝑋(𝑑1 , 𝑑2)

𝐢𝑋(𝑑1 , 𝑑1) 𝐢𝑋 (𝑑2 , 𝑑2) ; πœŒπ‘‹(𝑑1, 𝑑2) ≀ 1

Ejemplo:

Dado un proceso estocΓ‘stico X(t) y la variable aleatoria πœƒ. Hallar E[X(t)] y 𝑅𝑋(𝑑1 , 𝑑2)

𝑋 𝑑 = π΄πΆπ‘œπ‘  𝑀𝑑 + πœƒ

πœƒ => 𝑉. 𝐴. π‘ˆπ‘›π‘–π‘“π‘œπ‘Ÿπ‘šπ‘’ 0, 2πœ‹

𝐴, 𝑀 = π‘π‘œπ‘›π‘ π‘‘π‘Žπ‘›π‘‘π‘’π‘ 

SoluciΓ³n:

πœƒ =1

2πœ‹

𝐸 𝑋 𝑑 = 𝐸 π΄πΆπ‘œπ‘  𝑀𝑑 + πœƒ = 𝐸 π΄πΆπ‘œπ‘  𝑀𝑑 πΆπ‘œπ‘ πœƒ βˆ’ 𝐴𝑆𝑒𝑛 𝑀𝑑 π‘†π‘’π‘›πœƒ

= π΄πΆπ‘œπ‘  𝑀𝑑 𝐸 πΆπ‘œπ‘ πœƒ βˆ’ 𝐴𝑆𝑒𝑛 𝑀𝑑 𝐸 π‘†π‘’π‘›πœƒ

= π΄πΆπ‘œπ‘  𝑀𝑑 πΆπ‘œπ‘ πœƒ2πœ‹

0

1

2πœ‹π‘‘πœƒ βˆ’ 𝐴𝑆𝑒𝑛 𝑀𝑑 π‘†π‘’π‘›πœƒ

2πœ‹

0

1

2πœ‹π‘‘πœƒ

= π΄πΆπ‘œπ‘  𝑀𝑑 1

2πœ‹ π‘†π‘’π‘›πœƒ 0

2πœ‹ + 𝐴𝑆𝑒𝑛 𝑀𝑑 1

2πœ‹ πΆπ‘œπ‘ πœƒ 0

2πœ‹ = 0

𝑅𝑋 𝑑1 , 𝑑2 = 𝐸 𝑋 𝑑1 𝑋 𝑑2

= 𝐸 π΄πΆπ‘œπ‘  𝑀𝑑1 πΆπ‘œπ‘ πœƒ βˆ’ 𝐴𝑆𝑒𝑛 𝑀𝑑1 π‘†π‘’π‘›πœƒ π΄πΆπ‘œπ‘  𝑀𝑑2 πΆπ‘œπ‘ πœƒ βˆ’ 𝐴𝑆𝑒𝑛 𝑀𝑑2 π‘†π‘’π‘›πœƒ

= 𝐸 𝐴2πΆπ‘œπ‘ 2πœƒπΆπ‘œπ‘  𝑀𝑑1 πΆπ‘œπ‘  𝑀𝑑2 + 𝐴2𝑆𝑒𝑛2πœƒπ‘†π‘’π‘› 𝑀𝑑1 𝑆𝑒𝑛 𝑀𝑑2

βˆ’ 𝐴2πΆπ‘œπ‘  𝑀𝑑1 𝑆𝑒𝑛 𝑀𝑑2 πΆπ‘œπ‘ πœƒπ‘†π‘’π‘›πœƒ βˆ’ 𝐴2𝑆𝑒𝑛 𝑀𝑑1 πΆπ‘œπ‘  𝑀𝑑2 πΆπ‘œπ‘ πœƒπ‘†π‘’π‘›πœƒ

= 𝐴2πΆπ‘œπ‘  𝑀𝑑1 πΆπ‘œπ‘  𝑀𝑑2 𝐸 πΆπ‘œπ‘ 2πœƒ + 𝐴2𝑆𝑒𝑛 𝑀𝑑1 𝑆𝑒𝑛 𝑀𝑑2 𝐸 𝑆𝑒𝑛2πœƒ

βˆ’ 𝐴2πΆπ‘œπ‘  𝑀𝑑1 𝑆𝑒𝑛 𝑀𝑑2 + 𝐴2𝑆𝑒𝑛 𝑀𝑑1 πΆπ‘œπ‘  𝑀𝑑2 𝐸 πΆπ‘œπ‘ πœƒπ‘†π‘’π‘›πœƒ

Page 43: FOLLETOFINAL

41

𝐸 πΆπ‘œπ‘ 2πœƒ = 1

2πœ‹

1

2+

1

2πΆπ‘œπ‘ 2πœƒ π‘‘πœƒ

2πœ‹

0

=1

2πœ‹[1

2πœƒ +

1

4𝑆𝑒𝑛2πœƒ]0

2πœ‹ =1

2πœ‹πœ‹ =

1

2

𝐸 𝑆𝑒𝑛2πœƒ = 1

2πœ‹

1

2βˆ’

1

2πΆπ‘œπ‘ 2πœƒ π‘‘πœƒ

2πœ‹

0

=1

2πœ‹[1

2πœƒ βˆ’

1

4𝑆𝑒𝑛2πœƒ]0

2πœ‹ =1

2πœ‹πœ‹ =

1

2

𝐸 π‘†π‘’π‘›πœƒπΆπ‘œπ‘ πœƒ = 1

2πœ‹π‘†π‘’π‘›πœƒπΆπ‘œπ‘ πœƒπ‘‘πœƒ

2πœ‹

0

=1

4πœ‹ 𝑆𝑒𝑛2πœƒ 0

2πœ‹ = 0

Entonces

𝑅𝑋 𝑑1 , 𝑑2 =𝐴2

2πΆπ‘œπ‘  𝑀𝑑1 πΆπ‘œπ‘  𝑀𝑑2 +

𝐴2

2𝑆𝑒𝑛 𝑀𝑑1 𝑆𝑒𝑛 𝑀𝑑2 =

𝐴2

2πΆπ‘œπ‘  𝑀𝑑1 βˆ’ 𝑀𝑑2

=𝐴2

2πΆπ‘œπ‘ (𝑀 𝑑1 βˆ’ 𝑑2 )

Proceso Estacionario en Sentido Amplio (w.s.s.)

Se dice que un proceso estocΓ‘stico es estacionario en sentido amplio cuando cumple con las

dos siguientes condiciones:

1. 𝐸 𝑋 𝑑 = π‘šπ‘‹ = πΆπ‘œπ‘›π‘ π‘‘π‘Žπ‘›π‘‘π‘’ (sin 𝑑)

2. 𝐸 𝑋 𝑑 𝑋 𝑑 βˆ’ 𝜏 = 𝑅𝑋 𝜏 ; 𝑒𝑠 π‘‘π‘’π‘π‘–π‘Ÿ, π‘ π‘œπ‘™π‘œ 𝑒𝑛 π‘“π‘’π‘›π‘π‘–π‘œπ‘› 𝑑𝑒 𝜏 (sin 𝑑)

Propiedades de un P.E.S.A. (w.s.s.)

a) 𝑅𝑋 0 = 𝐸[𝑋(𝑑)2]

b) 𝑅𝑋 𝜏 = 𝑅𝑋 βˆ’πœ

c) 𝑅𝑋(𝜏) ≀ 𝑅𝑋 0 ; limπœβ†’βˆž 𝑅𝑋(𝜏) = (𝑒𝑋)2

d) La grafica de 𝑅𝑋(𝜏) nos da informaciΓ³n sobre el comportamiento temporal del proceso.

Nota: en algunos problemas utilizaremos 𝜏 = 𝑑1 βˆ’ 𝑑2

Page 44: FOLLETOFINAL

42

Ejemplo:

Calcular:

a) Media y autocorrelaciΓ³n de X(t) y Y(t)

b) La varianza de X(t) y la varianza entre X(1) y X(2)

c) FunciΓ³n de probabilidad y de densidad de X(t); t>0

d) P(Y(1)≀1)

Si se conoce lo siguiente:

A y B => Variables Aleatorias Independientes

A => DistribuciΓ³n exponencial con media 1

B => DistribuciΓ³n uniforme (0,1)

X(t) y Y(t) son procesos estocΓ‘sticos de la siguiente manera:

𝑋 𝑑 = π‘’βˆ’π΄π‘‘ ; 𝑑 > 0

π‘Œ 𝑑 = π‘’βˆ’π΄π‘‘+𝐡 ; 𝑑 > 0

SoluciΓ³n:

𝑓𝐡 = 1 ; 𝐡 ∈ 0,1

𝐹𝐡 = 𝐡 ; 𝐡 ∈ 0,1

𝑓𝐴 = π‘’βˆ’π΄ ; 𝐴 ∈ 0, ∞

𝐹𝐴 = 1 βˆ’ π‘’βˆ’π΄ ; 𝐴 ∈ (0, ∞)

a)

𝐸 𝑋 𝑑 = 𝐸 π‘’βˆ’π΄π‘‘ = π‘’βˆ’π΄π‘‘π‘’βˆ’π΄π‘‘π΄βˆž

0

= π‘’βˆ’π΄ 𝑑+1 π‘‘π΄βˆž

0

= βˆ’1

𝑑 + 1π‘’βˆ’π΄ 𝑑+1

0∞

=1

𝑑 + 1

𝐸 π‘Œ 𝑑 = 𝐸 π‘’βˆ’π΄π‘‘+𝐡 = 𝐸 π‘’βˆ’π΄π‘‘π‘’π΅ = π‘’βˆ’π΄π‘‘π‘’π΅π‘’βˆ’π΄π‘‘π΄π‘‘π΅βˆž

0

1

0

= 𝑒𝐡 π‘’βˆ’π΄(𝑑+1)π‘‘π΄π‘‘π΅βˆž

0

1

0

= 𝑒𝐡 βˆ’1

𝑑 + 1π‘’βˆ’π΄(𝑑+1)

∞0

𝑑𝐡1

0

=1

𝑑 + 1 𝑒𝐡𝑑𝐡

1

0

=1

𝑑 + 1𝑒𝐡

01

=𝑒

𝑑 + 1βˆ’

1

𝑑 + 1

=𝑒 βˆ’ 1

𝑑 + 1

Page 45: FOLLETOFINAL

43

𝑅𝑋 𝑑1 , 𝑑2 = 𝐸 𝑋 𝑑1 𝑋 𝑑2 = 𝐸 π‘’βˆ’π΄π‘‘1π‘’βˆ’π΄π‘‘2 = 𝐸 π‘’βˆ’π΄ 𝑑1+𝑑2 = π‘’βˆ’π΄ 𝑑1+𝑑2 π‘’βˆ’π΄π‘‘π΄βˆž

0

= π‘’βˆ’π΄ 𝑑1+𝑑2+1 π‘‘π΄βˆž

0

= βˆ’1

𝑑1 + 𝑑2 + 1π‘’βˆ’π΄ 𝑑1+𝑑2+1 ∞

0=

1

𝑑1 + 𝑑2 + 1

π‘…π‘Œ 𝑑1, 𝑑2 = 𝐸 π‘Œ 𝑑1 π‘Œ 𝑑2 = 𝐸 π‘’βˆ’π΄π‘‘1+π΅π‘’βˆ’π΄π‘‘2+𝐡 = 𝐸 π‘’βˆ’π΄ 𝑑1+𝑑2 +2𝐡

= π‘’βˆ’π΄(𝑑1+𝑑2)𝑒2π΅π‘’βˆ’π΄π‘‘π΄π‘‘π΅βˆž

0

1

0

= 𝑒2𝐡 π‘’βˆ’π΄(𝑑1+𝑑2+1)π‘‘π΄βˆž

0

𝑑𝐡1

0

= 𝑒2𝐡 βˆ’1

𝑑1 + 𝑑2 + 1π‘’βˆ’π΄(𝑑1+𝑑2+1)

0

∞

𝑑𝐡1

0

=1

𝑑1 + 𝑑2 + 1 1

2𝑒2𝐡

0

1

=𝑒2 βˆ’ 1

2(𝑑1 + 𝑑2 + 1)

b)

π‘‰π‘Žπ‘Ÿ 𝑋 𝑑 = 𝐸 𝑋 𝑑 βˆ’ π‘šπ‘‹(𝑑) 2 = 𝑅𝑋 𝑑, 𝑑 βˆ’ 𝐸[𝑋(𝑑)] 2

𝑅𝑋 𝑑, 𝑑 =1

2𝑑 + 1 ; 𝐸[𝑋(𝑑)] 2 =

1

(𝑑 + 1)2

Entonces

π‘‰π‘Žπ‘Ÿ 𝑋 𝑑 =1

2𝑑 + 1βˆ’

1

(𝑑 + 1)2

πΆπ‘œπ‘£ 𝑋 1 𝑋 2 = 𝐸 𝑋 1 βˆ’ 𝑛𝑋 1 𝑋 2 βˆ’ 𝑛𝑋 2 = 𝐸 𝑋 1 𝑋 2 βˆ’ 𝑛𝑋(1)𝑛𝑋(2)

𝐸 𝑋 1 𝑋 2 = 𝐸 π‘’βˆ’π΄π‘’βˆ’2𝐴 = 𝐸 π‘’βˆ’3𝐴 = π‘’βˆ’3π΄π‘’βˆ’π΄π‘‘π΄βˆž

0

= π‘’βˆ’4π΄π‘‘π΄βˆž

0

=1

4

𝐸 𝑋 1 =1

2 ; 𝐸 𝑋 2 =

1

3

Entonces

πΆπ‘œπ‘£ 𝑋 1 𝑋 2 =1

4βˆ’

1

2

1

3=

6 βˆ’ 4

24=

2

24=

1

12

c)

Page 46: FOLLETOFINAL

44

𝐹𝑋 𝑋 𝑑 = 𝑃 𝑋 𝑑 ≀ π‘₯ 𝑑 = 𝑃 π‘’βˆ’π΄π‘‘ ≀ π‘₯ 𝑑 = 𝑃 βˆ’π΄π‘‘ ≀ 𝑙𝑛π‘₯ 𝑑 = 𝑃 𝐴 β‰₯ βˆ’π‘™π‘›π‘₯ 𝑑

𝑑

= 1 βˆ’ 𝐹𝐴 βˆ’π‘™π‘›π‘₯ 𝑑

𝑑

𝐹𝐴 = βˆ’π‘’βˆ’π΄ ; 𝐴 > 0

0 ; 𝐴 < 0

𝐹𝑋 =

1 ; 𝑋(𝑑) β‰₯ 1

1 + 𝑒𝑙𝑛𝑋 (𝑑)

𝑑 = 1 + 𝑒ln𝑋(𝑑)1𝑑 = 1 + 𝑋(𝑑)

1𝑑 ; 0 ≀ 𝑋(𝑑) < 1

0 ; 𝑋(𝑑) < 0

𝑓𝑋 = 1

𝑑𝑋(𝑑)

1π‘‘βˆ’1 ; 0 ≀ 𝑋 𝑑 ≀ 1

0 ; π‘œπ‘‘π‘Ÿπ‘œ 𝑋

d)

𝑃 π‘Œ 1 ≀ 1 = 𝑃 π‘’βˆ’π΄+𝐡 ≀ 1 = 𝑃 βˆ’π΄ + 𝐡 ≀ 0 = 𝑃 𝐡 ≀ 𝐴 = 𝐹𝐴,𝐡(𝐴)

𝑓𝐴 = π‘’βˆ’π΄ ; 𝑓𝐡 = 1 ; 𝐹𝐴 = 1 βˆ’ π‘’βˆ’π΄ ; 𝐹𝐡 = 𝐡 ; 𝐹𝐴,𝐡 = 𝐡(1 βˆ’ π‘’βˆ’π΄)

𝐹𝐴,𝐡 = π‘’βˆ’π΄π‘‘π΄βˆž

𝐡

𝑑𝐡1

0

= βˆ’π‘’βˆ’π΄ π΅βˆžπ‘‘π΅

1

0

= π‘’βˆ’π΅π‘‘π΅1

0

= βˆ’π‘’π΅01

= βˆ’π‘’βˆ’1 + 1 = 1 βˆ’1

𝑒

Page 47: FOLLETOFINAL

45

Ejemplo:

Hallar:

a) 𝐸 π‘Œ1 𝑑

b) π‘…π‘Œ1 𝑑, 𝑑 + 𝜏

c) 𝐸 π‘Œ2 𝑑

d) π‘…π‘Œ2 𝑑, 𝑑 + 𝜏

Si se conoce que X(t) es w.s.s. con 𝑅𝑋 𝜏 = π‘’βˆ’ 𝜏 ; 𝜏 ∈ 𝑅

π‘Œ1 𝑑 = 𝑋 𝑑 πΆπ‘œπ‘  𝑑

π‘Œ2 𝑑 = 𝑋 𝑑 βˆ’ 𝑋(𝑑 βˆ’ 𝑑)

SoluciΓ³n:

a)

𝐸 π‘Œ1 𝑑 = 𝐸 𝑋 𝑑 πΆπ‘œπ‘  𝑑 = πΆπ‘œπ‘  𝑑 𝐸 𝑋 𝑑 = πΆπ‘œπ‘  𝑑 π‘šπ‘‹

π‘šπ‘‹2 = lim

πœβ†’βˆžπ‘…π‘‹ 𝜏 = 0 => π‘šπ‘‹ = 0 => 𝐸 π‘Œ1 𝑑 = 0

b)

π‘…π‘Œ1 𝑑, 𝑑 + 𝜏 = 𝐸 π‘Œ 𝑑 π‘Œ 𝑑 + 𝜏 = 𝐸 𝑋 𝑑 πΆπ‘œπ‘  𝑑 𝑋 𝑑 βˆ’ 𝜏 πΆπ‘œπ‘  𝑑 βˆ’ 𝜏

= πΆπ‘œπ‘  𝑑 πΆπ‘œπ‘  𝑑 βˆ’ 𝜏 𝐸 𝑋 𝑑 𝑋 𝑑 βˆ’ 𝜏 = πΆπ‘œπ‘  𝑑 πΆπ‘œπ‘  𝑑 βˆ’ 𝜏 𝑅𝑋 𝜏

= πΆπ‘œπ‘  𝑑 πΆπ‘œπ‘ (𝑑 βˆ’ 𝜏)π‘’βˆ’ 𝜏

c)

𝐸 π‘Œ2 𝑑 = 𝐸 𝑋 𝑑 βˆ’ 𝑋 𝑑 βˆ’ 𝑑 = 𝐸 𝑋 𝑑 βˆ’ 𝐸 𝑋 𝑑 βˆ’ 𝑑 = 0 βˆ’ 0 = 0

d)

π‘…π‘Œ2 𝑑, 𝑑 + 𝜏 = 𝐸 π‘Œ 𝑑 π‘Œ 𝑑 + 𝜏 = 𝐸 𝑋 𝑑 βˆ’ 𝑋 𝑑 βˆ’ 𝑑 𝑋 𝑑 + 𝜏 βˆ’ 𝑋 𝑑 βˆ’ 𝑑 + 𝜏

= 𝐸 𝑋 𝑑 𝑋 𝑑 + 𝜏 βˆ’ 𝐸 𝑋 𝑑 βˆ’ 𝑑 𝑋 𝑑 + 𝜏 βˆ’ 𝐸 𝑋 𝑑 𝑋 𝑑 βˆ’ 𝑑 + 𝜏

+ 𝐸 𝑋 𝑑 βˆ’ 𝑑 𝑋 𝑑 βˆ’ 𝑑 + 𝜏 = 𝑅𝑋 𝜏 + 𝑅𝑋 𝜏 βˆ’ 𝑅𝑋 𝜏 βˆ’ 𝑑 βˆ’ 𝑅𝑋 𝜏 + 𝑑

= 2𝑅𝑋 𝜏 βˆ’ 𝑅𝑋 𝜏 βˆ’ 𝑑 βˆ’ 𝑅𝑋 𝜏 + 𝑑 = 2π‘’βˆ’ 𝜏 βˆ’ π‘’βˆ’ πœβˆ’π‘‘ βˆ’ π‘’βˆ’ 𝜏+𝑑

Page 48: FOLLETOFINAL

46

Ejemplo:

Determinar si X(t) es w.s.s., sabiendo que πœƒ => 𝑉. 𝐴. π‘ˆπ‘›π‘–π‘“π‘œπ‘Ÿπ‘šπ‘’ (βˆ’πœ‹, πœ‹)

𝑋 𝑑 = 𝐴2πΆπ‘œπ‘ 2 𝑀𝑑 + πœƒ

SoluciΓ³n:

π‘“πœƒ =1

2πœ‹ ; πΉπœƒ =

πœƒ

2πœ‹

𝐸 𝑋 𝑑 = 𝐸 𝐴2πΆπ‘œπ‘ 2 𝑀𝑑 + πœƒ = 𝐴2𝐸 1

2+

πΆπ‘œπ‘  2 𝑀𝑑 + πœƒ

2 =

1

2𝐴2 +

1

2𝐸 πΆπ‘œπ‘ 2 𝑀𝑑 + πœƒ

=1

2𝐴2 +

1

2𝐸 πΆπ‘œπ‘  2𝑀𝑑 πΆπ‘œπ‘  2πœƒ βˆ’ 𝑆𝑒𝑛 2𝑀𝑑 𝑆𝑒𝑛 2πœƒ

=1

2𝐴2 +

1

2πΆπ‘œπ‘  2𝑀𝑑 𝐸 πΆπ‘œπ‘  2πœƒ βˆ’

1

2𝑆𝑒𝑛 2𝑀𝑑 𝐸 𝑆𝑒𝑛 2πœƒ

𝐸 πΆπ‘œπ‘  2πœƒ = πΆπ‘œπ‘  2πœƒ 1

2πœ‹π‘‘πœƒ

πœ‹

βˆ’πœ‹

=1

2πœ‹ 1

2𝑆𝑒𝑛 2πœƒ

βˆ’πœ‹

πœ‹

= 0

𝐸 𝑆𝑒𝑛 2πœƒ = 𝑆𝑒𝑛 2πœƒ 1

2πœ‹π‘‘πœƒ

πœ‹

βˆ’πœ‹

=1

2πœ‹ βˆ’

1

2πΆπ‘œπ‘  2πœƒ

βˆ’πœ‹

πœ‹

= βˆ’1

4πœ‹ 1 βˆ’ 1 = 0

Entonces:

𝐸 𝑋 𝑑 =1

2𝐴2 => Independiente de t

𝑅𝑋 𝜏 = 𝐸 𝑋 𝑑 𝑋 𝑑 βˆ’ 𝜏 = 𝐸 𝐴2πΆπ‘œπ‘ 2 𝑀𝑑 + πœƒ 𝐴2πΆπ‘œπ‘ 2 𝑀𝑑 βˆ’ π‘€πœ + πœƒ

= 𝐴4𝐸 πΆπ‘œπ‘ 2 𝑀𝑑 + πœƒ πΆπ‘œπ‘ 2 𝑀𝑑 βˆ’ π‘€πœ + πœƒ

= 𝐴4𝐸 1

2+

1

2πΆπ‘œπ‘  2𝑀𝑑 + 2πœƒ

1

2+

1

2πΆπ‘œπ‘  2𝑀 𝑑 βˆ’ 𝜏 + 2πœƒ

=𝐴4

4+

𝐴4

4πΆπ‘œπ‘  2𝑀𝑑 πΆπ‘œπ‘  2𝑀 𝑑 βˆ’ 𝜏 𝐸 πΆπ‘œπ‘ 2 2πœƒ

βˆ’π΄4

4πΆπ‘œπ‘  2𝑀𝑑 𝑆𝑒𝑛 2𝑀 𝑑 βˆ’ 𝜏 𝐸 πΆπ‘œπ‘  2πœƒ 𝑆𝑒𝑛 2πœƒ

βˆ’π΄4

4πΆπ‘œπ‘  2𝑀 𝑑 βˆ’ 𝜏 𝑆𝑒𝑛 2𝑀𝑑 𝐸 πΆπ‘œπ‘  2πœƒ 𝑆𝑒𝑛 2πœƒ

+𝐴4

4𝑆𝑒𝑛 2𝑀𝑑 𝑆𝑒𝑛 2𝑀 𝑑 βˆ’ 𝜏 𝐸 𝑆𝑒𝑛2 2πœƒ

Page 49: FOLLETOFINAL

47

𝐸 πΆπ‘œπ‘ 2 2πœƒ = 𝐸 1

2+

1

2πΆπ‘œπ‘  4πœƒ =

1

2+

1

2𝐸 πΆπ‘œπ‘  4πœƒ =

1

2+

1

2 πΆπ‘œπ‘  4πœƒ

1

2πœ‹π‘‘πœƒ

πœ‹

βˆ’πœ‹

=1

2+

1

4πœ‹

1

4𝑆𝑒𝑛 4πœƒ

βˆ’πœ‹

πœ‹

=1

2

𝐸 πΆπ‘œπ‘  2πœƒ 𝑆𝑒𝑛 2πœƒ = 𝑆𝑒𝑛 2πœƒ πΆπ‘œπ‘  2πœƒ 1

2πœ‹π‘‘πœƒ

πœ‹

βˆ’πœ‹

=1

2πœ‹ 𝑆𝑒𝑛 2πœƒ πΆπ‘œπ‘  2πœƒ π‘‘πœƒ

πœ‹

βˆ’πœ‹

=1

2πœ‹ 𝑆𝑒𝑛2 2πœƒ

βˆ’πœ‹

πœ‹= 0

𝐸 𝑆𝑒𝑛2 2πœƒ = 𝐸 1

2βˆ’

1

2πΆπ‘œπ‘  2πœƒ =

1

2

Entonces:

𝑅𝑋 𝜏 =𝐴4

4+

𝐴4

8πΆπ‘œπ‘  2𝑀𝑑 πΆπ‘œπ‘  2𝑀 𝑑 βˆ’ 𝜏 +

𝐴4

8𝑆𝑒𝑛 2𝑀𝑑 𝑆𝑒𝑛 2𝑀 𝑑 βˆ’ 𝜏

=𝐴4

8 2 + πΆπ‘œπ‘  2𝑀𝑑 βˆ’ 2𝑀𝑑 + 2π‘€πœ

𝑅𝑋 𝜏 =𝐴4

8 2 + πΆπ‘œπ‘  2π‘€πœ => π‘π‘œ 𝑑𝑒𝑝𝑒𝑛𝑑𝑒 𝑑𝑒 𝑑

Entonces X(t) SΓ­ es w.s.s.

Densidad Espectral de Potencia

La Densidad Espectral (Spectral Density) de una seΓ±al es una funciΓ³n matemΓ‘tica que nos

informa de cΓ³mo estΓ‘ distribuida la potencia o la energΓ­a (segΓΊn el caso) de dicha seΓ±al sobre las

distintas frecuencias de las que estΓ‘ formada, es decir, su espectro.

𝑆𝑋 𝑓 = limπ‘‡β†’βˆž

1

𝑇𝐸 𝑋𝑇(𝑓) 2

𝑋𝑇 𝑓 = 𝑋 𝑑 π‘’βˆ’π‘— 2πœ‹π‘“π‘‘ 𝑑𝑑

𝑇2

βˆ’π‘‡2

0 < 𝑃𝑋 < ∞

𝐸𝑋 β†’ ∞

Page 50: FOLLETOFINAL

48

Teorema de Wiener Khinchin

El teorema de Wiener-Khinchin (tambiΓ©n conocido como el teorema de Wiener-Khintchine y, a

veces como el teorema de Wiener-Khinchin-Einstein o el teorema de Kolmogorov-Khinchin) afirma

que la potencia de la densidad espectral de un proceso aleatorio estacionario en sentido amplio

es la transformada de Fourier de el correspondiente funciΓ³n de autocorrelaciΓ³n.

𝑆𝑋 𝑓 = 𝐹 𝑅𝑋 𝑑, 𝑑 + 𝜏 = 𝑅𝑋 𝑑, 𝑑 + 𝜏 π‘’βˆ’π‘—2πœ‹π‘“πœ π‘‘πœβˆž

βˆ’βˆž

𝑅𝑋 𝑑, 𝑑 + 𝜏 = πΉβˆ’1 𝑆𝑋 𝑓 = 𝑆𝑋 𝑓 𝑒𝑗2πœ‹π‘“πœ π‘‘π‘“βˆž

βˆ’βˆž

Si X(t) es w.s.s. entonces:

𝑆𝑋 𝑓 = 𝐹 𝑅𝑋 𝜏 = 𝑅𝑋 𝜏 π‘’βˆ’π‘—2πœ‹π‘“πœ π‘‘πœβˆž

βˆ’βˆž

[𝑀 𝐻𝑧 ]

𝑅𝑋 𝜏 = πΉβˆ’1 𝑆𝑋 𝑓 = 𝑆𝑋(𝑓)𝑒𝑗2πœ‹π‘“πœ π‘‘π‘“βˆž

βˆ’βˆž

Ejemplo:

Determinar:

a) Si Y(t) es w.s.s.

b) π‘†π‘Œ(𝑓)

Dado que X(t) es w.s.s. 𝐸 𝑋 𝑑 = 0 ; π‘‰π‘Žπ‘Ÿ 𝑋 𝑑 = 2

π‘Œ 𝑑 = 2 + 3𝑋(𝑑 βˆ’ 1)

SoluciΓ³n:

a)

𝐸 π‘Œ 𝑑 = 𝐸 2 + 3𝑋 𝑑 βˆ’ 1 = 𝐸 2 + 𝐸 3π‘₯ 𝑑 βˆ’ 1 = 2 => πΆπ‘œπ‘›π‘ π‘‘π‘Žπ‘›π‘‘π‘’

π‘…π‘Œ 𝑑, 𝑑 βˆ’ 𝜏 = 𝐸 π‘Œ 𝑑 π‘Œ 𝑑 βˆ’ 𝜏 = 𝐸 2 + 3𝑋 𝑑 βˆ’ 1 2 + 3𝑋 𝑑 βˆ’ 𝜏 βˆ’ 1

= 𝐸 4 + 6𝑋 𝑑 βˆ’ 𝜏 βˆ’ 1 + 6𝑋 𝑑 βˆ’ 1 + 9𝑋 𝑑 βˆ’ 1 𝑋 𝑑 βˆ’ 𝜏 βˆ’ 1

= 4 + 9𝐸 𝑋 𝑑 βˆ’ 1 𝑋 𝑑 βˆ’ 1 βˆ’ 𝜏 = 4 + 9𝑅𝑋 𝜏 => πΆπ‘œπ‘›π‘ π‘‘π‘Žπ‘›π‘‘π‘’

Entonces π‘Œ 𝑑 𝑆í 𝑒𝑠 𝑀. 𝑠. 𝑠.

Page 51: FOLLETOFINAL

49

b)

π‘†π‘Œ 𝑓 = 𝐹 π‘…π‘Œ 𝜏 = π‘…π‘Œ(𝜏)π‘’βˆ’π‘—2πœ‹π‘“πœ π‘‘πœβˆž

βˆ’βˆž

= 4 + 9𝑅𝑋(𝜏) π‘’βˆ’π‘—2πœ‹π‘“πœ‹ π‘‘πœ‹βˆž

βˆ’βˆž

= 4π‘’βˆ’π‘—2πœ‹π‘‘πœβˆž

βˆ’βˆž

+ 9𝑅𝑋(𝜏)π‘’βˆ’π‘—2πœ‹π‘“πœ π‘‘πœβˆž

βˆ’βˆž

= 4𝛿 𝑓 + 9𝑆𝑋(𝑓)

Ejemplo:

Conociendo que X(t) es w.s.s., y que 𝑅𝑋 𝜏 = π‘’βˆ’ 𝜏 ; 𝜏 ∈ 𝑅.

Determinar:

a) Si π‘Œ 𝑑 = 𝑋 𝑑 πΆπ‘œπ‘  𝑑 𝑒𝑠 𝑀. 𝑠. 𝑠.

b) Si π‘Œ 𝑑 = 𝑋 𝑑 βˆ’ 𝑋 𝑑 βˆ’ 𝑑 , π‘•π‘Žπ‘™π‘™π‘Žπ‘Ÿ π‘†π‘Œ 𝑓 π‘œ π‘†π‘Œ(𝑀)

SoluciΓ³n:

a)

𝐸 π‘Œ 𝑑 = 𝐸 𝑋 𝑑 πΆπ‘œπ‘  𝑑 = πΆπ‘œπ‘  𝑑 𝐸 𝑋 𝑑 = πΆπ‘œπ‘  𝑑 𝑒π‘₯

limπœβ†’βˆž

𝑅𝑋(𝜏) = 𝑒𝑋2 => 𝑒𝑋 = 0 π‘π‘œπ‘›π‘ π‘‘π‘Žπ‘›π‘‘π‘’

𝐸 π‘Œ 𝑑 π‘Œ 𝑑 βˆ’ 𝜏 = 𝐸 𝑋 𝑑 πΆπ‘œπ‘  𝑑 𝑋 𝑑 βˆ’ 𝜏 πΆπ‘œπ‘  𝑑 βˆ’ 𝜏 = πΆπ‘œπ‘  𝑑 πΆπ‘œπ‘  𝑑 βˆ’ 𝜏 𝐸 𝑋 𝑑 𝑋 𝑑 βˆ’ 𝜏

= πΆπ‘œπ‘  𝑑 πΆπ‘œπ‘  𝑑 βˆ’ 𝜏 𝑅𝑋 𝜏 = πΆπ‘œπ‘  𝑑 πΆπ‘œπ‘  𝑑 βˆ’ 𝜏 π‘’βˆ’ 𝜏

β†’ π‘π‘œ 𝑒𝑠 π‘π‘œπ‘›π‘ π‘‘π‘Žπ‘›π‘‘π‘’, π‘π‘œ 𝑒𝑠 𝑀. 𝑠. 𝑠.

b)

π‘†π‘Œ 𝑓 = 𝐹[π‘…π‘Œ(𝑑, 𝑑 βˆ’ 𝜏)]

π‘…π‘Œ 𝑑, 𝑑 + 𝜏 = 𝐸 π‘Œ 𝑑 π‘Œ 𝑑 + 𝜏 = 𝐸 𝑋 𝑑 βˆ’ 𝑋 𝑑 βˆ’ 𝑑 𝑋 𝑑 + 𝜏 βˆ’ 𝑋 𝑑 + 𝜏 βˆ’ 𝑑

= 𝐸 𝑋 𝑑 𝑋 𝑑 + 𝜏 βˆ’ 𝑋 𝑑 𝑋 𝑑 + 𝜏 βˆ’ 𝑑 βˆ’ 𝑋 𝑑 βˆ’ 𝑑 𝑋 𝑑 + 𝜏

+ 𝑋 𝑑 βˆ’ 𝑑 𝑋 𝑑 + 𝜏 βˆ’ 𝑑 = 𝑅𝑋 𝜏 βˆ’ 𝑅𝑋 𝜏 βˆ’ 𝑑 βˆ’ 𝑅𝑋 𝜏 + 𝑑 + 𝑅𝑋 𝜏

= 2𝑅𝑋 𝜏 βˆ’ 𝑅𝑋 𝜏 βˆ’ 𝑑 βˆ’ 𝑅𝑋 𝜏 + 𝑑 = 2π‘’βˆ’ 𝜏 βˆ’ π‘’βˆ’ πœβˆ’π‘‘ βˆ’ π‘’βˆ’ 𝜏+𝑑

π‘†π‘Œ 𝑀 =4

1 + 𝑀12βˆ’

2

1 + 𝑀22

βˆ’2

1 + 𝑀32

Page 52: FOLLETOFINAL

50

Paso de una SeΓ±al Aleatoria por un Sistema Lineal

El sΓ­mbolo * denotara convoluciΓ³n.

𝑦 𝑑 = π‘₯ 𝑑 βˆ— 𝑕(𝑑)

𝑅𝑦 𝜏 = 𝐸 𝑦 𝑑 𝑦 𝑑 + 𝜏

𝑅𝑦 𝜏 = 𝑕 βˆ’πœ βˆ— 𝑕 𝜏 βˆ— 𝑅π‘₯ (𝜏)

π‘†π‘Œ 𝑓 = 𝐻 𝑓 2𝑆𝑋(𝑓)

π‘…π‘‹π‘Œ 𝜏 = 𝑕 𝜏 βˆ— 𝑅𝑋 𝜏

𝑅π‘₯𝑦 𝜏 = 𝑅π‘₯𝑦 βˆ’πœ

Para un Sistema No Lineal

Uso la definiciΓ³n:

𝑦 𝑑 = π‘₯ 𝑑 βˆ— 𝑕(𝑑)

Ejemplo:

Suponiendo X(t) y W(t) w.s.s. e independientes. Hallar 𝑅𝑍(𝜏) si:

a)

𝑍 𝑑 = 𝑋 𝑑 π‘Š(𝑑)

SoluciΓ³n:

𝑅𝑍 𝜏 = 𝐸 𝑋 𝑑 π‘Š 𝑑 𝑋 𝑑 βˆ’ 𝜏 π‘Š 𝑑 βˆ’ 𝜏 = 𝑅𝑋 𝜏 π‘…π‘Š(𝜏)

Page 53: FOLLETOFINAL

51

b)

𝑍 𝑑 = 𝑋 𝑑 + π‘Š(𝑑)

SoluciΓ³n:

𝑅𝑍 𝜏 = 𝐸 𝑋 𝑑 + π‘Š 𝑑 𝑋 𝑑 βˆ’ 𝜏 + π‘Š 𝑑 βˆ’ 𝜏

= 𝐸 𝑋 𝑑 𝑋 𝑑 βˆ’ 𝜏 + 𝑋 𝑑 π‘Š 𝑑 βˆ’ 𝜏 + π‘Š 𝑑 𝑋 𝑑 βˆ’ 𝜏 + π‘Š 𝑑 π‘Š 𝑑 βˆ’ 𝜏

= 𝑅𝑋 𝜏 + π‘…π‘Š 𝜏 + π‘’π‘‹π‘’π‘Š + π‘’π‘Šπ‘’π‘‹ = 𝑅𝑋 𝜏 + π‘…π‘Š 𝜏 + 2π‘’π‘‹π‘’π‘Š

Retardador

Z t = X t βˆ’ t0

RZ 𝜏 = 𝑅𝑋 𝜏

Procesos ErgΓ³dicos

DeterminaciΓ³n de parΓ‘metros:

a) Se toma una muestra completa del proceso y se realizan los cΓ‘lculos sobre ella.

b) Se toman todas las salidas para un tk y se calcula los parΓ‘metros deseados.

Si el valor del parΓ‘metro resulta igual por los dos mΓ©todos, se dice que el proceso es ergΓ³dico

respecto a ese parΓ‘metro.

Ejemplo: Ergodicidad respecto a la media

𝐸 𝑋 𝑑 = limπ‘‡β†’βˆž

1

𝑇 π‘‹π‘˜ 𝑑 𝑑𝑑

𝑇2

βˆ’π‘‡2

= 𝑋 π‘‘π‘˜ 𝑃 𝑋 π‘‘π‘˜ 𝑑𝑋(π‘‘π‘˜ )∞

βˆ’βˆž

𝐸 𝑋 𝑑 = 𝑋 => 𝑁𝑖𝑣𝑒𝑙 𝐷𝐢 𝑑𝑒 𝑋 𝑑 β‰ˆ 𝑁𝑖𝑣𝑒𝑙 π‘šπ‘’π‘‘π‘–π‘œ

𝐸 𝑋2 = 𝑋2 => π‘ƒπ‘œπ‘‘π‘’π‘›π‘π‘–π‘Ž π‘π‘Ÿπ‘œπ‘šπ‘’π‘‘π‘–π‘œ π‘‘π‘œπ‘‘π‘Žπ‘™ 𝑑𝑒 𝑋 𝑑

𝐸 𝑋 2 = (𝑋 )2 => π‘ƒπ‘œπ‘‘π‘’π‘›π‘π‘–π‘Ž 𝐷𝐢 𝑑𝑒 𝑋 𝑑

π‘‰π‘Žπ‘Ÿ 𝑋 = πœπ‘‹2 = 𝐸 𝑋2 βˆ’ 𝐸 𝑋 2 => π‘ƒπ‘œπ‘‘π‘’π‘›π‘π‘–π‘Ž π‘π‘Ÿπ‘œπ‘šπ‘’π‘‘π‘–π‘œ 𝐴𝐢 𝑑𝑒 𝑋 𝑑

π·π‘’π‘ π‘£π‘–π‘Žπ‘π‘–π‘œπ‘› = πœπ‘‹ => π‘‰π‘œπ‘™π‘‘π‘Žπ‘—π‘’ 𝑅𝑀𝑆 𝑑𝑒 𝑋 𝑑

𝐹 𝑅𝑋(𝜏) = 𝑆𝑋(𝑓)

Page 54: FOLLETOFINAL

52

Nota: Todo proceso ergΓ³dico es w.s.s., pero no al revΓ©s.

Ejemplo:

Se tiene un proceso ergΓ³dico X(t) con 𝑅𝑋 𝜏 = 𝐴2π‘’βˆ’2𝑉 𝜏

SoluciΓ³n:

Nivel DC

limπœβ†’βˆž

𝑅𝑋 𝜏 = 𝑒𝑋2 = 0 => 𝑒𝑋 = 0

Potencia Promedio Total

𝐸 𝑋2 = 𝑅𝑋 0 = 𝐴2

Potencia DC

𝐸[𝑋]2 = 0

Potencia Promedio AC de X(t)

𝜍2 = 𝐴2

Voltaje RMS de X(t)

πœπ‘‹ = 𝐴

Densidad Espectral de Potencia

𝑆𝑋 𝑀 = 𝐹 𝑅𝑋 𝜏 =4𝐴𝑉

4𝑉2 + π‘Š2

Nota: Si 𝑆𝑋(𝑑) tiene 𝛿 (deltas), entonces la media de X(t) no es cero

Page 55: FOLLETOFINAL

53

Ruido Blanco

El ruido blanco o sonido blanco es una seΓ±al aleatoria (proceso estocΓ‘stico) que se

caracteriza por el hecho de que sus valores de seΓ±al en dos tiempos diferentes no guardan

correlaciΓ³n estadΓ­stica. Como consecuencia de ello, su densidad espectral de potencia (PSD, siglas

en inglΓ©s de power spectral density) es una constante, es decir, su grΓ‘fica es plana.1 Esto significa

que la seΓ±al contiene todas las frecuencias y todas ellas muestran la misma potencia. Igual

fenΓ³meno ocurre con la luz blanca, de allΓ­ la denominaciΓ³n.

Ejercicios Varios

Ejercicio1:

Si X(t) es un procesos estocΓ‘stico gausiano w.s.s. con 𝑅𝑋 𝜏 = 9 + 2π‘’βˆ’πœ2, y sea S una variable

aleatoria discreta e independiente de X(t) con distribuciΓ³n P(S=1)=0.7, P(S=2)=0.2, P(S=3)=0.1

Si Z(t)=SX(t) , hallar:

a) Z(t) es w.s.s.?

b) 𝑆𝑍(𝑀)

SoluciΓ³n:

a)

𝐸 𝑍 = 𝐸 𝑆𝑋 𝑑 = 𝐸 𝑆 𝐸 𝑋 𝑑

𝐸 𝑆 = 1 0.7 + 2 0.2 + 3 0.1 = 0.7 + 0.4 + 0.3 = 1.4

limπœβ†’βˆž

𝑅𝑋 𝜏 = 𝑒𝑋2 = 𝐸 𝑋 𝑑 2 = 9 => 𝐸 𝑋 𝑑 = 3

Entonces 𝐸 𝑍 = 4.2 πΆπ‘œπ‘›π‘ π‘‘π‘Žπ‘›π‘‘π‘’ (𝑆𝑖𝑛 𝑑)

Page 56: FOLLETOFINAL

54

𝑅𝑍 𝜏 = 𝐸 𝑍 𝑑 𝑍 𝑑 βˆ’ 𝜏 = 𝐸 𝑆𝑋 𝑑 𝑆𝑋 𝑑 βˆ’ 𝜏 = 𝐸 𝑆2𝑋 𝑑 𝑋 𝑑 βˆ’ 𝜏 = 𝐸 𝑆2 𝐸 𝑋 𝑑 𝑋 𝑑 βˆ’ 𝜏

= 𝐸 𝑆2 𝑅𝑋(𝜏)

𝐸 𝑆2 = 1 0.7 + 4 0.2 + 9 0.1 = 0.7 + 0.8 + 0.9 = 2.4

Entonces 𝑅𝑍 𝜏 = 21.6 + 4.8π‘’βˆ’πœ2 πΆπ‘œπ‘›π‘ π‘‘π‘Žπ‘›π‘‘π‘’ 𝑆𝑖𝑛 𝑑

Entonces Z(t) SΓ­ es w.s.s.

b)

𝑆𝑍 𝑀 = 𝐹 𝑅𝑍 𝜏 = 𝐹 2.4 9 + 2π‘’βˆ’πœ2 = 21.4 2πœ‹ 𝛿 𝑀 + 4.8 πœ‹π‘’βˆ’

𝑀 2

4

Ejercicio2:

Sea A,B una variable aleatoria bidimensional continua con

𝑓𝐴 ,𝐡 π‘Ž, 𝑏 = 2 ; π‘Ž β‰₯ 0, 𝑏 β‰₯ 0, π‘Ž + 𝑏 ≀ 10 ; π‘π‘Žπ‘Ÿπ‘Ž 𝑒𝑙 π‘Ÿπ‘’π‘ π‘‘π‘œ

Si 𝑋 𝑑 = 𝐴𝑑2 + 𝐡, determinar:

a) 𝐸[𝑋(𝑑)] y la Autocorrelacion de X(t)

b) π‘‰π‘Žπ‘Ÿπ‘–π‘Žπ‘›π‘§π‘Ž 𝑑𝑒 𝑋(2)

c) Funcion de Densidad y de Probabilidad de X(1)

SoluciΓ³n:

Page 57: FOLLETOFINAL

55

a)

𝑓𝐴 𝐴 = 2𝑑𝑏1βˆ’π‘Ž

0

= 2𝐡01βˆ’π‘Ž = 2 βˆ’ 2π‘Ž

𝑓𝐡 𝐡 = 2π‘‘π‘Ž1βˆ’π‘

0

= 2𝐴01βˆ’π‘ = 2 βˆ’ 2𝑏

𝐹𝐴 π‘Ž = 2 βˆ’ 2π‘Ž π‘‘π‘Žπ‘Ž

0

= 2π‘Ž|0π‘Ž βˆ’ π‘Ž2|0

π‘Ž = 2π‘Ž βˆ’ π‘Ž2

𝐹𝐡 𝑏 = 2 βˆ’ 2𝑏 𝑑𝑏𝑏

0

= 2𝑏|0𝑏 βˆ’ 𝑏2|0

𝑏 = 2𝑏 βˆ’ 𝑏2

𝐸 𝑋 𝑑 = 𝐸 𝐴𝑑2 + 𝐡 = 𝐸 𝐴𝑑2 + 𝐸 𝐡 = 𝑑2𝐸 𝐴 + 𝐸[𝐡]

𝐸 𝐴 = 𝐸 𝐡 = π‘Ž 2 βˆ’ 2π‘Ž π‘‘π‘Ž1

0

= π‘Ž2|01 βˆ’

2

3π‘Ž3|0

1 = 1 βˆ’2

3=

1

3

Entonces 𝐸 𝑋 𝑑 =1

3𝑑2 +

1

3

𝑅𝑋 𝑑1 , 𝑑2 = 𝐸 𝑋 𝑑1 𝑋 𝑑2 = 𝐸 𝐴𝑑12 + 𝐡 𝐴𝑑2

2 + 𝐡 = 𝐸 𝐴2𝑑12𝑑2

2 + 𝐴𝐡𝑑12 + 𝐴𝐡𝑑2

2 + 𝐡2

= 𝑑12𝑑2

2𝐸 𝐴2 + 𝑑12𝐸 𝐴𝐡 + 𝑑2

2𝐸 𝐴𝐡 + 𝐸[𝐡2]

𝐸 𝐴2 = 𝐸 𝐡2 = π‘Ž2(2 βˆ’ 2π‘Ž)1

0

π‘‘π‘Ž =2

3π‘Ž3

01

βˆ’1

2π‘Ž4

01

=2

3βˆ’

1

2=

4 βˆ’ 3

6=

1

6

𝐸 𝐴𝐡 = π‘Žπ‘2π‘‘π‘Ž1βˆ’π‘

0

𝑑𝑏1

0

= 2 𝑏 π‘Žπ‘‘π‘Ž1βˆ’π‘

0

𝑑𝑏1

0

= 2 1

2π‘Ž2

0

1βˆ’π‘

𝑑𝑏1

0

=2

2 𝑏(1 βˆ’ 𝑏)2𝑑𝑏

1

0

= 𝑏 𝑏2 βˆ’ 2𝑏 + 1 𝑑𝑏1

0

= 𝑏3 βˆ’ 2𝑏2 + 𝑏 𝑑𝑏1

0

=1

4𝑏4

01

βˆ’2

3𝑏3

01

+1

2𝑏2

01

=1

4βˆ’

2

3+

1

2=

3 βˆ’ 8 + 6

12=

1

12

Entonces 𝑅𝑋 𝑑1, 𝑑2 =1

6𝑑1

2𝑑22 +

1

12𝑑1

2 +1

12𝑑2

2 +1

6

b)

π‘‰π‘Žπ‘Ÿ 𝑋 2 = 𝐸 𝑋 2 2 βˆ’ 𝑒𝑋2 = 𝑅𝑋 2,2 βˆ’ 𝑒𝑋(2)

2 =1

6 4 4 +

1

12 4 +

1

12 4 +

1

6βˆ’

5

3

2

=13

18

Page 58: FOLLETOFINAL

56

c)

𝑋 𝑑 = 𝐴𝑑2 + 𝐡 => 𝑋 1 = 𝐴 + 𝐡

𝑓𝑋 = 2π‘‘π‘Žπ‘‹ 1 βˆ’π‘

0

𝑑𝑏𝑋(1)

0

= 2𝑋 1 ; 0 ≀ 𝑋(1) ≀ 1

𝐹𝑋 = 𝑋(1)2 ; 0 ≀ 𝑋(1) < 1

Ejercicio3:

Un proceso ergΓ³dico con distribuciΓ³n uniforme entre [-a, a], tiene la siguiente funciΓ³n de

correlacion:

𝑅𝑋 𝜏 =π‘’βˆ’ 𝜏

3

Determine el valor de a y explique.

SoluciΓ³n:

Partimos del hecho que

𝑅𝑋 0 = 𝐸 𝑋2

Por lo que en este caso en particular tenemos lo siguiente:

1

3= 𝑋2

1

2π‘Žπ‘‘π‘‹

π‘Ž

βˆ’π‘Ž

Y resolviendo:

1

2π‘Ž

1

3𝑋3

βˆ’π‘Ž

π‘Ž

=1

3

Page 59: FOLLETOFINAL

57

1

6π‘Žπ‘Ž3 +

1

6π‘Žπ‘Ž3 =

1

3

1

3π‘Ž2 =

1

3

π‘Ž = 1

Ejercicio4:

Un proceso ergodico X(t) tiene un valor medio igual a 4[V]. Si X(t) pasa por un sistema lineal cuya

respuesta impulsiva es h(t) igual a 4sinc(t), determine el valor medio de la seΓ±al de salida.

SoluciΓ³n:

Se entiende que tengo 𝑅𝑋(𝜏)

𝑅𝑋 𝜏 = 𝑅 𝜏 + 16

Entonces

𝑆𝑋 𝑓 = 𝑆 𝑓 + 16𝛿 𝑑 π‘œ 𝑆𝑋 𝑀 = 𝑆 𝑀 + 16 2πœ‹ 𝛿 𝑀

π‘†π‘Œ 𝑓 = 𝐻 𝑓 2𝑆𝑋(𝑓)

𝐻 𝑓 = 4π‘ƒπ‘Ž 𝑓

π‘†π‘Œ 𝑓 = 16 𝑆 𝑓 + 16𝛿 𝑑

π‘†π‘Œ 𝑓 = 16𝑆 𝑑 + 162𝛿 𝑑

π‘…π‘Œ 𝑓 = 16𝑅 𝜏 + 162

𝐸 π‘Œ = 16

Page 60: FOLLETOFINAL

58

Ejercicio5:

Una seΓ±al X(t) con 𝑅𝑋 𝜏 = 5𝑆𝑖𝑛𝑐 5𝜏 + 2 se contamina con ruido blanco independiente de ella,

con densidad espectral de potencia 𝑆𝑛 𝑓 = 0.5 La suma de estas seΓ±ales se procesan en un

sistema lineal que tiene modulo de 𝐻(𝑓) 2 = 𝑆𝑖𝑛𝑐2(𝑓)

Determinar:

a) Grafica de 𝑅𝑋 𝜏

b) 𝑆𝑋(𝑓)

c) Valor DC y potencia AC de X(t)

SoluciΓ³n:

a)

b)

𝑆𝑋 𝑓 = 5π‘ƒπ‘Ž 𝑓 + 2𝛿(𝑓)

Page 61: FOLLETOFINAL

59

c)

Valor DC = 2

Potencia Total = 7

Potencia AC = 7-2 = 5

Ejercicio6:

Un mensaje X(t) aleatorio y ergΓ³dico, con una funciΓ³n de autocorrelacion

𝑅𝑋 𝜏 = 0.1𝑆𝑖𝑛𝑐2(106𝜏) es modulado en amplitud usando el siguiente sistema:

Determine:

a) Densidad Espectral de Potencia de Y(t) en funciΓ³n de la Densidad de Potencia X(t) y

dibΓΊjela.

b) Dibujar la Densidad Espectral de Potencia de Y1(t) y Y2(t)

Page 62: FOLLETOFINAL

60

SoluciΓ³n:

π‘†π‘Œ1 𝑓 = 𝐻 𝑓 2𝑆𝑋 𝑓 = 0.8𝑆𝑋(𝑓) π‘†π‘Œ2

𝑓 = π‘†π‘Œ1 𝑓 + 𝛿 𝑑

π‘†π‘Œ 𝑓 =π‘†π‘Œ1

(𝑓 βˆ’ 𝑓0)

4+

π‘†π‘Œ2(𝑓 βˆ’ 𝑓0)

4

π‘…π‘Œ 𝑑 = 𝐸 π‘Œ2 𝑑 πΆπ‘œπ‘  2πœ‹109𝑑 + πœƒ π‘Œ2 𝑑 + 𝜏 πΆπ‘œπ‘  2πœ‹109 𝑑 + 𝜏 + πœƒ

= 𝐸 π‘Œ2 𝑑 π‘Œ2 𝑑 + 𝜏 𝐸 πΆπ‘œπ‘  2πœ‹109𝑑 + πœƒ πΆπ‘œπ‘  2πœ‹109 𝑑 + 𝜏 + πœƒ

= π‘…π‘Œ2 𝜏

1

2πΆπ‘œπ‘ (2πœ‹109𝜏)


Recommended