Date post: | 24-Oct-2014 |
Category: |
Documents |
Upload: | andres-sacoto |
View: | 573 times |
Download: | 0 times |
1
Apuntes de:
PROBABILIDAD Y
PROCESOS
ESTOCASTICOS
2
Elaborado por:
AndrΓ©s Sacoto C.
Nury Cornejo C.
1
Variable Aleatoria (V.A)
Una variable aleatoria es una variable que toma valores numΓ©ricos determinados por el
resultado de un experimento aleatorio. No hay que confundir la variable aleatoria con sus posibles
valores.
Ejemplo:
NΓΊmero de llamadas que recibe un telΓ©fono en una hora.
Tiempo que esperan los clientes para pagar en un supermercado.
nΒΊ de caras al lanzar 6 veces una moneda (valores: 0, 1, 2β¦).
Existen dos tipos de Variables Aleatorias:
Discretas: el conjunto de posibles valores es numerable. Suelen estar asociadas a
experimentos en que se mide el nΓΊmero de veces que sucede algo.
Continuas: el conjunto de posibles valores es no numerable. Puede tomar todos los
valores de un intervalo. Son el resultado de medir.
FunciΓ³n DistribuciΓ³n de Probabilidad
Se denota por πΉπ₯ π₯0 representa en cada punto x0 la probabilidad de que la variable tome
un valor menor o igual que dicho punto, es decir, π(π₯ β€ π₯0).
Ejemplo:
πΉπ₯ (2) = π(π₯ β€ 2)
Propiedades
Dada una V.A X y πΉπ₯ π₯ = limνβ0 πΉπ₯ π₯ + ν , πΉπ₯ π₯ = limνβ0 πΉπ₯ π₯ β ν
1. 0β€πΉπ₯ π₯ β€1 πΉπ₯ +β =1 πΉπ₯ ββ =0
2. πΉπ₯ π₯ es una funciΓ³n no decreciente de x, esto es πΉπ₯ π₯2 β₯ πΉπ₯ π₯1 ; si π₯2 > π₯1 (siempre
creciente).
3. Si a<b =>πΉπ₯ π β€ πΉπ₯ π
4. Si πΉπ₯ π₯0 = 0 => πΉπ₯ π₯ = 0 para todo xβ€x0
5. P(x>x) = 1 β P(x β€x) = 1 - πΉπ₯ π₯
2
6. πΉπ₯ π₯ es continua por la derecha, esto es πΉπ₯ π₯+ = πΉπ₯ π₯
7. P(x1<x< x2) = πΉπ₯ π₯2 β πΉπ₯ π₯1
8. P(x=x) = πΉπ₯ π₯+ β πΉπ₯ π₯β si x es una V.A continua entonces la P(x=x) = 0
9. P(x1β€ xβ€ x2) = πΉπ₯ π₯2 β πΉπ₯ π₯1β
FunciΓ³n Densidad de Probabilidad
Describe la densidad de la probabilidad en cada punto del espacio de tal manera que la
probabilidad de que la variable aleatoria tome un valor dentro de un determinado conjunto sea la
integral de la funciΓ³n de densidad sobre dicho conjunto.
ππ₯ π₯ =ππΉπ₯ (π₯)
ππ₯
Propiedades
1) ππ₯ π₯ β₯ 0
2) P(aβ€ x β€b) = ππ₯ (π₯)ππ₯π
π
3) ππ₯ π₯ ππ₯ = 1+β
ββ ; ππ₯ π₯ = 1π₯π
4) πΉπ₯ π₯ = ππΌ (πΌ)ππΌπ₯
ββ
Ejemplo:
Verificar si las siguientes funciones son distribuciones de probabilidad
a) ππ₯ π₯ = π₯β3
3 ; π₯ = 1,2,3,4,5
ππ₯ π₯ =π₯ β 3
3= 1
4
π₯=1
β2
3β
1
3+ 0 +
1
3+
2
3= 0
ππ₯ 1 π¦ ππ₯ 2 < 0
β΄ ππ ππ ππ’πππΓ³π ππ πππ π‘ππππ’ππππ ππ ππππππππππππ
b) ππ₯ π₯ = 2πβ2π₯ ; π₯ > 0 0 ; π₯ β€ 0
2πβ2π₯ππ₯β
0
= 2 β1
2πβ2π₯
0
β
= 2 0 +1
2 = 1
3
β΄ ππ ππ ππ’πππππ ππ πππ π‘ππππ’ππππ ππ ππππππππππππ
Ejemplo:
Dada ππ₯ π₯ = ππβ3π₯ ; π₯ > 0 0 ; π₯ β€ 0
a) Determinar a para que sea fdp.
b) P(2<x<5)
c) P(x<3)
d) P(x>6)
e) Graficar ππ₯ π₯ y πΉπ₯ π₯
a)
ππβ3π₯ππ₯β
0
= π β1
3πβ3π₯
0
β
= π 0 +1
3 = 1
β΄ π = 3
b) P(2<x<5)
3πβ3π₯ππ₯5
2
= 3 β1
3πβ3π₯
2
5
= 3 βπβ15
3+
πβ6
3 = πβ6 β πβ15
P (2<x<5) = 2.47x10-3
c) P(x<3)
3πβ3π₯ππ₯3
0
= 3 β1
3πβ3π₯
0
3
= 3 βπβ9
3+
π0
3 =
1
3β πβ9
P(x<3) = 0.333
d) P(x>6)
3πβ3π₯ππ₯β
6
= 3 β1
3πβ3π₯
6
β
= 3 βπββ
3+
πβ18
3 = πβ18 β 0
P(x>6) = 1.523x10-18
e) πΉπ₯ π₯
4
3πβ3πΌ ππΌπ₯
0
= 3 β1
3πβ3πΌ
0
π₯
= βπβ3π₯ + 1
πΉπ₯ π₯ = 1 β πβ3π₯ ; π₯ > 0 0 ; π₯ β€ 0
DistribuciΓ³n Binomial
Existen solamente dos resultado posibles en cada ensayo
La probabilidad de un Γ©xito es la misma en cada ensayoi
Hay n ensayos, donde n es constante
Los n ensayos son independientes
π π₯; π, π = ππ₯ ππ₯ (1 β π)πβπ₯ ; π₯ = 0,1,2,3, β¦ , π
π΅ π₯; π, π = π π; π, π ; π₯ = 0,1,2,3, β¦ , π
π₯
π=0
Identidades Binomiales
b(x; n, p) = b(n-x; n, 1-p)
B(x; n, p) = 1 β B(n-x-1; n; 1-p)
b(x; n, p) = B(x; n, p) β B(x-1; n, p)
b(x; n, p) = B(n-x; n, 1-p) β B(n-x-1; n, 1-p)
-2 0 2 4 6 8 100
0.5
1
1.5
2
2.5
3Funcion densidad de probabilidad
0 0.5 1 1.5 2 2.5 30
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1Funcion distribucion de probabilidad
5
Ejemplo:
Se asegura que en una empresa de instalaciones elΓ©ctricas, en el 70% de las instalaciones se
reducen al menos una 3Β° parte de los gastos si se hacen con ciertos materiales de buena calidad.
De acuerdo con lo anterior, cuΓ‘les son las probabilidades de que se reduzcan al menos una 3Β°
parte en:
a) Cuatro de seis instalaciones
b) En al menos tres de seis instalaciones
a) P(x=4)
p = 0.7
π 4; 6,0.7 = 64 0.74(0.3)2 = 0.324
b) P(x=3)+P(x=4)+P(x=5)+P(x=6) Γ³ 1- [P(x=1) + P(x=2)]
1 β 61 0.71 0.3 5 +
62 0.72 0.3 4 = 1 β 0.069 = 0.93
DeterminaciΓ³n de probabilidades
Nos encontraremos casos en los que nos dan una grΓ‘fica de distribuciΓ³n de probabilidad y
nos piden calcular una serie de probabilidades lo cual veremos que se puede hacer solo con la
grΓ‘fica teniendo claros los conceptos de distribuciΓ³n de probabilidad.
Ejemplo:
Como tenemos los puntos en la grΓ‘fica
podemos determinar la funciΓ³n de
distribuciΓ³n de probabilidad de la siguiente
manera
πΉπ₯ π₯ =
0 ; π₯ < 0π₯ + 1
4; 0 β€ π₯ < 1
1 ; π₯ β₯ 1
-1 -0.5 0 0.5 1 1.5 2 2.5 3
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Fx
x
6
Determinar:
a) P(x< -1/2)
b) P(1/4β€ x <1)
c) P(xβ₯ 5)
d) P(1/4β€ x β€1)
e) P(x< 5)
f) P(xβ€0)
g) P(x>1/2)
SoluciΓ³n:
a) En si nos estΓ‘n pidiendo Fx(-1/2) y esto es 0, como podemos observar en la grΓ‘fica y en la
funciΓ³n de distribuciΓ³n por tramos.
b) P(1/4β€ x <1)= Fx(1) - Fx(1/4), notemos que para ambos valores ΒΌ y 1 tenemos la funciΓ³n π₯+1
4 ya que el 1 no estΓ‘ incluido en la probabilidad que nos piden.
P (1/4β€ x <1)= 1/2 - 5/16 = 3/16
c) P(xβ₯ 5) = 1 β P(x<5) = 1 β Fx(5)
P (xβ₯ 5) = 1 β 1= 0
d) P(1/4β€ x β€1) = Fx(1) β Fx(1/4), como ahora en la probabilidad que nos piden estΓ‘ incluido el
1 entonces Fx(1)=1 y tendrΓamos que
P (1/4β€ x β€1) = 1 β 5/16 = 11/16
e) P(x<5) = Fx(5) = 1
f) P(xβ€0) = Fx(0) , para lo cual usamos la ecuaciΓ³n π₯+1
4 y tenemos que
P(xβ€0) = 1/4
g) P (x> 1/2) = 1 β P (x β€ 1/2) = 1-Fx(1/2)
P (x> 1/2) = 1 β 3/8 = 5/8
7
Valor Esperado
En el caso que X sea una v.a. discreta, este valor es la media ponderada de los posibles
valores que puede tomar la variable X, en donde los pesos o ponderaciones son las probabilidades
de ocurrencia de los posibles valores de X. Luego el valor esperado de X se interpreta como una
media ponderada de los posibles valores de X, y no como el valor que se espera que tome X, pues
puede suceder que E [X] no sea uno de los posibles valores de X. En el caso de v.a. continua, E [X]
nos indica el centro de la funciΓ³n de densidad, es decir, nos indica el centro de gravedad de la
distribuciΓ³n.
ππ₯ = πΈ π₯ = π₯ ππ₯ (π₯)β
ββ
ππ₯ ; ππππ ππ’π ππ π. π΄ ππ ππππ‘πππ’π
ππ₯ = πΈ π₯ = π₯π π(π₯ = π₯π)
β
π= ββ
; ππππ ππ’π ππ π. π΄ ππ πππ ππππ‘π
Propiedades
E[ c ] = c -> donde c es una constante
E[ c g(x) ] = c E[ g(x) ]
E[ g1(x) + g2(x) + g3(x) + β¦ + gn(x)] = E[ g1(x) ] + E[ g2(x) + + β¦ + E* gn(x) ]
Si fx(x) es simΓ©trica en x=a => E[ x ] = a
Si fx(x) es simΓ©trica en x=0 => E[ x ] = 0
Varianza
La varianza de una variable aleatoria es una medida de su dispersiΓ³n. Se trata de la
esperanza del cuadrado de la desviaciΓ³n de la variable frente su media y se mide en una unidad
diferente.
Var(x) = E[(x - nx)2]
Var(x) = π₯ β ππ₯ 2β
ββππ₯ π₯ ππ₯ V.A Continua
Var(x) = π₯ β ππ₯ 2π π₯ = π₯π βββ V.A Discreta
Var(x) = E[ x2 ] β nx2
8
Propiedades
Var (c) = 0 ; c = constante
Var (x+c) = Var (x)
Var (cx) = c2 Var (x)
Ejemplo:
Una V.A. x puede tomar los valores -4, -3, -2, -1, 1, 2, 3, 4, con igual probabilidad.
Determinar la varianza de Y=2x3
SoluciΓ³n:
Como es una variable discreta y todos los valores tienen la misma probabilidad, entonces
la probabilidad de cada valor seria 1/8.
Var (Y) = Var (2x3) = 4 Var( x3 )
Var (Y) = 4 {E [ x6 ] β E [ x3 ]2}
E [ x6] = 4*[(-4)6(1/8) + (-3)6(1/8) + (-2)6(1/8) + (-1)6(1/8) + (1)6(1/8) + (2)6(1/8) + (3)6(1/8) +
(4)6(1/8)]
Var (Y) = 4890
Probabilidad Condicional
El concepto de probabilidad condicional es muy sencillo. EstΓ‘ basado en una situaciΓ³n
particular que podemos resumir como sigue: βprobabilidad de ocurrencia de un evento en un
escenario muy particularβ
Vamos a explicar lo anterior. Suponga que se lanza un dado. Existe una clase de
escenarios exhaustivos y no traslapados como son: βel nΓΊmero del dado es parβ y βel nΓΊmero del
dado es imparβ. Entonces bajo la hipΓ³tesis de trabajar con esta clase de escenarios, uno se puede
preguntar la probabilidad de obtener algΓΊn determinado nΓΊmero bajo uno de estos escenarios.
P [ A/M] = π(π΄β©π)
π(π) ; P(M) β 0
9
FunciΓ³n DistribuciΓ³n Condicional
Fx (x / M) = P (xβ€x /M) = π{ π₯β€π₯ β©π }
π (π)=
π{ π₯β€π₯ ,π }
π (π)
FunciΓ³n Densidad Condicional
fx ( x/ M) = π πΉπ₯ (π₯/ π)
ππ₯ ; M en tΓ©rminos de x
Propiedades
Fx (+β/ M) = 1
Fx (-β/ M) = 0
P(x1 < xβ€ x2) = Fx (x2 / M) - Fx (x1 / M) = P (x1<π₯ β€ x2 ; M)
P (M)
Ejemplo:
Determinar Fx (x/ M) y fx (x/ M); dado que M= ,xβ€a-
Dato: Fx (x) = P (xβ€x)
SoluciΓ³n:
Fx(x /M)= P (xβ€x/M) = π (xβ€π₯)β©π
π (π)=
π xβ€π₯ β©(π₯β€π)
π (π)
Dibujaremos en una recta numΓ©rica para poder visualizar lo que nos piden
b<x<a
a x a
a x<x x a
10
Como podemos ver la intersecciΓ³n de estas dos rectas serΓa P (xβ€x) y tendrΓamos:
Fx(x /M) = P(xβ€x)
P(xβ€a)=
Fx (x)
Fx (a)
Ejemplo:
M = ,b<xβ€a-; a>b
SoluciΓ³n:
En este ejemplo tendrΓamos tres casos que los representaremos en las siguientes rectas.
Caso 1: Donde a>b pero menor que x
b a x
Fx(x /M)= P (xβ€x/M) = π (xβ€π₯)β©π
π (π)=
π xβ€π₯ β©(π<π₯β€π)
π (π<π₯β€π)
x<x
b a x
b<x<a
b a x
Como podemos observar la intersecciΓ³n de estas dos grΓ‘ficas serΓa P(b<xβ€a) y tendrΓamos:
Fx(x /M) = P(b<xβ€a)
P(b<xβ€a)= 1
Caso 2: Donde a>b pero mayor que x
x b a
Fx(x /M)= P (xβ€x/M) = π (xβ€π₯)β©π
π (π)=
π xβ€π₯ β©(π<π₯β€π)
π (π<π₯β€π)
x<x
x b a
11
b<x<a
x b a
Como podemos observar la no existe intersecciΓ³n entre ambas graficas y tendrΓamos:
Fx (x /M) = 0
P(b<xβ€a)= 0
Caso 3: Donde a>b pero x estΓ‘ entre ambos valores
b x a
Fx(x /M)= P (xβ€x/M) = π (xβ€π₯)β©π
π (π)=
π xβ€π₯ β©(π<π₯β€π)
π (π<π₯β€π)
x<x
b x a
a>b
b x a
Como podemos observar la intersecciΓ³n de las dos grΓ‘ficas serΓa P (xβ€x)-P(x<b) y tendrΓamos:
Fx(x /M) = P xβ€x βP xβ€b
P(b<xβ€a)=
Fx x β Fx b
Fx a βFx b
Probabilidad Total
Ai β© Aj = Ξ¦; iβ j = 1,2,3,.., n
π΄π = π
π
π=π
12
Teorema de la probabilidad total
Sea A1, A2,..., An un sistema completo de sucesos tales que la probabilidad de cada uno de
ellos es distinta de cero, y sea B un suceso cualquier del que se conocen las probabilidades
condicionales P(B/Ai), entonces la probabilidad del suceso B viene dada por la expresiΓ³n:
P (B) =P (B/A1)*P (A1) + P (B/A2)*P (A2) + P (B/A3)*P (A3) + β¦ + P (B/An)*P (An)
P (xβ€x) =P (xβ€x/ A1)*P (A1) + P (xβ€x/ A2)*P (A2) + β¦ + P (xβ€x/An)*P (An)
Fx(x) =Fx(x/ A1)*P (A1) + Fx(x/ A2)*P (A2) + β¦ + Fx(x/An)*P (An)
fx(x)= fx(x/A1)*P (A1) + fx(x/A2)*P (A2) + β¦ + fx(x/An)*P (A1)
P(A/B) =π(π΄β©π΅)
π(π΅) P(A/B)P(B) =P(B/A)P(A)
P(B/A) =π(π΄β©π΅)
π(π΄) P(A/B) =
π(π΅/π΄)π(π΄)
π(π΅)
P(B/A) =π(π΄/π΅)π(π΅)
π(π΄)
Valor esperado de Y =g(x)
E [Y] =E [g(x)] = π π₯ ππ₯ π₯ ππ₯β
ββ
Valor esperado Condicional
E [x/ M] = π₯ππ₯ (π₯ π )ππ₯β
ββ ; V.A. Continua
E [x/ M] = π₯ππ [π₯ = π₯π π ]βπ=ββ ; V.A. Discreta
Ejemplo:
Sea X la entrada a un canal de comunicaciones y Y la salida. La entrada al canal es +1 Γ³ -
1con igual probabilidad. La salida del canal es la entrada mΓ‘s el de ruido N que estΓ‘
uniformemente distribuido en el intervalo [-2,2] encuentre la probabilidad de P *x=+1, Yβ€y+
13
SoluciΓ³n:
Siendo Y =X + N, fN(x) es uniforme en (-2,2), por tanto fY(y/ x=+1) es tambiΓ©n uniforme en (-1,3), es
decir fY(y/ x=+1)=1
4
P(x=+1/ Yβ€y) = ππ¦ π¦ π₯ = +1 ππ¦ = 1
4
0
β1
Ejercicio Completo
a) Determinar y graficar Fx(x)
b) Determinar c para que P(|x-3|<c) =1/4
c) E[x] y Var(x)
d) Determinar y Graficar Fx(x/M) y fx(x/M) ; M =,xβ₯3-
-5 -4 -3 -2 -1 0 1 2 3 4 50
0.05
0.1
0.15
0.2
0.25fn
n
-5 -4 -3 -2 -1 0 1 2 3 4 50
0.05
0.1
0.15
0.2
0.25fy(y/x=+1)
y
0 1 2 3 4 5 6 70
0.05
0.1
0.15
0.2
0.25
0.3
0.35fx
x
14
SoluciΓ³n:
a)
Para determinar Fx(x) primero debemos encontrar el valor de a
πΉπ₯ π₯ = ππΌ πΌ ππΌ = π πΌ β 1 ππΌπ₯
1
+ ππ₯
2
ππΌπ₯
0
+ βπ
2 πΌ β 6 ππΌ
π₯
4
πΉπ₯ π₯ = π πΌ2
2β πΌ
1
π₯
+ πΌ 2π₯ β
1
2 πΌ2
2β 6πΌ
4
π₯
πΉπ₯ π₯ = π π₯2
2β π₯ +
1
2 + π π₯ β 2 β
π
2 π₯2
2β 6π₯ + 16
1 = π
2+ 3π =
7π
2 β β΄ π =
2
7
πΉπ₯ π₯ =
0 ; π₯ < 1
π₯2
7β
2π₯
7+
1
7 ; 1 β€ π₯ < 2
2π₯
7β
3
7 ; 2 β€ π₯ < 4
βπ₯2
14+
6π₯
7β
11
7 ; 4 β€ π₯ < 6
1 ; π₯ β₯ 6
0 1 2 3 4 5 6 70
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1Fx
x
15
b)
Resolvemos el valor absoluto y tenemos
P (|x-3|<c) =P (-c<x-3<c) =P(3-c<x<3+c)= Fx(3+c)- Fx(3-c) =1/4
Reemplazamos en la funciΓ³n del intervalo correspondiente de Fx que serΓa 2π₯
7β
3
7 y
tenemos
2(3 + π)
7β
3
7β
2 3 β π
7+
3
7=
1
4 βΉ 6 + 2π β 6 + 2π =
7
4
4c =7
4 βΉ β΄ c =
7
16
c)
πΈ π₯ = 2
7π₯(π₯ β 1)ππ₯
2
1
+ 2π₯
7ππ₯
4
2
β 1
7π₯(π₯ β 6)ππ₯
6
4
πΈ π₯ =2
7 π₯3
3β
π₯2
2
1
2
+ 2
7 π₯2
2
2
4
β1
7 π₯3
3β 6
π₯2
2
4
6
=5
21+
12
7+
4
3
E x =23
7
d) Fx(x /M)= P (xβ€x/M) = π (xβ€π₯)β©π
π (π)=
π xβ€π₯ β©(π₯β₯3)
π(π₯β₯3)
xβ€x
3 x
xβ₯3
3 x
πΉπ π₯ π = πΉπ₯ π₯ β πΉπ₯ (3)
1 β πΉπ₯ (3)=
πΉπ₯ π₯ β37
47
πΉπ π₯ π =
0 ; π₯ β€ 3π₯ β 3
2 ; 3 < π₯ β€ 4
βπ₯2
8+
3π₯
2β
7
2 ; 4 < π₯ β€ 6
1 ; π₯ > 6
16
ππ₯ π₯ π =ππΉπ₯ (π₯/π)
ππ₯
ππ₯ π₯ π =
0 ; π₯ < 31
2 ; 3 β€ π₯ < 4
βπ₯
4+
3
2 ; 4 β€ π₯ < 6
0 ; π₯ β₯ 6
0 1 2 3 4 5 6 70
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1Fx(X/M)
x
0 1 2 3 4 5 6 70
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
x
fx(X/M)
17
DeterminaciΓ³n de fY(y) Teorema Fundamental
Para encontrar fY(y) para un Y especΓfico, se resuelve la ecuaciΓ³n y= g(x) para x en tΓ©rminos
de y. Denotando las raΓces por xn; y =g (x1) =g (x2) =β¦=g (xn)
ππ π¦ = ππ₯ (π₯1)
πβ²(π₯1) +
ππ₯ (π₯2)
πβ²(π₯2) + β― +
ππ₯ π₯π
πβ² π₯π ; πβ² π₯ =
π π(π₯)
ππ₯
ππ π¦ = ππ₯ (π₯)
πβ²(π₯)
Dos Variables
Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales
de forma semejante al caso unidimensional.
FXY (x, y) =P ,Xβ€x; Yβ€y-
fXY (x,y) = ππΉππ (π₯ ,π¦)
ππ₯ππ¦
Propiedades FXY (x, y)
πΉππ ββ, π¦ = 0
πΉππ π₯, ββ = 0
πΉππ ββ,β = 1
π π₯1 < π β€ π₯2 , π β€ π¦ = πΉππ π₯2, π¦ β πΉππ π₯1, π¦
π π β€ π₯ , π¦1 < π β€ π¦2 = πΉππ π₯, π¦2 β πΉππ π₯, π¦1
π π₯1 < π β€ π₯2 , π¦1 < π β€ π¦2 = πΉππ π₯2, π¦2 β πΉππ π₯1, π¦2 β πΉππ π₯2, π¦1 + πΉππ π₯1, π¦1
18
Propiedades fXY (x, y)
πππ π₯, π¦ ππ₯ππ¦ = 1β
ββ πΉππ π₯, π¦ = πππ (πΌ, π½)ππΌππ½
π
ββ
π
ββ
Marginales
FX(x) =FXY (x,+β) FY(y) =FXY (+β,y)
ππ π₯ = πππ (π₯, π¦)ππ¦+β
ββ ππ π¦ = πππ (π₯, π¦)ππ₯
+β
ββ
Ejemplo:
Sea X,Y V.A. con funciΓ³n de densidad
πππ π₯, π¦ = 1 π π π¦ < π₯ ; 0 < π₯ < 10 πππ π‘π
a) Comprobar que fXY(x,y) es una fdp.
b) Determinar la media de X e Y
c) Determinar la varianza de X e Y
d) Determinar las siguientes probabilides
P(x< Β½ ; Y<0)
P(x>1/2 ; -1/2< Y <1/2)
SoluciΓ³n:
En el siguiente grΓ‘fico podemos visualizar la zona de integraciΓ³n que se obtuvo al despejar |y|<x,
y que se encuentra limitado por 0<x<1
-x<y<x -> en la zona de integraciΓ³n tendremos a los y>x y a los y<-x
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y= x
y= -x
y
x
19
a) Para comprobar que sea una f.d.p usaremos πππ π₯, π¦ ππ₯ππ¦ = 1β
ββ
β
ββ
ππ₯ππ¦ = π¦ βπ₯π₯ ππ₯ = 2π₯ ππ₯ = 2
π₯2
2
0
1
= 1
1
0
1
0
π₯
βπ₯
1
0
β΄ ππ ππ π. π. π
b) Para determinar la media de X y Y primero debemos hallar la marginal de X y Y para lo cual
tenemos:
ππ₯ π₯ = πππ π₯, π¦ ππ¦β
ββ
ππ₯ π₯ = ππ¦π₯
βπ₯
= 2π₯
E[x] = π₯ 2π₯ ππ₯ = 2 π₯ 3
3
0
11
0
E[x]= 2/3
ππ π¦ = πππ π₯, π¦ ππ₯β
ββ
ππ π¦ = ππ₯1
π¦
+ ππ₯1
βπ¦
= 1 β π¦ + (1 + π¦)
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y
x
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y
x
20
ππ π¦ = 1 + π¦ ; β1 < π¦ β€ 01 β π¦ ; 0 < π¦ β€ 1
πΈ π¦ = π¦ 1 + π¦ ππ¦ + π¦ 1 β π¦ = π¦2
2+
π¦3
3 β1
0
+ π¦2
2β
π¦3
3
0
11
0
0
β1
πΈ π¦ = β1
2+
1
3+
1
2β
1
3= 0
c)
Var (x) =E [x2] β E [x]2
πΈ π₯2 = π₯2 2π₯ ππ₯1
0
= 2 π₯4
4
0
1
= 2 1
4 =
1
2
πππ π₯ = 1
2β
2
3
2
= 1
18
Var (y) =E [y2]β E [y]2
πΈ π¦2 = π¦2 1 + π¦ ππ¦0
β1
+ π¦2 1 β π¦ ππ¦1
0
= π¦3
3+
π¦4
4 β1
0
+ π¦3
3β
π¦4
4
0
1
=1
6
πππ π¦ = 1
6β 0 =
1
6
d)
P(x<1/2; y>0)
P x < 1 2 ; y > 0 = dydx = x0.5
0
dx = x2
2
0
0.5
= 1
8
0
βx
0.5
0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y
x
21
P(x>1/2; -1/2<y<1/2)
P x > 1 2 ; β1/2 < π¦ < 1/2 = dydx = 10.5
0
dx =1
2
0.5
β0.5
1
0.5
Desigualdad de Chebyshev
La desigualdad de Chebyshev es un resultado que ofrece una cota inferior a la probabilidad
de que el valor de una variable aleatoria con varianza finita estΓ© a una cierta distancia de su valor
esperado.
π π₯ β π’ β₯ ππ β€1
π2; π > 0
Si una distribuciΓ³n de probabilidad tiene media π’ y una desviaciΓ³n estΓ‘ndar π, la
probabilidad de obtener un valor que desvΓa de π’ al menos en ππ es a lo mucho1
πΎ2.
Ejemplo:
Suponga que el nΓΊmero de artΓculos producidos por una fΓ‘brica en una semana es una
variable aleatoria con media 50. Si la varianza de una semana de producciΓ³n se sabe que es igual a
25, entonces ΒΏQue podemos decir acerca de la probabilidad de que en esta semana la producciΓ³n
difiera en mΓ‘s de 10 a la media?
π’ = 50
π = 25
π₯ β 50 = 10
10 β₯ 5π β π β€ 2
P =1
k2=
1
4
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y
x
22
Ejemplo:
El nΓΊmero de clientes que visitan una sala exhibiciΓ³n de una empresa automotriz de un
sΓ‘bado por la maΓ±ana es una variable aleatoria con media
π’ = 18 y π = 25 ΒΏ Con que probabilidad podremos asegurar que habrΓ‘ entre 8 28 clientes?.
π₯ β 18 = 8
8 β₯ 2.5π β π β€ 3.2
π π₯ β π’ β₯ ππ β€ 1 β1
π2
βππ β€ π₯ β π’ β€ ππ
βππ + π’ β€ π₯ β€ ππ + π’
βππ + π’ β€ π₯ β€ ππ + π’
β2.5π + 18 β€ π₯ β€ 2.5π + 18
β2.5π + 18 = 8
β2.5π = β10
π = 4
π = 1 β1
16=
15
16
Momento Respecto al Origen
ππ = πΈ π₯π = π₯πππ₯ π₯ ππ₯ ;
π0 = 1
π1 = πΈ π₯
π2 = πΈ[π₯2]
β
ββ
Momento Central
ππ = πΈ (π₯ β ππ)π = π₯ β ππ πππ₯ π₯ ππ₯ ; π0 = 1π1 = 0
π2 = πππ(π₯)
β
ββ
23
Variables Aleatorias Independientes
πΉππ π₯, π¦ = πΉπ₯ π₯ β πΉπ(π¦)
πππ π₯, π¦ = ππ π₯ β ππ(π¦)
π π = π₯π ; π = π¦π = π π = π₯π β π(π = π¦π)
FunciΓ³n de dos Variables Aleatorias
Dadas 2 V.A. y una funciΓ³n g(x,y), se forma la V.A z =g(x,y). Se requiere calcular fz(z) y Fz(z).
Ejemplo:
πππ π₯, π¦ = 16
3 π₯ + π¦ ; 0.5 β€ π¦ β€ π₯, 0.5 β€ π₯ β€ 1
Dado Z=X-Y, encuentre fz(z)
24
πΉπ§ π§ = πππ π₯, π¦ ππ¦ππ₯π₯βπ§
ββ
β
ββ
ππ π§ =π πΉπ§ π§
ππ§= πππ π₯, π₯ β π§ ππ₯
β
ββ
ππ π§ =16
3 π₯ + π₯ β π§ ππ₯
1
0.5+π§
= 16
3 2π₯ β π§ ππ₯
1
0.5+π§
ππ π§ = 16
3 π₯2 β π§π₯ 0.5+π§
1 =16
3 1 β π§ β 0.5 + π§ 2 β π§(0.5 + π§)
ππ π§ =16
3 1 β π§ β (0.25 + π§ + π§2 β 0.5π§ β π§2) =
16
3 1 β π§ β (0.25 + 0.5π§)
ππ π§ =16
3 3
4β
3π§
2 = 4 β 8π§ ; 0 β€ π§ β€
1
2
DOS FUNCIONES DE DOS VARIABLES ALEATORIAS.
Dadas 2 V.A βxβ e βyβ las funciones g(x, y) y h(x, y), se forma sus V.A π = π π₯, π¦ , π = h(x, y).
πΉπ§π€ π§, π€ = π π β€ π§, π β€ π€
= π g(x, y) β€ π§, h(x, y) β€ π€
= π (x, y) β Dπ§π€
πΉπ§π€ π§, π€ = ππ₯π¦ π₯, π¦ ππ₯ππ¦π§π€π·
ππ§π€ π§, π€ =π2πΉπ§π€ π§ ,π€
ππππ€
DefiniciΓ³n: Jacobinoπ½ π₯, π¦ de la transformaciΓ³nπ = π π₯, π¦ π π = h(x, y)es:
π½ π₯, π¦ =
ππ
ππ₯
ππ
ππ¦ππ
ππ₯
ππ
ππ¦
25
Teorema
Para determinar ππ§π€ π§, π€ se resuelve el sistema:
π = π π₯, π¦
π = h x, y β π₯, π¦ ππ π‘πππππππ ππ π§, π€.
Sean(π₯1, π¦1), (π₯2, π¦2), β¦ , (π₯π , π¦π) πππππ πππ π πππ’ππππππ ππππππ .
π = π(π₯1, π¦1) = π(π₯2 , π¦2) = β― = π(π₯π , π¦π)
π€ = π(π₯1, π¦1) = π(π₯2, π¦2) = β― = π(π₯π , π¦π)
ππ§π€ π§, π€ = ππ₯π¦ (π₯π , π¦π)
π½(π₯π , π¦π)
π
π=1
Ejemplo:
π , π β V.A Independientes
ππ π =π
π2π
βπ2
2π2 ; π > 0
ππ π β π’πππππππ ππ (βπ, π )
TransformaciΓ³n:
π₯eπ¦ ππ π‘πππππππ ππ π
π₯ = π πππ (π)
π¦ = π π ππ(π)
1. ππ₯π¦ π₯ , π¦ = ? ?
SoluciΓ³n:
π π¦ π ππ π‘πππππππ ππ π₯ ππ¦
π₯2 = π 2πππ 2(π)
π¦2 = π 2π ππ2(π)
ππ’πππππ ππ π‘ππ πππ π’ππ‘ππππ πππ’πππππππ , π‘ππππππ βΆ
π₯2 + π¦2 = π 2πππ 2 π + π 2π ππ2(π)
26
π₯2 + π¦2 = π 2 πππ 2 π + π ππ2(π)
πππ πππππ‘ππππ πππ‘πππππππ:
π₯2 + π¦2 = π 2 1
β΄ π = Β± π₯2 + π¦2
π₯
π¦=
cos(π)
π ππ(π)
π₯
π¦=
1
π‘ππ(π)
tan π =π¦
π₯
β΄ π = arctan π¦
π₯
ππ ,π π, π =π
π2π
βπ2
2π2 β1
2π
π½ π, π =
ππ₯
ππ
ππ₯
ππππ¦
ππ
ππ¦
ππ
= cos(π) βπ π ππ(π)
π ππ(π) π πππ (π) = π πππ 2 π + π π ππ2 π = π
π½ π, π = π
ππ₯π¦ π₯, π¦ = ππ ,π (π, π)
π½(π, π)
π
π=1
=ππ
βπ2
2π2
πβ
1
2ππ2
ππ₯π¦ π₯, π¦ = π
β π₯ 2+π¦2
2π2
2ππ2+
πβ
π₯ 2+π¦2
2π2
2ππ2
ππ₯π¦ π₯, π¦ = π
β π₯ 2+π¦2
2π2
ππ2
27
FunciΓ³n CaracterΓstica
Si z=g(x,y) β Ξ¦z(w) =E[egwz]
Si z =x+y β Ξ¦z(w) =E[egw(x+y)]
Si x e y son independientes
Ξ¦z(w) =E[egwx] E[egwy+ = Ξ¦x(w)*Ξ¦y(w)
Si z=x+y β fz(z) = ππ₯π¦ (π§ β π¦, π¦)ππ¦β
ββ
ππ§ π§ = ππ₯ π§ β π¦ ππ¦ π¦ ππ¦ = ππ₯ (π§) β ππ¦ (π§)β
ββ
Probabilidad Condicional
πΉπ π¦ π₯ = π₯π =π[π β€ π¦, π = π₯π]
π[π₯ = π₯π]
ππ π¦ π₯ = π₯π =π πΉπ π¦ π₯ = π₯π
ππ₯
ππ π¦ π₯ = π₯π =πππ (π₯, π¦)
ππ₯ (π₯)
Si x e y son independientes
πΉπ π¦ π₯ = π₯π = πΉπ(π¦)
Si x e y son V.A discretas
π π β€ π¦, π = π₯π = π[π = π₯π , π = π¦]
π[π₯ = π₯π]
Momentos Condicionales
πΈ π¦ π = π₯ = π¦ππ¦ π¦ π₯ = π₯ ππ¦ β π. π΄ πΆπππ‘πππ’πβ
ββ
πΈ π¦ π = π₯ = π¦π π π¦ π₯ = π₯ β π. π΄ π·ππ ππππ‘π
π
π =1
28
Momentos Conjuntos
Dadas dos V.A x,y e fXY(x,y) y z=g(x,y)
πΈ π π₯, π¦ = π(π₯, π¦)πππ (π₯, π¦)ππ₯ππ¦β
ββ
β π. π΄ πΆπππ‘πππ’πβ
ββ
πΈ π π₯, π¦ = π(π₯, π¦)
π ,π
π π₯ = π₯π ; π = π¦π β π. π΄ π·ππ ππππ‘π
Covarianza
πΆππ = πΈ x β ππ₯ y β ππ¦ = πΈ ππ β ππ₯ππ¦
Coeficiente de covarianza
πΎ =πΆππ
ππ₯ππ¦ ; 0 β€ π β€ 1 β πΆππ β€ ππ₯ππ¦
Teorema
Dos V.A se dice que son no correlacionadas si CXY =0
E[XY] =nXnY =E[X]E[Y]
Ortogonalidad
Dos V.A se dice que son ortogonales si el E[XY]=0
Teorema
Si dos V.A son independientes entre sΓ entonces son no correlacionadas.
29
FunciΓ³n CaracterΓstica Conjunta
πππ π€1,π€2 = πΈ ππ π€1π+π€2π = πππ π₯, π¦ ππ π€1π+π€2π ππ₯ππ¦β
ββ
β
ββ
Por consiguiente πππ π€1,π€2 es la transformada de Fourier de πππ π₯, π¦
Ejemplo:
Sea(X,Y) una variable aleatoria bidimensional con funciΓ³n de densidad
ππ₯ ,π¦ π, π = 1 ; π π 0 β€ π₯ β€ 1, 0 β€ π¦ β€ 1
0 ; ππ ππ πππ π‘π
Determinar:
La funciΓ³n de densidad de S= (X + Y)/ 2.
La covarianza entre S y X.
La π(π β€ 0.5 , π β€ 1).
SoluciΓ³n:
Si π β 0 ,1
2
π π β€ π = π(0 β€ π β€ 2π , 0 β€ π β€ 2π β π₯)
π π β€ π = 1 ππ¦ ππ₯2π βπ₯
0
2π
0
= 2π β π₯ ππ₯2π
0
π π β€ π = 2 π 2
Si π β 1
2 , 1
π π β€ π = 1 β π π > π = 1 β π(2π β 1 β€ π β€ 1 , 2π β π₯ β€ π β€ 1)
π π β€ π = 1 β 1 ππ¦ ππ₯1
2π βπ₯
1
2π β1
π π β€ π = 1 β 2 π β 1 2
30
πΉπ π =
0 ; π < 0
2π 2 ; 0 β€ π < 1/2
1 β 2 π β 1 2 ; 1
2β€ π < 1
1 ; π β₯ 1
ππ π =
4π ; 0 β€ π < 1/2
β4 π β 1 ; 1
2β€ π < 1
0 ; π πΈπππ
b)
πΆππ£ π, π = πΈ ππ β πΈ π πΈ π = πΈ π π + π
2 β πΈ π πΈ π
πΆππ£ π, π =1
2πΈ π2 +
1
2πΈ ππ β πΈ π πΈ π
πΈ π = π₯ ππ¦ ππ₯1
0
1
0
=1
2
πΈ π2 = π₯2 ππ¦ ππ₯1
0
1
0
=1
3
πΈ ππ = π₯π¦ ππ¦ ππ₯1
0
1
0
=1
4
πΈ π =1
2πΈ π +
1
2πΈ π =
1
2
πΆππ£ π, π =1
24
Esto podemos resolverlo graficando la zona que nos
piden
π π₯ β€ 0.5 , π₯ + π¦ β€ 2 =1
2
31
Secuencia de Variables Aleatorias
Sean π variables aleatorias X1 , X2, β¦ , Xn , entonces
πΉX1 ,X2 ,β¦,Xn X1 , X2 , β¦ , Xn = P(X1 β€ x1 , X2 β€ x2, β¦ , Xn β€ xn )
ππ1 ,π2 ,β¦,ππ π1, π2, β¦ , ππ =
πππΉπ1 ,π2 ,β¦,ππ(π1, π2, β¦ , ππ)
ππ1, ππ2, β¦ , πππ
β¦ πX1 ,X2 ,β¦,Xn X1 , X2, β¦ , Xn dX1, dX2, β¦ , dXn
β
ββ
β
ββ
β
ββ
β
ββ
= 1
π X1, X2 , β¦ , Xn β π·π§ = β¦ πX1 ,X2 ,β¦,Xn(X1, X2 , β¦ , Xn )dX1, dX2, β¦ , dXn
π·π§
Densidades Marginales
πΉπ1 ,π3 π1, π3 = πΉπ1 ,π2 ,π3 ,π4
π1, β, π3, β
ππ1 ,π3 π1, π3 = ππ1 ,π2 ,π3 ,π4
π1, π2, π3, π4 ππ2ππ4
β
ββ
β
ββ
Densidad Condicional
La distribuciΓ³n marginal de X es simplemente la ley de probabilidad de X haciendo caso
omiso de la informaciΓ³n referente a Y
π π1, π2, β¦ , ππ ππ+1, ππ+2, β¦ , ππ =π(π1, π2, ππ+1, ππ+2, β¦ , ππ)
π(ππ+1 , ππ+2, β¦ , ππ)
32
Ejemplo:
π π1 π2, π3 =π(π1, π2, π3)
π(π2, π3)
πΉ π1 π2, π3 = π β1 π2, π3 π1
ββ
π β1
Ejemplo:
π π1, π3 π2, π4 =π(π1, π2, π3, π4)
π(π2, π4)
πΉ π1, π3 π2, π4 = π β1, β3 π2, π4 π β1
π3
ββ
π1
ββ
π β3
Regla de la Cadena
π π1, π2, π3, β¦ , ππ
= π ππ ππβ1, ππβ2, β¦ , π1 β π ππβ1 ππβ2, ππβ3, β¦ , π1 β π ππβ2 ππβ3, ππβ4, β¦ , π1 β β¦
β π π2 π1 β π π1
RemociΓ³n de Variables
Dado π π1, π2, π3 π4, π5 ;
NotaciΓ³n:
π1, π2, π3 => π. π΄. ππ ππ ππ§ππ’πππππ
π4, π5 => π. π΄. ππ ππ πππππππ
Para remover una V.A. de la βderechaβ se multiplica por la densidad condicional de las variables
que desea remover, dado el resto de las variables de la derecha y se integra con respecto a ellas
de ββ π β
Para remover una V.A. de la βizquierdaβ se integra con respecto a esa variable.
33
Ejemplo:
Dado π π1, π2 π3 , remover π2
π π1 π3 = π π1, π2 π3 ππ2
β
ββ
Dado π π1 π2, π3, π4 , hallar π π1 π4
π π1 π4 = π π1 π2, π3, π4 β π π2, π3 π4 ππ2ππ3
β
ββ
β
ββ
Variables Aleatorias Independientes
Supongamos que "X" e "Y" son variables aleatorias discretas. Si los eventos X = x / Y = y son
variables aleatorias independientes. En tal caso: P(X = x, Y = y) = P( X = x) P ( Y = y).
De manera equivalente: f(x,y) = f1(x).f2(y).
De manera general:
πΉπ1 ,π2 ,β¦,ππ π1 , π2, β¦ , ππ = πΉπ1
π1 β πΉπ2 π2 β β¦β πΉππ
ππ
ππ1 ,π2 ,β¦,ππ π1 , π2, β¦ , ππ = ππ1
π1 β ππ2 π2 β β¦β πππ
ππ
Suma de Variables Aleatorias
Sean π1, π2, β¦ , ππ una secuencia de variables aleatorias.
En forma particular analizaremos ππ = π1 + π2
πΈ ππ = πΈ π1 + π2 = πΈ π1 + πΈ[π2]
πππ ππ = πππ π1 + πππ π2 + 2πΆππ£(π1, π2)
En forma general
πΈ ππ = πΈ π1 + πΈ π2 + β― + πΈ[ππ ]
πππ ππ = πππ(ππ)
π
π=1
+ πΆππ£(ππ , ππ)
π
π=1
π
π =1
34
Teorema del Limite Central
Sea ππ la suma de π variables aleatorias independientes con igual distribuciΓ³n con
πΈ π = π’ y πππ π = π2
Siendo
ππ =ππ β πΈ ππ
πππ
=ππ β ππ’
π π
entonces
limπββ
πΉ ππ β€ π = πβπ2
2 πππ
ββ
Nota: Se aplica independientemente de la distribuciΓ³n de las variables aleatorias equis. Es decir
que no importa si esta es binomial, exponencial, geomΓ©trica, etc.
Ejemplo:
Suponga que las ordenes en un comedor son variables aleatorias idΓ©nticamente
distribuidas con media igual a $8 y una desviaciΓ³n estΓ‘ndar de $2. Determine:
a) La probabilidad de que los primeros 100 clientes gasten un total de mΓ‘s de $860
b) La probabilidad de que los primeros 100 clientes gasten un total entre $760 y $840
c) DespuΓ©s de cuantas ordenes se puede estar un 95% seguro que el total gastado por todos
los clientes es mas de $1000
SoluciΓ³n:
π = 8 ; π = 2
a)
ππ =860 β 100(8)
2 (10)= 3
Entonces
π π§ > 3 = 0.9987
b)
ππ =840 β 100(8)
2 (10)= 2
35
ππ =760 β 100(8)
2 (10)= β2
Entonces
π 2 > π§ > β2 = 0.544
c)
ππ =1000 β π(8)
2 ( π)
π π§ <1000 β 8π
2 π = 0.95
Entonces
1000 β 8π
2 π= 1.6
1000000 β 16000π + 64π2 = 10.24π
1π β 16πΎπ β 10.24π + 64π2 = 0
π =16010.24 Β± 256327784.9 β 4 1π (64)
2(64)=
16010.24 Β± 572.5
128= {
120.6129.5
β π = 120.6
Redondeando
π = 121 πππππππ
Ejemplo:
Un estudiante usa lΓ‘pices cuya duraciΓ³n es una variable aleatoria exponencial con media
de una semana. Use el teorema del lΓmite central para determinar el mΓnimo numero de lΓ‘pices
que deberΓa comprar al inicio del semestre (15 semanas) para tener una probabilidad de 0.99 de
no quedarse sin lΓ‘pices durante el semestre.
SoluciΓ³n:
π πππππππ ππππ ππ 15 π ππππππ
π’ = 1 ; π = 1 ; ππ = 15
36
π π <15 β π
π = 0.99
15 β π
π= 2.325
225 β 30π + π2 = 5.4056π
225 β 35.4056π + π2 = 0
π1 = 8.3
π2 = 27.1
Entonces el nΓΊmero de lΓ‘pices mΓnimo es 9.
Procesos Aleatorios o Estocasticos
Un proceso estocΓ‘stico es un concepto matemΓ‘tico que sirve para caracterizar una
sucesiΓ³n de variables aleatorias (estocΓ‘sticas) que evolucionan en funciΓ³n de otra variable,
generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia funciΓ³n
de distribuciΓ³n de probabilidad y, entre ellas, pueden estar correlacionadas o no.
Cada variable o conjunto de variables sometidas a influencias o impactos aleatorios
constituye un proceso estocΓ‘stico.
,X t
β V.A. que nos proporciona informaciΓ³n
πΉπ π‘ π(π‘) = π π(π‘) β€ π₯(π‘)
37
Ejemplo:
Hallar π’π π‘ y π£ππ π π‘ del siguiente proceso estocΓ‘stico, si se sabe que A es una variable
aleatoria uniforme con intervalo (0,2)
π π‘, π΄ = π΄πππ(π€π‘)
π΄ β ππππππππ π΄ππππ‘ππππ ππππππππ π. π΄. π. β (0,2)
Se asume que wt es constante.
1era Forma de Resolverlo:
π’π(π‘) = πΈ π π‘ = πΈ π΄πππ π€π‘ = πππ π€π‘ πΈ π΄ = πππ π€π‘ π΄0.5β
ββ
ππ΄
= πππ π€π‘ 0.5π΄ππ΄2
0
= πππ π€π‘ 1
20.5π΄2|0
2 = πππ π€π‘ 0.5 2 2
2= πππ(π€π‘)
π£ππ π π‘ = πΈ π π‘ β π’π π‘ 2 = πΈ π π‘ 2 β π’π(π‘)
2 = πΈ π΄2πππ2 π€π‘ β πππ2 π€π‘
= πππ2 π€π‘ πΈ π΄2 β πππ2 π€π‘ = πππ2 π€π‘ π΄20.5 ππ΄2
0
β πππ2 π€π‘
= πππ2 π€π‘ 0.5
3π΄3|0
2 β πππ2 π€π‘ = πππ2 π€π‘ 0.5 (8)
3 β πππ2 π€π‘
= 4
3πππ2 π€π‘ β πππ2 π€π‘ =
1
3πππ2(π€π‘)
2da Forma de Resolverlo:
ππ΄ π = 0,5 ; 0 β€ π β€ 2
0 ; ππ‘ππ π
πΉπ΄ π = 1 ; π β₯ 2
0.5π΄ ; 0 β€ π < 20 ; π < 0
38
πΉπ π‘ (π π‘ ) = π π π‘ β€ π₯ π‘ = π π΄πππ π€π‘ β€ π₯ π‘ = π π΄ β€π₯ π‘
πππ π€π‘ = πΉπ΄
π₯ π‘
πππ π€π‘
πΉπ π‘ =
1 ; π π‘ β₯ 2πππ(π€π‘)
0.5 π(π‘)
πππ(π€π‘) ; 0 β€ π(π‘) < 2πππ(π€π‘)
0 ; π π‘ < 0
Para obtener los lΓmites hacemos lo siguiente:
π π‘ = π΄πππ π€π‘ ; π΄ β 0,2 β π π‘ β 0,2πππ π€π‘
Luego derivamos πΉπ(π‘) para obtener ππ(π‘):
ππ(π‘) =
0.5
πππ(π€π‘) ; 0 β€ π(π‘) β€ 2πππ(π€π‘)
0 ; ππ‘ππ π(π‘)
Con lo que podemos hallar π’π(π‘):
π’π(π‘) = πΈ π π‘ = π π‘ 0.5
πππ π€π‘ ππ π‘
2πππ (π€π‘ )
0
=π(π‘)2
4πππ(π€π‘)|0
2πππ (π€π‘ )=
4πππ2(π€π‘)
4πππ(π€π‘)
= πππ(π€π‘)
Igual procedimiento se puede realizar para obtener la varianza de X(t).
AutocorrelaciΓ³n
La autocorrelaciΓ³n es la correlaciΓ³n cruzada de un seΓ±al consigo misma.
La funciΓ³n de autocorrelaciΓ³n resulta de gran utilidad para encontrar patrones repetitivos
dentro de una seΓ±al, como por ejemplo, la periodicidad de una seΓ±al enmascarada bajo el ruido o
para identificar la frecuencia fundamental de una seΓ±al que no contiene dicha componente, pero
aparecen numerosas frecuencias armΓ³nicas de esta.
π π π‘1 , π‘2 = πΈ[π π‘1 , π(π‘2)]
39
Crosscorrelacion
La correlaciΓ³n cruzada es una medida de la similitud de dos formas de onda como una
funciΓ³n de un desfase aplicado a uno de ellos. Esto tambiΓ©n se conoce como un deslizamiento
producto punto o corredera interior-producto.
π ππ π‘1 , π‘2 = πΈ[π π‘1 , π(π‘2)]
Autocovarianza
Es el cΓ‘lculo de la crosscovarianza de un proceso consigo mismo.
πΆπ π‘1 , π‘2 = πΈ[ π π‘1 β ππ(π‘1) π π‘2 β ππ(π‘2) ]
Crosscovarianza
El tΓ©rmino covarianza transversal se utiliza para referirse a la covarianza cov (X, Y) entre
dos vectores aleatorios X y Y, con el fin de distinguir que el concepto de la "covarianza" de un
vector X al azar, que se entiende ser la matriz de covarianzas entre los componentes escalares de
X.
πΆππ π‘1 , π‘2 = πΈ[ π π‘1 β ππ(π‘1) π π‘2 β ππ(π‘2) ]
Simplificaciones para tener en cuenta:
πΆπ π‘1 , π‘2 = π π π‘1, π‘2 β ππ π‘1 ππ(π‘2)
πππ π π‘ = πΈ π π‘ β ππ π‘ 2 = πΆπ π‘, π‘ = πΈ π π‘ 2 β πΈ[π(π‘)]2 = πΈ π π‘ π π‘ β πΈ π π‘ 2
= π π(π‘, π‘) β πΈ[π(π‘)]2
40
Coeficiente de CorrelaciΓ³n
El coeficiente de correlaciΓ³n de Pearson es un Γndice que mide la relaciΓ³n lineal entre dos
variables aleatorias cuantitativas. A diferencia de la covarianza, la correlaciΓ³n de Pearson es
independiente de la escala de medida de las variables.
ππ π‘1, π‘2 =πΆπ(π‘1 , π‘2)
πΆπ(π‘1 , π‘1) πΆπ (π‘2 , π‘2) ; ππ(π‘1, π‘2) β€ 1
Ejemplo:
Dado un proceso estocΓ‘stico X(t) y la variable aleatoria π. Hallar E[X(t)] y π π(π‘1 , π‘2)
π π‘ = π΄πΆππ π€π‘ + π
π => π. π΄. ππππππππ 0, 2π
π΄, π€ = ππππ π‘πππ‘ππ
SoluciΓ³n:
π =1
2π
πΈ π π‘ = πΈ π΄πΆππ π€π‘ + π = πΈ π΄πΆππ π€π‘ πΆππ π β π΄πππ π€π‘ ππππ
= π΄πΆππ π€π‘ πΈ πΆππ π β π΄πππ π€π‘ πΈ ππππ
= π΄πΆππ π€π‘ πΆππ π2π
0
1
2πππ β π΄πππ π€π‘ ππππ
2π
0
1
2πππ
= π΄πΆππ π€π‘ 1
2π ππππ 0
2π + π΄πππ π€π‘ 1
2π πΆππ π 0
2π = 0
π π π‘1 , π‘2 = πΈ π π‘1 π π‘2
= πΈ π΄πΆππ π€π‘1 πΆππ π β π΄πππ π€π‘1 ππππ π΄πΆππ π€π‘2 πΆππ π β π΄πππ π€π‘2 ππππ
= πΈ π΄2πΆππ 2ππΆππ π€π‘1 πΆππ π€π‘2 + π΄2πππ2ππππ π€π‘1 πππ π€π‘2
β π΄2πΆππ π€π‘1 πππ π€π‘2 πΆππ πππππ β π΄2πππ π€π‘1 πΆππ π€π‘2 πΆππ πππππ
= π΄2πΆππ π€π‘1 πΆππ π€π‘2 πΈ πΆππ 2π + π΄2πππ π€π‘1 πππ π€π‘2 πΈ πππ2π
β π΄2πΆππ π€π‘1 πππ π€π‘2 + π΄2πππ π€π‘1 πΆππ π€π‘2 πΈ πΆππ πππππ
41
πΈ πΆππ 2π = 1
2π
1
2+
1
2πΆππ 2π ππ
2π
0
=1
2π[1
2π +
1
4πππ2π]0
2π =1
2ππ =
1
2
πΈ πππ2π = 1
2π
1
2β
1
2πΆππ 2π ππ
2π
0
=1
2π[1
2π β
1
4πππ2π]0
2π =1
2ππ =
1
2
πΈ πππππΆππ π = 1
2ππππππΆππ πππ
2π
0
=1
4π πππ2π 0
2π = 0
Entonces
π π π‘1 , π‘2 =π΄2
2πΆππ π€π‘1 πΆππ π€π‘2 +
π΄2
2πππ π€π‘1 πππ π€π‘2 =
π΄2
2πΆππ π€π‘1 β π€π‘2
=π΄2
2πΆππ (π€ π‘1 β π‘2 )
Proceso Estacionario en Sentido Amplio (w.s.s.)
Se dice que un proceso estocΓ‘stico es estacionario en sentido amplio cuando cumple con las
dos siguientes condiciones:
1. πΈ π π‘ = ππ = πΆπππ π‘πππ‘π (sin π‘)
2. πΈ π π‘ π π‘ β π = π π π ; ππ πππππ, π πππ ππ ππ’πππππ ππ π (sin π‘)
Propiedades de un P.E.S.A. (w.s.s.)
a) π π 0 = πΈ[π(π‘)2]
b) π π π = π π βπ
c) π π(π) β€ π π 0 ; limπββ π π(π) = (π’π)2
d) La grafica de π π(π) nos da informaciΓ³n sobre el comportamiento temporal del proceso.
Nota: en algunos problemas utilizaremos π = π‘1 β π‘2
42
Ejemplo:
Calcular:
a) Media y autocorrelaciΓ³n de X(t) y Y(t)
b) La varianza de X(t) y la varianza entre X(1) y X(2)
c) FunciΓ³n de probabilidad y de densidad de X(t); t>0
d) P(Y(1)β€1)
Si se conoce lo siguiente:
A y B => Variables Aleatorias Independientes
A => DistribuciΓ³n exponencial con media 1
B => DistribuciΓ³n uniforme (0,1)
X(t) y Y(t) son procesos estocΓ‘sticos de la siguiente manera:
π π‘ = πβπ΄π‘ ; π‘ > 0
π π‘ = πβπ΄π‘+π΅ ; π‘ > 0
SoluciΓ³n:
ππ΅ = 1 ; π΅ β 0,1
πΉπ΅ = π΅ ; π΅ β 0,1
ππ΄ = πβπ΄ ; π΄ β 0, β
πΉπ΄ = 1 β πβπ΄ ; π΄ β (0, β)
a)
πΈ π π‘ = πΈ πβπ΄π‘ = πβπ΄π‘πβπ΄ππ΄β
0
= πβπ΄ π‘+1 ππ΄β
0
= β1
π‘ + 1πβπ΄ π‘+1
0β
=1
π‘ + 1
πΈ π π‘ = πΈ πβπ΄π‘+π΅ = πΈ πβπ΄π‘ππ΅ = πβπ΄π‘ππ΅πβπ΄ππ΄ππ΅β
0
1
0
= ππ΅ πβπ΄(π‘+1)ππ΄ππ΅β
0
1
0
= ππ΅ β1
π‘ + 1πβπ΄(π‘+1)
β0
ππ΅1
0
=1
π‘ + 1 ππ΅ππ΅
1
0
=1
π‘ + 1ππ΅
01
=π
π‘ + 1β
1
π‘ + 1
=π β 1
π‘ + 1
43
π π π‘1 , π‘2 = πΈ π π‘1 π π‘2 = πΈ πβπ΄π‘1πβπ΄π‘2 = πΈ πβπ΄ π‘1+π‘2 = πβπ΄ π‘1+π‘2 πβπ΄ππ΄β
0
= πβπ΄ π‘1+π‘2+1 ππ΄β
0
= β1
π‘1 + π‘2 + 1πβπ΄ π‘1+π‘2+1 β
0=
1
π‘1 + π‘2 + 1
π π π‘1, π‘2 = πΈ π π‘1 π π‘2 = πΈ πβπ΄π‘1+π΅πβπ΄π‘2+π΅ = πΈ πβπ΄ π‘1+π‘2 +2π΅
= πβπ΄(π‘1+π‘2)π2π΅πβπ΄ππ΄ππ΅β
0
1
0
= π2π΅ πβπ΄(π‘1+π‘2+1)ππ΄β
0
ππ΅1
0
= π2π΅ β1
π‘1 + π‘2 + 1πβπ΄(π‘1+π‘2+1)
0
β
ππ΅1
0
=1
π‘1 + π‘2 + 1 1
2π2π΅
0
1
=π2 β 1
2(π‘1 + π‘2 + 1)
b)
πππ π π‘ = πΈ π π‘ β ππ(π‘) 2 = π π π‘, π‘ β πΈ[π(π‘)] 2
π π π‘, π‘ =1
2π‘ + 1 ; πΈ[π(π‘)] 2 =
1
(π‘ + 1)2
Entonces
πππ π π‘ =1
2π‘ + 1β
1
(π‘ + 1)2
πΆππ£ π 1 π 2 = πΈ π 1 β ππ 1 π 2 β ππ 2 = πΈ π 1 π 2 β ππ(1)ππ(2)
πΈ π 1 π 2 = πΈ πβπ΄πβ2π΄ = πΈ πβ3π΄ = πβ3π΄πβπ΄ππ΄β
0
= πβ4π΄ππ΄β
0
=1
4
πΈ π 1 =1
2 ; πΈ π 2 =
1
3
Entonces
πΆππ£ π 1 π 2 =1
4β
1
2
1
3=
6 β 4
24=
2
24=
1
12
c)
44
πΉπ π π‘ = π π π‘ β€ π₯ π‘ = π πβπ΄π‘ β€ π₯ π‘ = π βπ΄π‘ β€ πππ₯ π‘ = π π΄ β₯ βπππ₯ π‘
π‘
= 1 β πΉπ΄ βπππ₯ π‘
π‘
πΉπ΄ = βπβπ΄ ; π΄ > 0
0 ; π΄ < 0
πΉπ =
1 ; π(π‘) β₯ 1
1 + ππππ (π‘)
π‘ = 1 + πlnπ(π‘)1π‘ = 1 + π(π‘)
1π‘ ; 0 β€ π(π‘) < 1
0 ; π(π‘) < 0
ππ = 1
π‘π(π‘)
1π‘β1 ; 0 β€ π π‘ β€ 1
0 ; ππ‘ππ π
d)
π π 1 β€ 1 = π πβπ΄+π΅ β€ 1 = π βπ΄ + π΅ β€ 0 = π π΅ β€ π΄ = πΉπ΄,π΅(π΄)
ππ΄ = πβπ΄ ; ππ΅ = 1 ; πΉπ΄ = 1 β πβπ΄ ; πΉπ΅ = π΅ ; πΉπ΄,π΅ = π΅(1 β πβπ΄)
πΉπ΄,π΅ = πβπ΄ππ΄β
π΅
ππ΅1
0
= βπβπ΄ π΅βππ΅
1
0
= πβπ΅ππ΅1
0
= βππ΅01
= βπβ1 + 1 = 1 β1
π
45
Ejemplo:
Hallar:
a) πΈ π1 π‘
b) π π1 π‘, π‘ + π
c) πΈ π2 π‘
d) π π2 π‘, π‘ + π
Si se conoce que X(t) es w.s.s. con π π π = πβ π ; π β π
π1 π‘ = π π‘ πΆππ π‘
π2 π‘ = π π‘ β π(π‘ β π)
SoluciΓ³n:
a)
πΈ π1 π‘ = πΈ π π‘ πΆππ π‘ = πΆππ π‘ πΈ π π‘ = πΆππ π‘ ππ
ππ2 = lim
πββπ π π = 0 => ππ = 0 => πΈ π1 π‘ = 0
b)
π π1 π‘, π‘ + π = πΈ π π‘ π π‘ + π = πΈ π π‘ πΆππ π‘ π π‘ β π πΆππ π‘ β π
= πΆππ π‘ πΆππ π‘ β π πΈ π π‘ π π‘ β π = πΆππ π‘ πΆππ π‘ β π π π π
= πΆππ π‘ πΆππ (π‘ β π)πβ π
c)
πΈ π2 π‘ = πΈ π π‘ β π π‘ β π = πΈ π π‘ β πΈ π π‘ β π = 0 β 0 = 0
d)
π π2 π‘, π‘ + π = πΈ π π‘ π π‘ + π = πΈ π π‘ β π π‘ β π π π‘ + π β π π‘ β π + π
= πΈ π π‘ π π‘ + π β πΈ π π‘ β π π π‘ + π β πΈ π π‘ π π‘ β π + π
+ πΈ π π‘ β π π π‘ β π + π = π π π + π π π β π π π β π β π π π + π
= 2π π π β π π π β π β π π π + π = 2πβ π β πβ πβπ β πβ π+π
46
Ejemplo:
Determinar si X(t) es w.s.s., sabiendo que π => π. π΄. ππππππππ (βπ, π)
π π‘ = π΄2πΆππ 2 π€π‘ + π
SoluciΓ³n:
ππ =1
2π ; πΉπ =
π
2π
πΈ π π‘ = πΈ π΄2πΆππ 2 π€π‘ + π = π΄2πΈ 1
2+
πΆππ 2 π€π‘ + π
2 =
1
2π΄2 +
1
2πΈ πΆππ 2 π€π‘ + π
=1
2π΄2 +
1
2πΈ πΆππ 2π€π‘ πΆππ 2π β πππ 2π€π‘ πππ 2π
=1
2π΄2 +
1
2πΆππ 2π€π‘ πΈ πΆππ 2π β
1
2πππ 2π€π‘ πΈ πππ 2π
πΈ πΆππ 2π = πΆππ 2π 1
2πππ
π
βπ
=1
2π 1
2πππ 2π
βπ
π
= 0
πΈ πππ 2π = πππ 2π 1
2πππ
π
βπ
=1
2π β
1
2πΆππ 2π
βπ
π
= β1
4π 1 β 1 = 0
Entonces:
πΈ π π‘ =1
2π΄2 => Independiente de t
π π π = πΈ π π‘ π π‘ β π = πΈ π΄2πΆππ 2 π€π‘ + π π΄2πΆππ 2 π€π‘ β π€π + π
= π΄4πΈ πΆππ 2 π€π‘ + π πΆππ 2 π€π‘ β π€π + π
= π΄4πΈ 1
2+
1
2πΆππ 2π€π‘ + 2π
1
2+
1
2πΆππ 2π€ π‘ β π + 2π
=π΄4
4+
π΄4
4πΆππ 2π€π‘ πΆππ 2π€ π‘ β π πΈ πΆππ 2 2π
βπ΄4
4πΆππ 2π€π‘ πππ 2π€ π‘ β π πΈ πΆππ 2π πππ 2π
βπ΄4
4πΆππ 2π€ π‘ β π πππ 2π€π‘ πΈ πΆππ 2π πππ 2π
+π΄4
4πππ 2π€π‘ πππ 2π€ π‘ β π πΈ πππ2 2π
47
πΈ πΆππ 2 2π = πΈ 1
2+
1
2πΆππ 4π =
1
2+
1
2πΈ πΆππ 4π =
1
2+
1
2 πΆππ 4π
1
2πππ
π
βπ
=1
2+
1
4π
1
4πππ 4π
βπ
π
=1
2
πΈ πΆππ 2π πππ 2π = πππ 2π πΆππ 2π 1
2πππ
π
βπ
=1
2π πππ 2π πΆππ 2π ππ
π
βπ
=1
2π πππ2 2π
βπ
π= 0
πΈ πππ2 2π = πΈ 1
2β
1
2πΆππ 2π =
1
2
Entonces:
π π π =π΄4
4+
π΄4
8πΆππ 2π€π‘ πΆππ 2π€ π‘ β π +
π΄4
8πππ 2π€π‘ πππ 2π€ π‘ β π
=π΄4
8 2 + πΆππ 2π€π‘ β 2π€π‘ + 2π€π
π π π =π΄4
8 2 + πΆππ 2π€π => ππ πππππππ ππ π‘
Entonces X(t) SΓ es w.s.s.
Densidad Espectral de Potencia
La Densidad Espectral (Spectral Density) de una seΓ±al es una funciΓ³n matemΓ‘tica que nos
informa de cΓ³mo estΓ‘ distribuida la potencia o la energΓa (segΓΊn el caso) de dicha seΓ±al sobre las
distintas frecuencias de las que estΓ‘ formada, es decir, su espectro.
ππ π = limπββ
1
ππΈ ππ(π) 2
ππ π = π π‘ πβπ 2πππ‘ ππ‘
π2
βπ2
0 < ππ < β
πΈπ β β
48
Teorema de Wiener Khinchin
El teorema de Wiener-Khinchin (tambiΓ©n conocido como el teorema de Wiener-Khintchine y, a
veces como el teorema de Wiener-Khinchin-Einstein o el teorema de Kolmogorov-Khinchin) afirma
que la potencia de la densidad espectral de un proceso aleatorio estacionario en sentido amplio
es la transformada de Fourier de el correspondiente funciΓ³n de autocorrelaciΓ³n.
ππ π = πΉ π π π‘, π‘ + π = π π π‘, π‘ + π πβπ2πππ ππβ
ββ
π π π‘, π‘ + π = πΉβ1 ππ π = ππ π ππ2πππ ππβ
ββ
Si X(t) es w.s.s. entonces:
ππ π = πΉ π π π = π π π πβπ2πππ ππβ
ββ
[π€ π»π§ ]
π π π = πΉβ1 ππ π = ππ(π)ππ2πππ ππβ
ββ
Ejemplo:
Determinar:
a) Si Y(t) es w.s.s.
b) ππ(π)
Dado que X(t) es w.s.s. πΈ π π‘ = 0 ; πππ π π‘ = 2
π π‘ = 2 + 3π(π‘ β 1)
SoluciΓ³n:
a)
πΈ π π‘ = πΈ 2 + 3π π‘ β 1 = πΈ 2 + πΈ 3π₯ π‘ β 1 = 2 => πΆπππ π‘πππ‘π
π π π‘, π‘ β π = πΈ π π‘ π π‘ β π = πΈ 2 + 3π π‘ β 1 2 + 3π π‘ β π β 1
= πΈ 4 + 6π π‘ β π β 1 + 6π π‘ β 1 + 9π π‘ β 1 π π‘ β π β 1
= 4 + 9πΈ π π‘ β 1 π π‘ β 1 β π = 4 + 9π π π => πΆπππ π‘πππ‘π
Entonces π π‘ πΓ ππ π€. π . π .
49
b)
ππ π = πΉ π π π = π π(π)πβπ2πππ ππβ
ββ
= 4 + 9π π(π) πβπ2πππ ππβ
ββ
= 4πβπ2πππβ
ββ
+ 9π π(π)πβπ2πππ ππβ
ββ
= 4πΏ π + 9ππ(π)
Ejemplo:
Conociendo que X(t) es w.s.s., y que π π π = πβ π ; π β π .
Determinar:
a) Si π π‘ = π π‘ πΆππ π‘ ππ π€. π . π .
b) Si π π‘ = π π‘ β π π‘ β π , ππππππ ππ π π ππ(π€)
SoluciΓ³n:
a)
πΈ π π‘ = πΈ π π‘ πΆππ π‘ = πΆππ π‘ πΈ π π‘ = πΆππ π‘ π’π₯
limπββ
π π(π) = π’π2 => π’π = 0 ππππ π‘πππ‘π
πΈ π π‘ π π‘ β π = πΈ π π‘ πΆππ π‘ π π‘ β π πΆππ π‘ β π = πΆππ π‘ πΆππ π‘ β π πΈ π π‘ π π‘ β π
= πΆππ π‘ πΆππ π‘ β π π π π = πΆππ π‘ πΆππ π‘ β π πβ π
β ππ ππ ππππ π‘πππ‘π, ππ ππ π€. π . π .
b)
ππ π = πΉ[π π(π‘, π‘ β π)]
π π π‘, π‘ + π = πΈ π π‘ π π‘ + π = πΈ π π‘ β π π‘ β π π π‘ + π β π π‘ + π β π
= πΈ π π‘ π π‘ + π β π π‘ π π‘ + π β π β π π‘ β π π π‘ + π
+ π π‘ β π π π‘ + π β π = π π π β π π π β π β π π π + π + π π π
= 2π π π β π π π β π β π π π + π = 2πβ π β πβ πβπ β πβ π+π
ππ π€ =4
1 + π€12β
2
1 + π€22
β2
1 + π€32
50
Paso de una SeΓ±al Aleatoria por un Sistema Lineal
El sΓmbolo * denotara convoluciΓ³n.
π¦ π‘ = π₯ π‘ β π(π‘)
π π¦ π = πΈ π¦ π‘ π¦ π‘ + π
π π¦ π = π βπ β π π β π π₯ (π)
ππ π = π» π 2ππ(π)
π ππ π = π π β π π π
π π₯π¦ π = π π₯π¦ βπ
Para un Sistema No Lineal
Uso la definiciΓ³n:
π¦ π‘ = π₯ π‘ β π(π‘)
Ejemplo:
Suponiendo X(t) y W(t) w.s.s. e independientes. Hallar π π(π) si:
a)
π π‘ = π π‘ π(π‘)
SoluciΓ³n:
π π π = πΈ π π‘ π π‘ π π‘ β π π π‘ β π = π π π π π(π)
51
b)
π π‘ = π π‘ + π(π‘)
SoluciΓ³n:
π π π = πΈ π π‘ + π π‘ π π‘ β π + π π‘ β π
= πΈ π π‘ π π‘ β π + π π‘ π π‘ β π + π π‘ π π‘ β π + π π‘ π π‘ β π
= π π π + π π π + π’ππ’π + π’ππ’π = π π π + π π π + 2π’ππ’π
Retardador
Z t = X t β t0
RZ π = π π π
Procesos ErgΓ³dicos
DeterminaciΓ³n de parΓ‘metros:
a) Se toma una muestra completa del proceso y se realizan los cΓ‘lculos sobre ella.
b) Se toman todas las salidas para un tk y se calcula los parΓ‘metros deseados.
Si el valor del parΓ‘metro resulta igual por los dos mΓ©todos, se dice que el proceso es ergΓ³dico
respecto a ese parΓ‘metro.
Ejemplo: Ergodicidad respecto a la media
πΈ π π‘ = limπββ
1
π ππ π‘ ππ‘
π2
βπ2
= π π‘π π π π‘π ππ(π‘π )β
ββ
πΈ π π‘ = π => πππ£ππ π·πΆ ππ π π‘ β πππ£ππ πππππ
πΈ π2 = π2 => πππ‘πππππ ππππππππ π‘ππ‘ππ ππ π π‘
πΈ π 2 = (π )2 => πππ‘πππππ π·πΆ ππ π π‘
πππ π = ππ2 = πΈ π2 β πΈ π 2 => πππ‘πππππ ππππππππ π΄πΆ ππ π π‘
π·ππ π£ππππππ = ππ => ππππ‘πππ π ππ ππ π π‘
πΉ π π(π) = ππ(π)
52
Nota: Todo proceso ergΓ³dico es w.s.s., pero no al revΓ©s.
Ejemplo:
Se tiene un proceso ergΓ³dico X(t) con π π π = π΄2πβ2π π
SoluciΓ³n:
Nivel DC
limπββ
π π π = π’π2 = 0 => π’π = 0
Potencia Promedio Total
πΈ π2 = π π 0 = π΄2
Potencia DC
πΈ[π]2 = 0
Potencia Promedio AC de X(t)
π2 = π΄2
Voltaje RMS de X(t)
ππ = π΄
Densidad Espectral de Potencia
ππ π€ = πΉ π π π =4π΄π
4π2 + π2
Nota: Si ππ(π‘) tiene πΏ (deltas), entonces la media de X(t) no es cero
53
Ruido Blanco
El ruido blanco o sonido blanco es una seΓ±al aleatoria (proceso estocΓ‘stico) que se
caracteriza por el hecho de que sus valores de seΓ±al en dos tiempos diferentes no guardan
correlaciΓ³n estadΓstica. Como consecuencia de ello, su densidad espectral de potencia (PSD, siglas
en inglΓ©s de power spectral density) es una constante, es decir, su grΓ‘fica es plana.1 Esto significa
que la seΓ±al contiene todas las frecuencias y todas ellas muestran la misma potencia. Igual
fenΓ³meno ocurre con la luz blanca, de allΓ la denominaciΓ³n.
Ejercicios Varios
Ejercicio1:
Si X(t) es un procesos estocΓ‘stico gausiano w.s.s. con π π π = 9 + 2πβπ2, y sea S una variable
aleatoria discreta e independiente de X(t) con distribuciΓ³n P(S=1)=0.7, P(S=2)=0.2, P(S=3)=0.1
Si Z(t)=SX(t) , hallar:
a) Z(t) es w.s.s.?
b) ππ(π€)
SoluciΓ³n:
a)
πΈ π = πΈ ππ π‘ = πΈ π πΈ π π‘
πΈ π = 1 0.7 + 2 0.2 + 3 0.1 = 0.7 + 0.4 + 0.3 = 1.4
limπββ
π π π = π’π2 = πΈ π π‘ 2 = 9 => πΈ π π‘ = 3
Entonces πΈ π = 4.2 πΆπππ π‘πππ‘π (πππ π‘)
54
π π π = πΈ π π‘ π π‘ β π = πΈ ππ π‘ ππ π‘ β π = πΈ π2π π‘ π π‘ β π = πΈ π2 πΈ π π‘ π π‘ β π
= πΈ π2 π π(π)
πΈ π2 = 1 0.7 + 4 0.2 + 9 0.1 = 0.7 + 0.8 + 0.9 = 2.4
Entonces π π π = 21.6 + 4.8πβπ2 πΆπππ π‘πππ‘π πππ π‘
Entonces Z(t) SΓ es w.s.s.
b)
ππ π€ = πΉ π π π = πΉ 2.4 9 + 2πβπ2 = 21.4 2π πΏ π€ + 4.8 ππβ
π€ 2
4
Ejercicio2:
Sea A,B una variable aleatoria bidimensional continua con
ππ΄ ,π΅ π, π = 2 ; π β₯ 0, π β₯ 0, π + π β€ 10 ; ππππ ππ πππ π‘π
Si π π‘ = π΄π‘2 + π΅, determinar:
a) πΈ[π(π‘)] y la Autocorrelacion de X(t)
b) πππππππ§π ππ π(2)
c) Funcion de Densidad y de Probabilidad de X(1)
SoluciΓ³n:
55
a)
ππ΄ π΄ = 2ππ1βπ
0
= 2π΅01βπ = 2 β 2π
ππ΅ π΅ = 2ππ1βπ
0
= 2π΄01βπ = 2 β 2π
πΉπ΄ π = 2 β 2π πππ
0
= 2π|0π β π2|0
π = 2π β π2
πΉπ΅ π = 2 β 2π πππ
0
= 2π|0π β π2|0
π = 2π β π2
πΈ π π‘ = πΈ π΄π‘2 + π΅ = πΈ π΄π‘2 + πΈ π΅ = π‘2πΈ π΄ + πΈ[π΅]
πΈ π΄ = πΈ π΅ = π 2 β 2π ππ1
0
= π2|01 β
2
3π3|0
1 = 1 β2
3=
1
3
Entonces πΈ π π‘ =1
3π‘2 +
1
3
π π π‘1 , π‘2 = πΈ π π‘1 π π‘2 = πΈ π΄π‘12 + π΅ π΄π‘2
2 + π΅ = πΈ π΄2π‘12π‘2
2 + π΄π΅π‘12 + π΄π΅π‘2
2 + π΅2
= π‘12π‘2
2πΈ π΄2 + π‘12πΈ π΄π΅ + π‘2
2πΈ π΄π΅ + πΈ[π΅2]
πΈ π΄2 = πΈ π΅2 = π2(2 β 2π)1
0
ππ =2
3π3
01
β1
2π4
01
=2
3β
1
2=
4 β 3
6=
1
6
πΈ π΄π΅ = ππ2ππ1βπ
0
ππ1
0
= 2 π πππ1βπ
0
ππ1
0
= 2 1
2π2
0
1βπ
ππ1
0
=2
2 π(1 β π)2ππ
1
0
= π π2 β 2π + 1 ππ1
0
= π3 β 2π2 + π ππ1
0
=1
4π4
01
β2
3π3
01
+1
2π2
01
=1
4β
2
3+
1
2=
3 β 8 + 6
12=
1
12
Entonces π π π‘1, π‘2 =1
6π‘1
2π‘22 +
1
12π‘1
2 +1
12π‘2
2 +1
6
b)
πππ π 2 = πΈ π 2 2 β π’π2 = π π 2,2 β π’π(2)
2 =1
6 4 4 +
1
12 4 +
1
12 4 +
1
6β
5
3
2
=13
18
56
c)
π π‘ = π΄π‘2 + π΅ => π 1 = π΄ + π΅
ππ = 2πππ 1 βπ
0
πππ(1)
0
= 2π 1 ; 0 β€ π(1) β€ 1
πΉπ = π(1)2 ; 0 β€ π(1) < 1
Ejercicio3:
Un proceso ergΓ³dico con distribuciΓ³n uniforme entre [-a, a], tiene la siguiente funciΓ³n de
correlacion:
π π π =πβ π
3
Determine el valor de a y explique.
SoluciΓ³n:
Partimos del hecho que
π π 0 = πΈ π2
Por lo que en este caso en particular tenemos lo siguiente:
1
3= π2
1
2πππ
π
βπ
Y resolviendo:
1
2π
1
3π3
βπ
π
=1
3
57
1
6ππ3 +
1
6ππ3 =
1
3
1
3π2 =
1
3
π = 1
Ejercicio4:
Un proceso ergodico X(t) tiene un valor medio igual a 4[V]. Si X(t) pasa por un sistema lineal cuya
respuesta impulsiva es h(t) igual a 4sinc(t), determine el valor medio de la seΓ±al de salida.
SoluciΓ³n:
Se entiende que tengo π π(π)
π π π = π π + 16
Entonces
ππ π = π π + 16πΏ π‘ π ππ π€ = π π€ + 16 2π πΏ π€
ππ π = π» π 2ππ(π)
π» π = 4ππ π
ππ π = 16 π π + 16πΏ π‘
ππ π = 16π π‘ + 162πΏ π‘
π π π = 16π π + 162
πΈ π = 16
58
Ejercicio5:
Una seΓ±al X(t) con π π π = 5ππππ 5π + 2 se contamina con ruido blanco independiente de ella,
con densidad espectral de potencia ππ π = 0.5 La suma de estas seΓ±ales se procesan en un
sistema lineal que tiene modulo de π»(π) 2 = ππππ2(π)
Determinar:
a) Grafica de π π π
b) ππ(π)
c) Valor DC y potencia AC de X(t)
SoluciΓ³n:
a)
b)
ππ π = 5ππ π + 2πΏ(π)
59
c)
Valor DC = 2
Potencia Total = 7
Potencia AC = 7-2 = 5
Ejercicio6:
Un mensaje X(t) aleatorio y ergΓ³dico, con una funciΓ³n de autocorrelacion
π π π = 0.1ππππ2(106π) es modulado en amplitud usando el siguiente sistema:
Determine:
a) Densidad Espectral de Potencia de Y(t) en funciΓ³n de la Densidad de Potencia X(t) y
dibΓΊjela.
b) Dibujar la Densidad Espectral de Potencia de Y1(t) y Y2(t)
60
SoluciΓ³n:
ππ1 π = π» π 2ππ π = 0.8ππ(π) ππ2
π = ππ1 π + πΏ π‘
ππ π =ππ1
(π β π0)
4+
ππ2(π β π0)
4
π π π‘ = πΈ π2 π‘ πΆππ 2π109π‘ + π π2 π‘ + π πΆππ 2π109 π‘ + π + π
= πΈ π2 π‘ π2 π‘ + π πΈ πΆππ 2π109π‘ + π πΆππ 2π109 π‘ + π + π
= π π2 π
1
2πΆππ (2π109π)