Date post: | 11-Apr-2015 |
Category: |
Documents |
Upload: | efrain-pilar |
View: | 114 times |
Download: | 0 times |
IDENTIFICACIÓN DE SISTEMAS
Señales y Sistemas Estocásticos
1
/109
CONTENIDO Variables aleatorias Caracterización Estadistica de las variables aleatorias Distribuciones de Probabilidad comunes Función de distribución de probabilidad conjunta Procesos estocásticos Procesos Estacionarios Procesos ergodicos Procesos estocásticos de tiempo discreto Procesos quasi-estacionarios Sistemas lineales discretos con excitación aleatoria Ejemplos
2
Variables aleatorias
3
/109
DEFINICIÓN DE VARIABLE ALEATORIA
Una Variable aleatoria es una función (o regla) x( w) que asocia un número real x con cada resultado en el espacio muestral S de un experimento.
4
/109
EJEMPLO DE UNA VARIABLE ALEATORIA
Supongamos que estámos arrojando una moneda.
El espacio muestral de nuestro experimento es:
Asumamos que tenemos una función x con las siguientes propiedades:1 si
0 si
carax
sello
S = { cara, sello }
x es una variable aleatoria (discreta).
5
/109
FUNCIÓN DENSIDAD DE PROBABILIDAD
Si “x” es una variable aleatoria continua podemos asociar una probabilidad a que su magnitud se encuentre entre dos niveles cualquiera, esto es x1 y x + dx1, como sigue:
px(x1)dx ≡ probabilidad que x1 ≤ x ≤ x1 + dx
px(x1) es la densidad de probabilidad de la variable en x = x1.
6
/109
FUNCIÓN DENSIDAD DE PROBABILIDAD
Ya que pueden ocurrir todos los valores de x:
Y la probabilidad de que x1 ≤ x ≤ x2 se convierte en
1p x dx
2
1
1 2
x
x
P x x x p x dx
7
/109
FUNCIÓN DENSIDAD DE PROBABILIDAD
Ejemplo: la Función densidad de probabilidad “normal”
2
1
1 2
x
x
P x x x p x dx 8
/109
FUNCIÓN DE MASA DE PROBABILIDAD
Si tenemos una variable que sólo tiene valores discretos la probabilidad es descrita en términos de la función de masa de probabilidad
0 ≤ r(x) ≤ 1 for all x
all
1x
r x
i
i
x b
ix a
P a x b r x
9
/109
FUNCIÓN DE DISTRIBUCIÓN DE PROBABILIDAD
Esta función define la probabilidad de que x sea más pequeña o igual a un cierto valor a, entonces:
Pra
P x x a p x dx
función de la distribución acumulativa.
10
Caracterización Estadistica de las variables aleatorias
11
/109
TEORÍA DE LOS MOMENTOS
Momentos respecto al Origen El nesimo momento respecto al origen para una
variable continua x es
Momentos respecto a la Media
nn x x p x dx
1
n
n x x x p x dx
12
/109
VALOR MEDIO O VALOR ESPERADO
El valor esperado es la media o valor promedio de la variable
Si tenemos N muestras de la variable x, es decir el x1, x2, . . ., xN, la estimación de la media es;
1 x E x xp x dx
11
1ˆ
N
ii
x x xN
primer momento respecto al origen
Con N muestras solo es posible hacer una “estimación”13
/109
VALOR CUADRÁTICO MEDIO
El Valor Cuadrático medio es el valor promedio de x2(t),
2 22 x x x p x dx
14
Segundo momento respecto al origen
/109
LA VARIANZA
La Varianza es el valor cuadrático medio de la diferencia con la media
Si tenemos N muestras de la variable x , es decir x1, x2, . . ., xN, la estimación de la varianza es
22x x x p x dx
2 22 1
1
1ˆ ˆ
N
i xi
x x xN
15
Segundo momento respecto a la media
Con N muestras solo es posible hacer una “estimación”
/109
LA VARIANZA
La varianza de una variable aleatoria es en cierta forma una medida del grado de aleatoriedad de la variable, que tanto se aleja de su valor medio
La desigualdad de Chebyshev:
2
2xP x x
16
Varianza alta Varianza baja
Distribuciones de Probabilidad comunes
17
/109
ORIGEN DE LAS FUNCIONES DE DISTRIBUCION Las distribuciones de Probabilidad provienen de
experimentos dónde el resultado está sujeto al azar.
La naturaleza del experimento dicta cuales distribuciones de probabilidad pueden ser apropiadas para modelar los resultados aleatorios resultantes.
Hay muchas distribuciones de uso común:
18
uniforme, exponencial, normal,
beta, gamma, etc.
/109
ESTIMACION PRÁCTICA DE LA DISTRIBUCIÓN DE PROBABILIDAD
Un histograma es una esquema que da la frecuencia relativa de ocurrencia de la variable x en diferentes intervalos de x.
Si hemos ordenado M valores de la variable x en un histograma y digamos Ni de estos caen dentro de un intervalo entre el xi and xi + Δx entonces,
iN
M x
es un estimado de la probabilidad que xi ≤ x ≤ xi + Δx19
/109
ESTIMACION PRÁCTICA DE LA DISTRIBUCIÓN DE PROBABILIDAD
Si la variable “x” es continua y Δx pequeño, es decir Δx → dx, la estimación de la densidad de probabilidad es
ii
Np x
Mdx
20
/109
LA DISTRIBUCIÓN UNIFORME
La distribución de probabilidad continua más fundamental es la distribución uniforme
21
/109
MOMENTOS DE LA DISTRIBUCIÓN UNIFORME
Media
Varianza
2
u b aE x
22
12u
x
b aVar x
22
/109
LA DISTRIBUCIÓN UNIFORME
Un uso importante de la distribución uniforme es la simulación numérica de las distribuciones que pueden ser transformadas a partir de la distribución uniforme.
El generador uniforme de MATLAB es llamado rand
Genera números aleatorios en el intervalo [0,1], escalar, vectorial o arreglos más generales
23
/109
LA DISTRIBUCIÓN UNIFORME
De manera más general, en MATLAB para generar N muestras uniformes en en intervalo [a,b ]
La distribución aproximada se grafica por medio de la función hist(x).
x = a – (b – a)*rand(N,1)
24
/109
LA DISTRIBUCIÓN UNIFORME
Histogramas de simulaciones de distribución uniforme en (0,1) usando MATLAB para dos tamaños de muestra diferentes N.
25
/109
LA FUNCIÓN NORMAL O GAUSSIANA
La Función Normal o Gaussiana de densidad de probabilidad y su funcion de distribución son definidas como:
2
22 21; ,
2
xnp x e
2
221; ,
2
xxnP x e dx
se denota:
2,x xx N
26
/109
LA FUNCIÓN NORMAL O GAUSSIANA
Distribucion normal con E[x] = 5 y distintos valoes de σ
27
/109
LA FUNCIÓN NORMAL O GAUSSIANA
Histogramas de simulaciones de la distribución estándar normal con media 0 y varianza 1 usando 50 bloques para dos medidas de muestreo
N.
28
Función de distribución de probabilidad conjunta
29
/109
FUNCIÓN DE DENSIDAD DE PROBABILIDAD CONJUNTA
Sean dos variables aleatorias, x y y, definidas sobre el espacio muestra de un experimento
Podemos definir una probabilidad conjunta como
Ya que pueden ocurrir todos los valores de x y y:
p(x1,y1)dxdy ≡ probabilidad que x1 ≤ x ≤ x1 + dx
y y1 ≤ y ≤ y1 + dy
, 1p x y dxdy
30
/109
FUNCIÓN DE DENSIDAD DE PROBABILIDAD CONJUNTA
31
La probabilidad de que (x,y) asuman un valor en la región R es igual al volumen de la región sombreada
p(x,y)
/109
PROBABILIDAD CONJUNTA
La probabilidad conjunta para x y y para cualquier conjunto A de dos dimensiones es:
La probabilidad conjunta de dos variables aleatorias x y y se define como
, P ,xyP a b x a y b
32
, ( , )R
P x y R p x y dxdy
/109
FUNCIONES DE DENSIDAD DE PROBABILIDAD MARGINAL
Las funciones de densidad de probabilidad marginal de x y y, estan dadas por:
33
( ) ( , ) for
( ) ( , ) for
x
y
p x p x y dy x
p y f x y dx y
/109
VARIABLES ALEATORIAS INDEPENDIENTES
Dos variables aleatorias continuas x y y se dice que son estadísticamente independientes
si su probabilidad conjunta es igual al producto de sus probabilidades individuales,
Si esta condicion no se satisface para todo (x,y), entonces x y y son dependientes
,xy x yp x y p x p y
34
/109
PROBABILIDAD CONDICIONAL
Dadas dos variables aleatorias x y y, denotamos la probabilidad condicional
1 1
1 11
P x x y yP x x y y
P y y
35
/109
DENSIDAD CONDICIONAL
Usando las funciones de densidad correspondientes
La funcion densidad condicional es
1 1
11 1
,x y
xy
y
y
p x y dxdy
P x x y y
p y dy
1
1
,y
xy
yx y
y
p x y dy
p x y
p y dy
1 0P y y
36
funcion de densidad de probabilidad marginal de y
/109
VARIABLES ALEATORIAS INDEPENDIENTES
Es decir, para dos variables aleatorias continuas x y y estadísticamente independientes
1 1 1P x x y y P x x
37
1 1
1 1
,y y
xy x y
y yx y
y y
p x y dy p x p y dy
p x y
p y dy p y dy
/109
CORRELACION
La correlación Rxy de dos variables aleatorias x y y está definida por
, ,xyR x y E xy xyp x y dxdy
Si E[xy] = 0, se dice que x y y son ortogonales
38
/109
COVARIANCIA
La covarianza está definida como
2 ,xy Cov x y E x x y y x x y y
2 ,xy xyR x y E x E y
39
/109
COVARIANCIA
Cuando x y y son completamente independientes
Si x y y son independientes entonces la esperanza del producto es el producto de las esperanzas
2 0xy
,xyR x y E xy E x E y
40
/109
FUENTES FUENTES Van den Hof Paul M.J., Bombois Xavier, System Identification for Control. Lecture Notes
DISC Course. Delft Center for Systems and Control. Delft University of Technology. March, 2004
Carroll Michael L., Overview of Kalman Filter Theory and Navigation Applications. Course Materials. A week-long course given of in Warner Robins, GA. 23-27 Feb 2004.
Lagunas Miguel Angel, Procesado de Señal. Centro Tecnologic de Telecomunicacions de Catalunya, Barcelona, España. 25 de Octubre de 2004
Novak M., (expanded by N. Isyumov) “Dynamics of Structures”, Lecture Notes - CEE490. The University of Western Ontario - Faculty of Engineering Science Department of Civil And Environmental Engineering. 2003-2004
Olver Peter J. and Shakiban Chehrzad, Applied Mathematics. School of Mathematics, University of Minnesota and Department of Mathematics, University of St. Thomas. 1999.
Perez Tristan, Essentials of Random Variables and Stochastic Processes (Complementary Notes for TMR4240–Marine Control Systems). Centre for Ships and Ocean Structures—CeSOS. Norwegian University of Science and Technology. March 10, 2005
Roberts Clive, Fundamentals of Signals and Systems. University of Birmingham. 2003. Zanini Aníbal, Control Digital y Estocástico. Notas de clase. Ingeniería en Automatización y
Control Industrial, Universidad Nacional de Quilmes. Abril, 2000. Hanson Floyd and Westman Jhon, Applied Stochastic Processes and Control for Jump-
Diffusions: Modeling, Analysis and Computation. Society for Industrial and Applied Mathematics. May 1, 2004.
Belaustegui Goitia Carlos, Orda César, Galarza Cecilia. Procesos Estocásticos, notas de clase. Departamento de Electrónica, FIUBA, Universidad de Buenos Aires. 17 de Marzo 2005
41
/109
ULTIMA DIAPOSITIVA
42