COLEGIO DE POSTGRADUADOS INSTITUCIÓN DE ENSEÑANZA E INVESTIGACIÓN
EN CIENCIAS AGRÍCOLAS INSTITUTO DE SOCIOECONOMÍA, ESTADÍSTICA E INFORMÁTICA
PROGRAMA EN ESTADÍSTICA
PRUEBAS DE HIPÓTESIS CON
VARIABLES DEPENDIENTES E
IDÉNTICAMENTE DISTRIBUIDAS
EDUARDO GUTIÉRREZ GONZÁLEZ
T E S I S
PRESENTADA COMO REQUISITO PARCIAL PARA OBTENER EL GRADO DE:
M A E S T R O EN C I E N C I A S
MONTECILLO, TEXCOCO, EDO. DE MÉXICO
2004
III
La presente tesis titulada: PRUEBAS DE HIPÓTESIS CON VARIABLES DEPENDIENTES
E IDÉNTICAMENTE DISTRIBUIDAS, realizada por el alumno: Eduardo Gutiérrez
González, bajo la dirección del consejo particular indicado, ha sido aprobada por el mismo y
aceptada como requisito parcial para obtener el grado de
MAESTRO EN CIENCIAS PROGRAMA EN ESTADÍSTICA
CONSEJO PARTICULAR
CONSEJERO Dr. José A. Villaseñor Alva ASESOR Dr. Humberto Vaquera Huerta ASESOR Dr. Filemón Ramírez Pérez ASESOR Dr. Barry C. Arnold
MONTECILLO, TEXCOCO, EDO. DE MÉXICO; JULIO DEL 2004
IV
Agradecimientos
Al consejo nacional de ciencia y Tecnología por el apoyo económico brindado para la realización
de mis estudios de Maestría en Ciencias.
Al Colegio de Postgraduados por la oportunidad que me brindó.
Al Consejo particular integrado por Dr. José A. Villaseñor Alva, Dr. Humberto Vaquera Huerta,
Dr. Filemón Ramírez Pérez, y el Dr. Barry C. Arnold por el trabajo y el tiempo dedicado a esta
tesis.
Resumen V
V
RESUMEN
En este trabajo se estudia el problema de probar la hipótesis
01
00
:
:
ppH
ppH
>
≤
en donde, 0p es una constante conocida y p es la probabilidad de que las variables
aleatorias tomen valores por encima de un valor q constante y definido de antemano, es decir,
[ ]qXPp i >= , para toda i.
cuando se tiene variables aleatorias intercambiables nXXX ,,, 21 K , idénticamente
distribuidas normalmente con parámetros µ y 2σ .
I. En primera instancia se trata el problema para el caso cuando las variables son independientes, en donde se sigue el esquema clásico basándose en los estimadores de máxima verosimilitud para los parámetros media y varianza y el resultado de que X y
2XS son independientes. Posteriormente, se determina que el estadístico de prueba
σµ
ˆ
ˆ−=
qT (en donde, µ y σ son los estimadores de máxima verosimilitud de µ y
σ ), tiene una distribución t no central. Con base en una aproximación a la t central se obtiene la expresión de la constante crítica para el tamaño de la prueba.
II. Para el caso de variables aleatorias dependientes normales con covarianzas homogéneas, se siguen las mismas ideas que en la situación de independencia. En donde, primeramente se estudian las restricciones para la covarianza para poder utilizar los resultados de la distribución multivariada, concluyendo que la covarianza debe ser positiva. Posteriormente se obtiene una transformación de las variables, con la cual se
puede demostrar que X y 2XS siguen siendo independientes. Por otro lado, se
encuentra la distribución de la media y varianza muestrales y se usa el mismo
estadístico de prueba que en el caso de variables independientes, σ
µˆ
ˆ−=
qT (en donde,
µ y σ son los estimadores de momentos de µ y σ ). Se encuentra que la distribución de T es también una distribución t no central, pero con otro parámetro de no centralidad diferente al caso de independencia. Con base en una aproximación a la t central se obtiene la expresión de la constante crítica para un tamaño de la prueba dado, la cual resulta ser igual al caso de variables independientes.
III. Finalmente se presenta una extensión de la prueba t para observaciones intercambiables.
Resumen VI
VI
ABSTRACT
This work studies the problem of proving the hypothesis
01
00
:
:
ppH
ppH
>
≤
where 0p is a known constant and p is the probability that the variables have values above
q constant and defined beforehand
[ ]qXPp i >= , for all i.
When there are exchangeable random variables nXXX ,,, 21 K , identically distributed
normally with parameters µ and 2σ .
I. Firstly the problem is when the variables are independent following the classic scheme based on the estimates of maximum likelihood for the mean and variance parameters
and the result of X and 2XS are independent. Later it is determined that the test
statistic σ
µˆ
ˆ−=
qT (where µ and σ are the estimates of maximum likelihood of µ
and σ ) has a non central t distribution. Based on an approximation of the central t, the expression of the constant critical for the size of the test is obtained.
II. In the case of normal dependent variables with homogenous covariants the same ideas are followed as in the independent situation. Where first the restrictions for the covariants are studied to utilize the results of the multivariable distribution, concluding that the covariance must be positive. Then a transformation of the variables is obtained
with which it can be demonstrated that X and 2XS remain independent. On the other
hand we find the distribution of the mean and sample variants and use the same test
statistic as in the case of the variable independents , σ
µˆ
ˆ−=
qT (where µ and σ are
the moment estimators of µ and σ ). It is found that the distribution of T is also a non central t distribution, but with another parameter not centralized different to the independent case. Based on an approximation of central t the expression of the constant critical for the size of the given test is obtained and results equal to the case of the variable independents.
III. Finally an extension of the test t for exchangeable observation is presented.
VII
Contenido Contenido VII
Introducción
1
Predicción con variables aleatorias dependientes. 1
Objetivos. 2
Antecedentes de variables aleatorias dependientes. 3
Capítulo 1
5
Marco Teórico. 5
PARTE I. PROPIEDADES DE LA NORMAL MULTIVARIADA 5
1.1 DISTRIBUCIÓN NORMAL MULTIVARIADA 5
1.2 PROPIEDADES DEL VALOR ESPERADO Y VARIANZA DE LA NORMAL
MULTIVARIDA 7
PARTE II. MÉTODO DE MÁXIMA VEROSIMILITUD 8
1.3 FUNCIONES Y ESTIMADORES DE MÁXIMA VEROSIMILITUD 8
Función de verosimilitud. 8
Estimadores de máxima verosimilitud. 9
PARTE III. PRUEBAS DE HIPÓTESIS 9
1.4 REGIONES CRÍTICAS 9
1.5 TIPOS DE ERRORES Y FUNCIÓN DE PRUEBA 10
Prueba de tamaño alfa. 11
Función de prueba. 11
1.6 FUNCIÓN DE POTENCIA DE LA PRUEBA 11
PARTE IV. MATRICES 13
1.7 VALORES Y VECTORES CARACTERÍSTICOS 13
Teorema 1.1 Condiciones para el valor propio. 13
Teorema 1.2 Sistema de valores propios. 14
Pruebas de hipótesis para variables dependientes idénticamente distribuidas y normales VIII
VIII
Teorema 1.3 Multiplicidad de valores propios. 14
Teorema 1.4 Cantidad de vectores propios. 14
1.8 DIAGONALIZACIÓN 14
Matrices similares. 14
Teorema 1.5 matrices similares y vectores propios. 14
Matriz diagonalizable. 15
Teorema 1.6 Matriz diagonalizable y vectores propios. 15
1.9 MATRICES SIMÉTRICAS Y DIAGONALIZACIÓN ORTOGONAL 15
Matriz diagonalizable ortogonalmente. 15
Teorema 1.7 Matriz simétrica real y vectores propios. 15
Teorema 1.8 Matriz simétrica real y vectores propios ortonormales. 15
Teorema 1.9 Matriz simétrica real y diagonalización. 15
Capítulo 2 16
Prueba de hipótesis para variables aleatorias independientes e idénticamente
distribuidas.
2.1 PLANTEAMIENTO DEL PROBLEMA. 16
2.1.1 Estadística de Prueba. 17
2.2 ESTIMADORES DE MÁXIMA VEROSIMILITUD PARA µ Y 2σ 17
2.2.1 Derivada con respecto al parámetro media. 17
2.2.2 Derivada con respecto al parámetro varianza. 18
2.3 DISTRIBUCIÓN DE LA MEDIA Y LA VARIANZA 18
2.3.1 Distribución de la media muestral. 18
2.3.2 Distribución de la varianza. 19
2.4 DISTRIBUCIÓN DE LA ESTADÍSTICA DE PRUEBA. 19
Teorema 2.1 Distribución de la estadística de prueba (t-nocentral). 20
2.5 APROXIMACIÓN DE LA T NO-CENTRAL CON LA T CENTRAL. 21
Proposición 2.1 Monotonía de la función δ(G ). 22
2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24
2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29
Contenido IX
IX
Capítulo 3 30
Prueba de hipótesis para variables aleatorias dependientes e idénticamente
distribuidas.
3.1 PLANTEAMIENTO DEL PROBLEMA. 30
3.1.1 Estadística de Prueba. 30
3.2 ACOTACIONES DEL PROBLEMA 31
Teorema 3.1 Determinante de la matriz de covarianzas. 32
3.2.1 Restricción del problema en la covarianza. 33
3.3 REPRESENTACIÓN DE LA MATRIZ DE COVARIANZAS 34
3.3.1 Valores propios de la matriz J. 34
3.3.2 Vectores propios de la matriz J. 35
3.4 SISTEMA DE VECTORES ORTOGONALES EQUIVALENTE A LOS VECTORES
PROPIOS DE LA MATRIZ J. 37
3.4.1 Ortonormalización del sistema de vectores equivalente a los vectores propios de
la matriz J. 38
3.5 MATRIZ DE TRANSFORMACIÓN. 41
3.5.1 Distribución de las variables transformadas. 41
Teorema 3.2 Distribución de la matriz transformada. 42
3.6 PROPIEDADES DE LAS VARIABLES TRANSFORMADAS 44
3.7 DISTRIBUCIÓN DE LA MEDIA Y LA VARIANZA 45
3.7.1 Distribución de la media muestral. 45
3.7.2 Distribución de la varianza muestral. 46
3.8 DISTRIBUCIÓN DE LA ESTADÍSTICA DE PRUEBA. 46
Teorema 3.3 Distribución de la estadística de prueba (t-nocentral). 46
3.8.1 Estudio del coeficiente de la estadística de prueba. 49
Proposición 3.1 Monotonía de la función )(ρh . 49
3.9 APROXIMACIÓN DE LA T NO-CENTRAL CON LA T CENTRAL. 50
Proposición 3.2 Monotonía de la función δ(G ). 51
Pruebas de hipótesis para variables dependientes idénticamente distribuidas y normales X
X
3.10 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 51
3.11 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 54
Capítulo 4 56
Aplicaciones.
4.1 VARIABLES ALEATORIAS INTERCAMBIABLES O SIMÉTRICAMENTE
DEPENDIENTES 56
Teorema Variables intercambiables binomiales 57
4.2 MATRIZ DE COVARIANZAS PARA DATOS INTERCAMBIABLES 57
Teorema 4.1 Covarianza de variables intercambiables 57
4.3 APLIACIONES A DATOS INTERCAMBIABLES 59
4.4 EXTENSIÓN DE LA PRUEBA T PARA OBSERVACIONES DEPENDIENTES 59
4.4.1 Caso de independencia. 60
4.4.1 Caso de dependencia. 60
Capítulo 5 64
Conclusiones.
Discusión 65
Apéndice A 66
Método de máxima verosimilitud para probar la hipótesis de variables aleatorias
dependientes e idénticamente distribuidas.
A.1 PLANTEAMIENTO DEL PROBLEMA. 66
A.2 ESTIMADORES DE MÁXIMA VEROSIMILITUD PARA µ , 2σ Y C 67
A.2.1 Derivada con respecto al parámetro media. 69
A.2.2 Derivada con respecto al parámetro varianza. 70
A.2.3 Derivada con respecto al parámetro de covarianza. 74
Apéndice B 77
Simulación de valores críticos para muestras pequeñas. 77
B.1 PROGRAMA EN S-PLUS. 77
B.2 TABLAS DE CUANTILES 80
Contenido XI
XI
B.3 COMPARACIONES 83
Bibliografía 85
1
Introducción
PREDICCIÓN CON VARIABLES ALEATORIAS DEPENDIENTES
Uno de los objetivos de la Estadística consiste en realizar predicciones de los diferentes
fenómenos aleatorios con base en observaciones del fenómeno con fines de hacer una
mejor planeación. Por ejemplo, para planear la compra de acciones de una cierta empresa
se puede hacer mediante la predicción de su precio en las próximas semanas, meses o años.
El problema de la predicción tiene siglos estudiándose. Desde sus orígenes hasta la
aparición de aparatos que facilitaron su estudio, las predicciones se llevaban a cabo
mediante supuestos que transformaban el problema en otro mucho más sencillo de resolver. Por ejemplo, se suponía normalidad e independencia en las variables.
Actualmente con los avances tecnológicos los diferentes fenómenos aleatorios se han
ido estudiando con base en su naturaleza, es decir, analizando sus distribuciones sin
suponer cierto comportamiento, pero debido a la complejidad de su análisis en el caso de
variables dependientes en muchas situaciones se sigue suponiendo la independencia.
Los problemas sobre variables aleatorias dependientes son poco tratados en la
literatura clásica de Estadística (ver [3], [12], [16], [19]). Algunos autores de libros como
W. Feller, tienen sólo algunas secciones que le dedican a las variables aleatorias
dependientes (ver [7]). En general, los textos clásicos en donde se habla sobre variables
aleatorias dependientes, se refieren a los procesos estocásticos (ver [15], [17]) y series de
tiempo (ver [2], [3] y [5]), en donde se tratan diferentes tipos de dependencias.
Por ejemplo, en las finanzas, en donde las variables aleatorias tX pueden representar
el valor diario del índice de la bolsa de valores o los precios diarios de una acción y lo
único que se conoce de ellas es que provienen de la misma distribución y que son
dependientes con ciertas covarianzas.
En ese tipo de problemas resulta de interés poder contar con una prueba para el
contraste de hipótesis:
Introducción
2
01
00
:
:
ppH
ppH
>
≤
en donde, p es la probabilidad de que al tiempo t la variables aleatoria )(tX tome valores
por encima de un valor q constante y definido de antemano, esto es:
[ ]qtXPp >= )( .
Aquí el valor constante q puede representar el valor del índice de la bolsa de valores a partir del cual el inversionista considera óptima su participación y por consiguiente quiere realizar el contraste de hipótesis, para conocer la significancia del riesgo de su inversión.
Por desgracia este tipo de pruebas resultan demasiado complicadas para el caso de
dependencia. Pero si se hacen algunas consideraciones sobre las covarianzas, de tal forma
que se tenga un proceso débilmente estacionario, se puede llegar a un resultado interesante
para el contraste de hipótesis antes mencionado.
OBJETIVOS
1. Proponer una prueba estadística para el caso cuando las variables aleatorias
nXXX ,,, 21 K son iid con distribución normal y parámetros µ y 2σ , para el
contraste de hipótesis:
01
00
:
:
ppH
ppH
>
≤
en donde, p es la probabilidad de que las variables aleatorias del proceso iX tomen
valores por encima de un valor dado q constante y definido de antemano, esto es:
[ ] 0pqXP i ≤> , para toda i.
2. Proponer una prueba estadística para el contraste de hipótesis anterior cuando las
variables aleatorias nXXX ,,, 21 K tienen la misma distribución normal con
parámetros µ y 2σ , y covarianzas homogéneas, c.
3. Desarrollar aplicaciones de las pruebas propuestas.
Introducción. 3
3
ANTECEDENTES DE VARIABLES ALEATORIAS DEPENDIENTES
Como se sabe algunos de los primeros estudios sobre fenómenos aleatorios con variables
dependientes se tienen en los procesos estocásticos. En donde, uno de sus principales
estudiosos fue el botánico R. Brown quien en 1827 descubrió el movimiento que lleva su
nombre, movimiento browniano. En física, la teoría de difusión y la teoría cinética de la
materia estudian los movimientos agregados de colisiones de moléculas o partículas en las
que hay un movimiento continuo producto de las colisiones entre partículas. En 1923 N.
Wiener establece un fundamento matemático del proceso del movimiento Browniano. En
la parte financiera se tiene a Luis Bachelier, quien en 1900 realizó la primera aplicación
importante del movimiento browniano, en su tesis doctoral (dirigida por H. Poincare).
Bachelier, quien es considerado el fundador de los métodos cuantitativos en Finanzas, hizo
una descripción de las fluctuaciones de precios del mercado financiero francés. Su trabajo
lo titulo “Teoría de la especulación”.
Actualmente los procesos estocásticos se usan en una gran gama de aplicaciones, en
las diferentes esferas de las ciencias, como son:
• Administración. Debido a que los procesos estocásticos proporcionan un método para estudiar y manejar las operaciones económicas. Se tiene que éstos
desempeñan un papel importante en las disciplinas modernas de la ciencia de la
administración y la investigación operativa. Los dos campos en los que los
procesos estocásticos han encontrado la mayor aplicación en la administración son
en control de inventarios y el análisis de las líneas de espera. Además, en los
diferentes negocios se ha incrementado el uso de los procesos estocásticos para
mejorar la administración de publicidad, etc.
• Finanzas. Por ejemplo, en la fluctuación de precios de mercado, bolsa de valores, cotización del dólar, etc.
• Economía. Compañías de seguros.
• En diferentes fenómenos sociales, biológicos, físicos, etc.
Otra rama de la Estadística que estudia variables aleatorias dependientes es la de
series de tiempo (ver [2], [3], [5] y [14]). En esta parte se tiene que prácticamente con el
libro de Box-Jenkins (1970) se inició una nueva era en las aplicaciones de los modelos de
series de tiempo. Puesto que antes de 1970 la metodología de ajuste de modelos de Series
de Tiempo era demasiado complicada y poca gente la dominaba. Box y Jenkins
Introducción
4
simplificaron considerablemente la metodología de series de tiempo, por lo que ahora muchas más personas usan apropiadamente esta metodología.
En el enfoque de Box-Jenkins se emplean modelos estadísticos para estimación de
parámetros, las predicciones tienen propiedades óptimas y se obtienen intervalos de
confianza para las predicciones.
Otro tema de la Estadística que estudia variables aleatorias dependientes se refiere a
las variables intercambiables, las cuales inicialmente fueron estudiadas por B. de Finetti
en 1970 (ver [7], Capítulo 7, parágrafo 4). Actualmente dicho tipo de variables se usa en la
medicina en datos apareados. Por otro lado, también aparecen en los datos que son
reunidos en bloques completamente aleatorizados con k tratamientos. Uno de los
estadísticos que ha dedicado parte de su tiempo a este tipo de problemas es el Dr. Ronald
Randles de la Universidad de Florida.
5
Capítulo 1
Marco teórico
En el presente capítulo se revisarán los conceptos principales que servirán para el desarrollo
del trabajo en los Capítulos 2, 3 y el Apéndice A.
En la primera parte se discutirán las propiedades principales de variables aleatorias con distribución normal, su valor esperado y varianza.
En una segunda parte se discute el método de máxima verosimilitud para estimadores
puntuales.
En la tercera parte se revisan algunos resultados de la Inferencia Estadística para
pruebas de hipótesis.
Finalmente en una cuarta parte se revisan algunos resultados del Álgebra de matrices
simétricas.
PARTE I. PROPIEDADES DE LA NORMAL MULTIVARIADA
1.1 DISTRIBUCIÓN NORMAL MULTIVARIADA
El papel fundamental que desempeña la distribución normal multivariada en la teoría de los
fenómenos aleatorios (consultar [15]) se debe a lo siguiente:
• La mayor parte de los fenómenos aleatorios importantes se pueden aproximar mediante variables aleatorias normales multivariadas.
• La mayor parte de las preguntas que se presentan se pueden responder para variables normales multivariadas con más facilidad que para otras variables.
Se dice que las n variables aleatorias nXXX ,,, 21 K están distribuidas normalmente
conjuntamente si su función característica conjunta es dada, para todos los números reales,
por:
Capítulo 1
6
−= ∑∑==
n
kjkjkj
n
jjjnXX uKumuiuu
n1,1
1,, 21
exp),,(1
KKϕ ,
donde, nkj ,,2,1, K= y además
jj XEm = , kjjk XXK ,cov= .
Si la matriz de covarianzas está dada por:
=
nnnn
n
n
KKK
KKKKKK
LMOMM
LL
21
22221
11211
Ó ,
y es tal que posee una matriz inversa:
=
=
−
−
nnnn
n
n
nnnn
n
n
KKK
KKKKKK
KKK
KKKKKK
LMOMM
LL
LMOMM
LL
21
22221
112111
21
22221
11211
1Ó ,
entonces se puede demostrar que nXXX ,,, 21 K tiene una densidad de probabilidad
conjunta dada para todos los números reales nxxx ,,, 21 K mediante
−−−= ∑=
n
kjkk
jkjjn
mxKmxf1,
2)()(
21
exp)det()2(
1)(
ÓxX
π.
Así, sea nXXX ,,, 21 K una muestra aleatoria, cuya función de densidad de
probabilidades conjunta es la siguiente:
−−−= − )()(
21
exp)det()2(
1)( 1
2ìxÓìx
ÓxX
t
nf
π,
en donde el vector de variables aleatorias iX tiene al vector x como una realización de la
muestra con vector de medias ì y matriz de covarianzas Ó.
Marco Teórico. 7
7
1.2 PROPIEDADES DEL VALOR ESPERADO Y VARIANZA DE LA NORMAL MULTIVARIADA
Supóngase que
tnXX ),,( 1 K=X son variables aleatorias distribuidas conjuntamente con distribución
normal y medias tn ),,( 1 µµ K=ì y varianzas t
n ),,( 221
2 σσ K=ó , respectivamente.
(i). c, k , naa ,,1 K y nbb ,,1 K representan constantes reales.
(ii). tnaa ),,( 1 K=a , t
nbb ),,( 1 K=b , tncc ),,( 1 K=c y t
nkk ),,( 1 K=k
representan vectores reales.
(iii). A, B, C, K representan matrices no aleatorias.
Entonces se tienen las siguientes propiedades
1. XacXac EE tt +=+
2. XAcAXc EE +=+
3. KXACAXKC EE +=+
4. XYYX ,cov,cov =
5. tXYYX ,cov,cov =
6. [ ][ ] YEXEXYEYEYXEXEYX −=−−= )()(,cov
7. [ ][ ] [ ]ttt EEEEEE YXXYYYXXYX −=−−= )()(,cov
8. bYXaYbXa ,cov,cov ttt kc =++
9. aXaXaXaXa var,covvar tttt ccc =++=+
10. tBYXABYkAXc ,cov,cov =++
11. tAXAAXc varvar =+
12. ∑∑= =
=+n
i
n
jjiji
t XXaac1 1
,covvar Xa
13. La matriz Xvar es no-negativa definida
14. Si ),(~ ÓìX N y se define la transformación lineal AXcY += , entonces
( )tN AAÓAìcY ,~ +
Capítulo 1
8
15. Si ),(~ ÓìX N y sea 1X un subvector de X, entonces ),(~ 1111 ÓìX N . En donde,
1ì es el correspondiente subvector de ì y 11Ó la correspondiente submatriz de Ó.
16. Sea ),(~ ÓìX N , entonces las variables nXX ,,1 K son independientes si y sólo si Ó es
una matriz diagonal cuyos elementos son las varianzas de las variables.
PARTE II. MÉTODO DE MÁXIMA VEROSIMILITUD
1.3 FUNCIONES Y ESTIMADORES DE MÁXIMA VEROSIMILITUD
El método de máxima verosimilitud (consultar [1], [4], [6], [12], [16]) considera un problema de estimación muy simple. Se basa en la función de densidad conjunta de n variables aleatorias
nXX ,,1 K , dependientes de un vector de parámetros ),,( 1 mθθ K=è , sobre los cuales se
maximiza la función de densidad conjunta para el caso de una realización nxx ,,1 K .
Definición 1.1 Función de verosimilitud (ver [12])
La función de verosimilitud de n variables aleatorias nXX ,,1 K está definida
como la densidad conjunta de las n variables, es decir, );( èxXf , la cual es considerada
como una función de è . En particular, si nXX ,,1 K es una muestra aleatoria de
densidades );( èxf , entonces la función de verosimilitud es
∏=
=n
iixff
1
);();( èèxX .
Note que la función de verosimilitud es una función de è y se suele utilizar la notación
);(),,;( 1 èxè XfxxL n =K .
La función de verosimilitud ),,;( 1 nxxL Kè da la verosimilitud cuando las variables
aleatorias asuman un valor particular nxx ,,1 K . La verosimilitud es el valor de una función de
densidad, y en el caso de las variables aleatorias discretas la verosimilitud es una probabilidad.
Si se denota por Θ al espacio de parámetros, se tiene que el problema de los estimadores de
máxima verosimilitud consiste en determinar el valor de Θ∈è , él cual se denotará por è , y será
tal que maximiza la función de verosimilitud ),,;( 1 nxxL Kè . El valor de è , que maximiza la
función de verosimilitud en general es una función de nxx ,,1 K , es decir,
Marco Teórico. 9
9
),,(ˆ1 nxxg K=è .
Cuando esto sucede la variable aleatoria ),,(ˆ1 nXXg K=È es llamada el estimador de
máxima verosimilitud del estimador è .
Definición 1.2 Estimador de máxima verosimilitud (ver [12])
Sea ),,;()( 1 nxxLL Kèè = la función de verosimilitud para las variables aleatorias
nXX ,,1 K . Si è (donde ),,(ˆ1 nxxg K=è es una función de las observaciones
nxx ,,1 K ) es el valor de Θ∈è con el cual se maximiza )(èL , entonces la variable
aleatoria ),,(ˆ1 nXXg K=È es el estimador de máxima verosimilitud de è .
Mientras que ),,(ˆ1 nxxg K=è es el estimador de máxima verosimilitud de è para
la realización nxx ,,1 K .
Nota
Para obtener el máximo de la función ),,;()( 1 nxxLL Kèè = , se aplican las diferentes
técnicas del cálculo como son: máximos y mínimos relativos, máximos y mínimos
absolutos y extremos de funciones monótonas, así como métodos numéricos.
PARTE III. PRUEBAS DE HIPÓTESIS
1.4 REGIONES CRÍTICAS
Sea nXX ,,1 K una muestra aleatoria con densidades );( θxf , en donde θ es el parámetro
de la distribución, por otro lado, se formula el contraste de hipótesis
0
00
:
:
θθ
θθ
≤
>
AH
H
Introduciendo el conjunto xx |=Χ una realización de X , y formando una partición del
conjunto X a la que se denota por RA ΧΧ , , en donde,
AΧ se le llama región de no rechazo.
RΧ se le llama región de rechazo o región critica.
Capítulo 1
10
Por otro lado, en general, si X es un vector de observaciones con densidad );( θxf
en donde Ω∈θ las hipótesis serán del tipo siguiente:
ωθ
ωθ
−Ω∈
∈
:
:0
AH
H
donde Ω⊂ω y kR⊂Ω .
Así, en realidad el problema consiste en buscar una familia de densidades, de tal
manera que basados en X se quiere decidir si se rechaza o no 0H . Para esto último se
tiene una regla de decisión dada por:
Rechazar 0H si RΧ∈x .
No rechazar 0H si AΧ∈x .
1.5 TIPOS DE ERRORES Y FUNCIÓN DE PRUEBA
Generalmente cuando se usa una prueba ( RΧ ), se está propenso a cometer dos tipos de
errores.
Error tipo I: Cuando se rechaza 0H siendo que es verdadera.
Error tipo II: Cuando no se rechaza 0H siendo que es falsa.
De tal forma que es razonable identificar la prueba que minimiza las probabilidades
de ambos errores respecto a todas las pruebas posibles. Sin embargo, generalmente cuando
se minimiza la probabilidad de uno de los errores el otro aumenta. Por lo tanto, dado un
valor )1,0(∈α se considera todas las pruebas tales que
α≤ΧRP usando I Error tipo ,
y entre ellas se busca la prueba que tiene mínima probabilidad de error tipo II, a la que se le
llama la prueba más poderosa.
Definición 1.3
Una prueba RΧ que satisface
α≤ΧRP usando I Error tipo
se dice que es una prueba de tamaño α .
Marco Teórico. 11
11
De la definición se puede notar que una prueba queda completamente especificada si
se define a RΧ .
Definición 1.4
Se dice que una función 1,0: →ΧΦ es una función de prueba, cuando
=Φ0
0
rechazar indica ,1
rechazar no indica ,0)(
H
Hx
Obsérvese que a cada partición de X en AΧ y RΧ , le corresponde una función de
prueba
Χ∈
Χ∈=Φ Χ
R
A
R x
xx
si ,1
si ,0)(
e inversamente a cada función de prueba )(xΦ le corresponde una partición
1)(|)(
0)(|)(
=Φ=ΦΧ
=Φ=ΦΧ
xx
xx
R
A.
1.6 FUNCIÓN DE POTENCIA DE UNA PRUEBA
Supóngase que se tiene el contraste de hipótesis ωθ ∈:0H vs ωθ −Ω∈:AH y nótese
que una prueba Φ es de tamaño α , si
αωθ ≤∈=Φ |1)(xP .
Además, RΧ∈⇔=Φ xx 1)( , de tal forma que resulta la siguiente definición.
Definición 1.5
Se dice que una función [ ]1,0: →ΩΦβ es la función de potencia de la
prueba Φ , cuando
θθθβ | usando rechazar |1)()( 0 Φ==Φ=Φ HPP x .
Definición 1.6
Se dice que una prueba Φ es de tamaño )1,0(∈α si
αθβωθ
=Φ∈
)(max .
Capítulo 1
12
La prueba será de tamaño α , si la máxima probabilidad de cometer el error tipo I es
menor o igual que α .
Obsérvese que si ωθ −Ω∈ , entonces
θ
θθθβ
| usando II Error tipo1
|0)(1|1)()(
Φ−=
=Φ−==Φ=Φ
P
PP xx
Esto es, θ| usando II Error tipo ΦP es pequeña cuando )(θβΦ es próxima a uno
con ωθ −Ω∈ . Por lo tanto, es deseable encontrar una prueba *Φ de tamaño α tal que su
función de potencia )(* θβΦ
es uniformemente máxima respecto a todas las pruebas de
tamaño α . Es decir, *Φ es tal que
1) αθβωθ
≤Φ∈
)(max * .
2) )()(* θβθβ ΦΦ≥ , con ωθ −Ω∈ .
Para toda prueba Φ , que satisface (1). Si se cumple (2), entonces *Φ es la prueba
que tiene la mínima probabilidad de error tipo II.
Finalmente se discutirá brevemente algunos temas del Álgebra lineal para matrices
simétricas y sus valores y vectores propios. Estos temas se pueden consultar en las
siguientes referencias [9], [11] y [18].
Marco Teórico. 13
13
PARTE 4. MATRICES
1.7 VALORES Y VECTORES CARACTERÍSTICOS
Sea V un espacio vectorial y T una transformación lineal VVT →: , se tiene que en
muchos casos es útil hallar un vector V∈v , tal que vT y v sean paralelos. Es decir, se
busca un vector v y un escalar λ , tales que
vv λ=T , con 0v ≠ .
Se dice que λ es un valor característico de T mientras que a v se le llama el vector
característico de T correspondiente al valor característico λ .
Cuando V es de dimensión finita, entonces T se puede representar mediante una
matriz A, de tal forma que se analizan los valores y vectores propios de una matriz
cuadrada A.
Definición 1.7
Sea A una matriz de tamaño (orden) nn × con elementos reales. El número λ (real o complejo) recibe el nombre de valor característico o propio de A si
existe algún vector diferente de cero nC∈v tal que
vAv λ= , con 0v ≠
En este caso se dice que el vector 0v ≠ es un vector característico o propio
de A correspondiente al valor propio λ .
En este trabajo sólo se empleará el caso cuando ambos vector y valor propio son
reales.
Con respecto a los valores y vectores propios existen diferentes resultados, el primero
de ellos se refiere a la forma de calcularlos.
Teorema 1.1
Sea A una matriz real de nn × , entonces λ es un valor propio de A si y sólo si
0)det()( =−= IA λλP
En donde, la igualdad 0)( =λP recibe el nombre de la ecuación característica de A y
a )(λP se le llama el polinomio característico de A. Por el teorema fundamental del
álgebra 0)( =λP tiene n valores propios, incluyendo multiplicidades.
Capítulo 1
14
Teorema 1.2
Sea A una matriz real de orden nn × y mλλλ ,,, 21 K diferentes valores
propios de A con vectores propios correspondientes mvvv ,,, 21 K , entonces
mvvv ,,, 21 K son linealmente independientes. Además si mλλλ ,,, 21 K son
reales, entonces mvvv ,,, 21 K forman una base del espacio euclidiano mR .
Cuando los valores propios son de multiplicidad, se tiene el siguiente resultado.
Teorema 1.3
Sea A una matriz real de orden nn × y λ uno de sus valores propios, entonces
la multiplicidad geométrica de λ es igual a la nulidad de IA λ− .
Por otro lado, multiplicidad geométrica de ≤λ multiplicidad algebraica de λ .
Del teorema anterior se concluye un resultado sobre la independencia de los vectores
propios.
Teorema 1.4
Sea A una matriz real de orden nn × , entonces A tiene n vectores propios
linealmente independientes si y sólo si la multiplicidad geométrica de cada
valor propio es igual a su multiplicidad algebraica.
1.8 DIAGONALIZACIÓN
Aquí se verá una relación interesante que puede existir entre dos matrices.
Definición 1.8
Se dice que las matrices A y B de orden nn × son similares, si existe una
matriz C del mismo orden, tal que
ACCB 1−=
Teorema 1.5
Si A y B son matrices similares de orden nn × , entonces A y B tienen la misma
ecuación característica, y por lo tanto tienen los mismos valores propios.
Marco Teórico. 15
15
Definición 1.9
Se dice que la matriz A de orden nn × es diagonalizable si y sólo si existe una
matriz diagonal D del mismo orden, tal que A sea similar a D.
Teorema 1.6
Una matriz A de orden nn × es diagonalizable, si y sólo si tiene n vectores
propios linealmente independientes. Además si nλλλ ,,, 21 K son los valores
propios de A y sus vectores propios correspondientes mvvv ,,, 21 K , entonces
ACCD 11 ),,( −=nλλ K
en donde la matriz C, tiene como columnas a los vectores propios nvv ,,1 K .
1.9 MATRICES SIMÉTRICAS Y DIAGONALIZACIÓN ORTOGONAL
Cuando las matrices son simétricas los resultados anteriores se siguen cumpliendo con ciertas propiedades adicionales.
Teorema 1.7
Sea A una matriz simétrica real de orden nn × , entonces los vectores propios
de A son reales.
Teorema 1.8
Sea A una matriz simétrica real de orden nn × , entonces A tiene n vectores
propios ortonormales y reales.
Definición 1.10
Se dice que una matriz A de orden nn × es diagonalizable ortogonalmente si existe una matriz ortogonal Q tal que
DAQQ =t
Teorema 1.9
Sea A una matriz real de orden nn × , entonces A es diagonalizable
ortogonalmente si y sólo si A es simétrica.
16
Capítulo 2
Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas
2.1 PLANTEAMIENTO DEL PROBLEMA
Sean nXXX ,,, 21 K variables aleatorias independientes normalmente distribuidas con
parámetros µ y 2σ . Se quiere encontrar una prueba para el contraste de hipótesis:
01
00
:
:
ppH
ppH
>
≤
en donde, 0p es una constante conocida y p es la probabilidad de que las variables
aleatorias tomen valores por encima de un valor q constante y definido de antemano, esto
es:
[ ]qXP i > , para toda i.
Por la normalidad de las variables aleatorias y estandarizando resulta:
−>=
−Φ−=
σµ
σµ q
ZPq
p 1 ,
donde )(xΦ es la función de distribución normal estándar. De donde, 0H es equivalente a
−
Φ≤−σ
µqp01 .
Así, las hipótesis anteriores son equivalentes a:
)1(:
)1(:
01
1
01
0
pq
H
pq
H
−Φ<−
−Φ≥−
−
−
σµ
σµ
(2.1)
Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 17
17
2.1.1 ESTADÍSTICA DE PRUEBA
De la expresión (2.1) se propone una prueba basada en la estadística dada por:
σ
µˆ
ˆ−=
qT , (2.2)
en donde, µ y σ son los estimadores de máxima verosimilitud de µ y σ .
Así, la prueba rechaza cuando αkT < , donde αk es tal que
( ) αα ≤< 0| HkTP (2.3)
para una )1,0(∈α dada.
2.2 ESTIMADORES DE MÁXIMA VEROSIMILITUD PARA µ y 2σ
En base al estadístico de prueba se buscan los estimadores de máxima verosimilitud para la
media y la varianza. Sean nXXX ,,, 21 K las variables aleatorias independientes
normalmente distribuidas con parámetros µ y 2σ , de tal forma que su función de
verosimilitud está dada por:
−−=
=
−−==
∑
∏
=
=
n
iinn
n
ii
x
xfL
1
222
1
22
2~,~|
2
)(2
1exp
)2(
1
)(2
1exp
2
1),|(),( 2
µσπσ
µσπσ
σµσµσµ
xX
(2.4)
Extrayendo el logaritmo natural se tiene
∑=
−−−−=n
ii
n xn
1
22
222 )(2
1)ln(
2)2(ln),|( µ
σσπσµxl (2.5)
2.2.1 DERIVADA CON RESPECTO AL PARÁMETRO MEDIA
Derivando la expresión (2.5) con respecto a la media
[ ] )()(1
),|(2
12
2~,~| 2 µ
σµ
σσµ
µ σµ−=−=
∂∂ ∑
=
xn
xn
iix
Xl
Igualando a cero la expresión de la derivada y despejando la media,
Capítulo 2
18
0)(2
=− µσ
xn
,
se obtiene el estimador de máxima verosimilitud para la media
x=µ . (2.6)
2.2.2 DERIVADA CON RESPECTO AL PARÁMETRO VARIANZA
Para la varianza se deriva la expresión (2.5) con respecto a 2σ
[ ] [ ]
( ) ∑
∑
=
=
−+−=
∂∂−−
∂∂−=
∂∂
n
ii
n
ii
xn
xn
1
2222
221
222
22
)(2
1
2
1)(
21
)ln(2
),|(
µσσ
σσµσ
σσµ
σxl
Al igualar a cero la derivada anterior resulta la ecuación
( )0)(
2
1
2 1
2222
=−+− ∑=
n
iix
nµ
σσ.
Multiplicando la ecuación anterior por 42σ se obtiene la ecuación
0)(1
22 =−+− ∑=
n
iixn µσ .
Despejando la varianza de la expresión anterior y sustituyendo el estimador de
máxima verosimilitud para la media se obtiene el estimador de máxima verosimilitud para
la varianza
22
1
22
ˆ
)ˆ(1ˆ
s
xn
n
ii
=
−= ∑=
σ
µσ (2.7)
2.3 DISTRIBUCIÓN DE LA MEDIA Y LA VARIANZA
Se obtuvo en la expresión (2.2) que la estadística de prueba está dada en función de los
estimadores de la media y la varianza por consiguiente se necesita la distribución de estos
dos estimadores.
2.3.1 DISTRIBUCIÓN DE LA MEDIA MUESTRAL
Primeramente se nota que el vector de variables tiene la distribución:
Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 19
19
( )I1X 2)( ,~ σµnN , (2.8)
Ahora de las propiedades de la distribución normal (capítulo 1) y (2.8) resulta:
n
NX2
,~σ
µ . (2.9)
2.3.2 DISTRIBUCIÓN DE LA VARIANZA
De forma similar a la media muestra se puede formular el resultado:
−Γn
nS
22 2,
21
~σ
X . (2.10)
En donde, ∑=
−=n
ii XX
nS
1
22 )(1
X .
Comprobación
Se deduce inmediatamente del resultado para muestras aleatorias con distribución normal
estándar nZZZ ,,, 21 K (ver [12], páginas 243-246), el cual concluye que
( ) 21
1
2~ −
=∑ − n
n
ii ZZ χ , además 2Z y 2
ZS son independientes.
Luego,
[ ] 21
2
1
2
1 1
2
12
2
~1
−== ==∑∑ ∑∑ −=
−
−−
=
−= n
n
ii
n
i
n
i
iin
i
i ZZX
n
XXXnSχ
σµ
σµ
σσX
Así, de esta forma resulta
−Γ=− 2,
21
~ 212
2 nnSnχ
σX , de donde
−Γn
nS
22 2,
21
~σ
X .
2.4 DISTRIBUCIÓN DE LA ESTADÍSTICA DE PRUEBA
De la expresión (2.2) se tiene que el estadístico de prueba es:
σµ
ˆ
ˆ−=
qT .
Como se puede observar el estadístico de prueba es función de la media y desviación
estándar muestrales, de tal forma que utilizando los resultados anteriores se formula el
siguiente Teorema.
Capítulo 2
20
Teorema 2.1
Sean nXX ,,1 K variables aleatorias independientes igualmente distribuidas, y
( )I1X 2)( ,~ σµnN , en donde I es la matriz identidad de orden nn × , entonces
la estadística de prueba σ
µˆ
ˆ−=
qT , tiene una distribución t no central con
parámetro de no centralidad
−
σµ q
n .
Demostración
Es bien conocido que en este caso, X y 2XS son independientes.
u De la expresión (2.10), se nota que
21
22
2,2
1~ −=
−
Γ
n
nS
nχ
σ X . (2.11)
Transformando la estadística de prueba y utilizando la expresión (2.11), se obtiene:
)1()1(
1
1
)1(
1
ˆ
ˆ
21
2
2
2
2
22
2
2
−
−
−−=
−
−
−−=
−=
−=
−=
− n
qX
n
n
n
Sn
qX
nn
nS
n
Xq
S
XqqT
nχσ
σσ
σσ
σµ
X
XX
Por medio de la expresión (2.9), se tiene
−−
nqNqX
2
,~σ
µ ,
de tal forma que
Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 21
21
−−1,~
22
n
qN
n
qX
σ
µ
σ. (2.12)
Así, la estadística de prueba se puede transformar en
−
−
−−=
−
−
−−=
−
−
)1(1
1
)1()1(
21
central no
21
2
2
2
n
qnZ
n
n
n
qX
n
n
nT
n
n
χ
σµ
χ
σ
σ
σ
Por otro lado, de la definición de una distribución t student no central se tiene que la
estadística de prueba cumple con la distribución
−
−−=
σµ q
nTn
T *central no
1
1.
El teorema queda demostrado. t
2.5 APROXIMACIÓN DE LA T NO-CENTRAL CON LA T CENTRAL
En la sección anterior se probó que la estadística de prueba para el problema planteado es
una t no central, por consiguiente, se requiere la forma de pasar a una t central. Problema
que no resulta sencillo, de hecho las formas de trabajarse siempre son con aproximaciones,
por ejemplo, consultar los artículos [7], [9] y [12]. En está sección se estudiará la
aplicación del artículo [9] al problema que se está tratando en la Tesis. Para esto se usa la
simbología
• ν grados de libertad,
• δ parámetro de no centralidad,
Capítulo 2
22
• *k percentil y
• la función ν+
=2
)(z
zzr .
Ahora con base en el resultado de HELENA CHMURA KRAEMER de Stanford University y MINJA PAIK (Agosto de 1979) de Department of Statistics California State
University, Hayward, se tiene que para cada valor *k fijo,
[ ][ ][ ]
0)(1)(1
)()(lim
2*2
**
)( 0* =
−−
−−∞→ δ
δνδν ν rkr
rkrFkF TT
,
donde 0T tiene distribución t central con ν grados de libertad.
Para la aplicación de dicho resultado se requiere estudiar la monotonía del argumento
de la distribución de 0T central. Para esto se representa el argumento como
[ ]
[ ][ ])(1)(1
)()()(
2*2
*
δ
δνδrkr
rkrG
−−
−= . (2.13)
De tal forma que el resultado anterior se escribe de la siguiente manera
[ ] 0)(lim0*
*)(
=−∞→
δδν ν
GFkF TT. (2.14)
Proposición 2.1
La función )(δG es una función monótona decreciente.
Demostración
u La función en estudio está dada en la expresión (2.13), sustituyendo los valores de
)( *kr y )(δr se obtiene:
Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 23
23
[ ][ ][ ]
+−+=
++
++
+−+
=
+
−
+−
+−
+=
−−
−=
νδνδν
νδν
ννδν
νδνδν
νδδ
ν
νδ
δ
νν
δ
δνδ
2*2*
22*
22*
2*2*
2
2
2*
2*
22*
*
2*2
*
1
11
)(1)(1
)()()(
kk
k
k
kk
k
k
k
k
rkr
rkrG
Derivando respecto a δ ,
+−
+=′ ν
νδ
δν
δ 2*
2
*1)( k
kG (2.15)
Analizando cuando 0=δ , resulta
0)0(2*
<+
−=′ν
νkG .
Similarmente, para el caso en que 0* =k se cumple
01)( <−=′ δG .
Por lo tanto, considerando 0y 0 * ≠≠ kδ , de tal forma que se puede factorizar *y kδ
en la expresión (2.15), obteniendo:
Capítulo 2
24
−
++
+=
−
++
+
=
+−
+
=′
1)(
11
1
1
11
1
1
1
1)(
*
22*
2*
22*
*
*2*
*
2*
*
2
*
ksign
k
k
kk
kkk
kk
kG
δ
δννν
ν
δνν
δ
δν
ν
ν
δν
δ
δν
δ
Como 112*
>+k
ν y 11
2>+
δν
esto implica que
1
11
1
22*
<
++δνν
k
.
Por lo tanto,
1
11
1)(
11
1
22*
*
22*
<
++
≤
++δνν
δ
δνν
k
ksign
k
.
De donde,
0)( <′ δG ,
luego, la función es monótona decreciente. La proposición queda demostrada. t
2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES
Primeramente se define al conjunto
RR∈−Φ+≥== − )1(:),( 01 pq σµσµω è .
Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 25
25
Ahora buscando el valor de una constante k, tal que
αωω
≤∈<∈
èè
|max kTP . (2.16)
Para esto se emplea el Teorema 2.1 sustituyendo el estadístico de prueba y calculando
la probabilidad siguiente
∈<−
−=∈< ωω èè |1
1| * kT
nPkTP .
En donde, *T tiene la distribución
−
σµ q
nt central no .
Continuando con el cálculo de la probabilidad del error tipo I, multiplicando por
1−− n , se obtiene
( )11
|1|
*
*
−−−=
∈−−>≤∈<
nkF
nkTPkTP
T
ωω èè
Así,
( )11| * −−−≤∈< nkFkTPT
ωè . (2.17)
Ahora utilizando una aproximación de la distribución t no central con la distribución t central, para lo cual se emplea la siguiente simbología:
• 1−= nν grados de libertad,
• El parámetro de centralidad
−=
σµδ q
n ,
• νkk −=* y
• la función ν+
=2
)(z
zzr .
Así sustituyendo en (2.17) el resultado de la aproximación (2.14), se tiene:
Capítulo 2
26
( )( )( )
( ))(
)(1
1
11|
0
0
*
*
*
δ
δ
ω
GF
GF
kF
nkFkTP
T
T
T
T
=
−=
−=
−−−≤∈< è
Como la función 0TF es decreciente, su máximo lo alcanza cuando el argumento,
)(δG , es mínimo.
Por otro lado, se demostró en la proposición (2.1) que )(δG es decreciente por lo
tanto, su mínimo lo alcanza cuando su argumento, δ, es máximo.
Para encontrar el valor máximo de δ, se usa la representación anterior y el hecho de
que ω∈è ,
np
qn
qn
)1( 01 −Φ−≤
−
−=
−
=
−
σµ
σµ
δ
Como 0p se considerará mayor a 0.5, se tiene que
np )1( 01
0 −Φ−=≤ −δδ .
Por otro lado, 0)1( 01 >−Φ− − np , esto es
0 0 >δ . (2.18)
De esta forma, por la monotonía de )(δG ,
( ) ( ) ( ) αδδδωθ ≤−=≤≤∈< )(1)()(| 00 000GFGFGFkTP TTT .
Ahora, para encontrar el valor de k, note que
( )
)1()(
1)(
10
0
0
0
αδ
αδ
−≥
−≥
−T
T
FG
GF
Definiendo 0α por
Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 27
27
)1(10 0
αα −= −TF . (2.19)
Considerando 5.0≤α , se tiene:
0)1(10 0
>−= − αα TF . (2.20)
Sustituyendo kk ν−=* , se obtiene lo siguiente
1
1
1)(
20
20
20
20
2*0
20
*0
+−+−=
+−+−=
+−+=
kk
kk
kkG
δνδ
ννδνδνν
νδνδν
δ
Es decir, por (2.20), k es tal que
02
020 1 αδνδ ≥+−+− kk .
Ahora falta encontrar el valor de k. Para esto se observa que
01200
20 >++≥+− kk δανδ .
Luego, de (2.18) y (2.20) se tiene que necesariamente,
0<k (2.21)
Resolviendo la ecuación 02
020 1 αδνδ =+−+− kk en k, considerando (2.18).
(2.20) y (2.21)
( ) ( )
[ ] 02
2
2
21
1
1
1
20
20
200
2
2200
20
20
220
2200
20
20
220
20
2200
20
220
200
20
02
020
02
020
=−+
++
+++=
++++=+
++++=+
+−−=+
−=+++
=+−+−
δανδαν
ννδααδ
νδνδααδδ
νδνδααδ
νδαδ
αδνδ
αδνδ
kk
kk
kkkk
kkk
kk
kk
kk
Capítulo 2
28
Se resuelve la ecuación
[ ] 02 20
20
200
2 =−+
++ δανδαν kk ,
y se obtiene que
( )
νναδνδα
ν
νδναναδανδα
ν
δαννδανδα
+±+−=
+−+±+−=
−−
+±+−
=
200
200
20
20
20
20
20
200
20
20
2200
200
2
44442
2
422k
Así de esta forma las dos raíces son
νναδνδα
νναδνδα
+++−=
+++−=
200
200
200
200
k
k
De las cuales la segunda raíz siempre es negativa, luego, cumple con (2.21) y por
consiguiente es un valor de k.
Mientras que la primera raíz cumple (2.21), cuando
0200
200 <+++− ναδνδα
Al resolver se introducen raíces extrañas.
Así, para 5.00 ≥p , 5.0≤α y tamaños de muestras, n, grandes; la constante crítica k
está dada por:
ν
ναδνδα +++−=
200
200k .
Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 29
29
2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS
Note que en la demostración del Teorema 2.1, se obtuvo que el estadístico de prueba
−
−
−−=
− )1(1
12
1
central no
n
qnZ
nT
nχ
σµ
donde central noZ y 21−nχ son variables aleatorias independientes. Luego,
( )
<
+−Φ≤
<+
−
≤
<
−
−
−
−−≤
∈<
−
−
−−≤∈<
−
−
−
−
−
02
1
1
02
1
02
1
21
central no
)1(
nula hipótesis la utilizando
)1(1
1
)1(1
1|
HkZpn
P
HkZ
qn
P
Hkn
Zq
n
nP
kn
qnZ
nPkTP
n
n
n
n
χ
χ
σµ
χ
σµ
ωχ
σµ
ω èè
Así, de la última expresión se pueden calcular las probabilidades por simulación para valores dados de n, p y k. De tal forma que para valores dados de n, p y tamaño de prueba
)1,0(∈α , se obtiene el valor critico k.
En el Apéndice B, se muestran algunas tablas de valores críticos para ciertos n, p y
)1,0(∈α y el programa en S-PLUS con el cual se generaron y por último una tabla de
comparaciones de los valores críticos calculados por simulación con los valores obtenidos
por la aproximación para muestras grandes, ν
ναδνδα +++−=
200
200k .
30
Capítulo 3
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas
3.1 PLANTEAMIENTO DEL PROBLEMA
Sean nXXX ,,, 21 K variables aleatorias dependientes normalmente distribuidas con
parámetros µ y 2σ . Se quiere encontrar una prueba para el contraste de hipótesis:
01
00
:
:
ppH
ppH
>
≤
en donde, 0p es una constante conocida y p es la probabilidad de que las variables
aleatorias tomen valores por encima de un valor q constante y definido de antemano, esto
es:
[ ]qXPp i >= , para toda i.
Suponiendo normalidad de las variables aleatorias y estandarizando resulta que 0H es
equivalente a
01 pq
ZPq ≤
−>=
−Φ−
σµ
σµ
.
De donde,
−
Φ≤−σ
µqp01 .
Así, las hipótesis son equivalentes a:
)1(:
)1(:
01
1
01
0
pq
H
pq
H
−Φ<−
−Φ≥−
−
−
σµ
σµ
(3.1)
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 31
31
3.1.1 ESTADÍSTICA DE PRUEBA
De la expresión (3.1) se propone una prueba basada en la estadística dada por:
σ
µˆ
ˆ−=
qT . (3.2)
En donde, la distribución de la estadística de prueba depende de los estimadores de
momentos de la media µ y varianza 2σ , y a partir de los cuales se encuentra la
distribución de T bajo 0H .
Así, la prueba rechaza cuando αkT < , donde αk es tal que
( ) αα ≤< 0| HkTP (3.3)
para una )1,0(∈α dada.
3.2 ACOTACIONES DEL PROBLEMA
En está sección se estudiarán las acotaciones que se harán en la solución del problema
sobre el contraste de hipótesis (3.1). Sean nXXX ,,, 21 K variables aleatorias dependientes
normalmente distribuidas con parámetros µ y 2σ , cuya función de densidad de
probabilidad conjunta es la siguiente:
−−−= − )()(
21
exp)det()2(
1)( 1
2ìxÓìx
ÓxX
t
nf
π,
en donde x es una realización de la muestra, con vector de medias ì y matriz de
covarianzas Ó. Para el caso de estudio se supondrá que se tiene la misma media, 1ì µ= ,
varianza, 2σ , y cuando cualquier par de variables aleatorias tienen la misma covarianza,
cXX ji =),cov( con ji ≠ . Es decir,
=2
2
2
σ
σσ
LMOMM
LL
cc
cccc
Ó (3.4)
Capítulo 3
32
En el siguiente Teorema, se puede apreciar una condición para que la matriz de covarianzas sea positiva definida y se pueda aplicar la teoría de las distribuciones normales.
Teorema 3.1
Sea la matriz de covarianzas dada en la expresión (3.4), entonces se cumple
[ ]212 )1()()det( σσ +−−= − ncc nÓ .
Demostración
u Para calcular el determinante de la matriz de covarianzas se denota a las matrices
=2
2
2
σ
σσ
LMOMM
LL
cc
cccc
nÓ y
=2
2*
σ
σ
LMOMM
LL
cc
ccccc
nÓ .
En donde, n representa el orden de la matriz.
De esta forma después de cambiar el renglón 1 por el mismo menos el renglón dos y
usando los menores resulta
( ) ( )( ) ( )[ ]*
112
*1
21
2
2
2
22
detdet)(
det)(det)(
0
det)det(
−−
−−
+−=
−−−=
−−=
nn
nn
c
cc
cc
cccc
ÓÓ
ÓÓ
Ó
σ
σσ
σ
σσσ
LMOMM
LL
Antes de continuar se puede notar que si en la matriz *nÓ se lleva a cabo la misma
reducción entre renglones se obtiene:
( )
( )( )*
12
*1
2
2
2
2
*
det)(
det)(
00
detdet
−
−
−=
−−=
−=
n
n
n
c
c
cc
ccc
Ó
Ó
Ó
σ
σ
σ
σσ
LMOMM
LL
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 33
33
Tomando en cuenta esta última consideración y continuando con el mismo
procedimiento en ambas matrices
( ) ( )[ ]( ) ( ) ( )[ ]( ) ( )[ ]( ) ( )[ ]
( ) ( )[ ]*22
22
*33
32
*22
22
*2
*22
22
*11
2
det)2(det)(
det3det)(
det2det)(
detdetdet)(
detdet)()det(
ÓÓ
ÓÓ
ÓÓ
ÓÓÓ
ÓÓÓ
−+−=
+−=
+−=
++−=
+−=
−
−−
−−
−−−
−−
nc
c
c
c
c
n
nn
nn
nnn
nn
σ
σ
σ
σ
σ
M
Por otro lado, calculando los determinantes de segundo orden
( ) 242
2
2 detdet cc
c −=
= σ
σσÓ y ( ) 22
2*2 detdet ccc
cc −=
= σσÓ .
Finalmente, se tiene
[ ][ ][ ]212
22422
222422
)1()(
)1()2()(
))(2()()det(
σσ
σσσ
σσσ
+−−=
−−−+−=
−−+−−=
−
−
−
ncc
cncnc
ccncc
n
n
nÓ
El teorema queda demostrado. t
3.2.1 RESTRICCIÓN DEL PROBLEMA EN LA COVARIANZA
Para desarrollar la solución del problema se hará uso de la teoría de las distribuciones normales, cuestión que restringe el problema debido a que la matriz de covarianzas
respectiva debe ser positiva definida. Luego, resulta que la matriz de covarianzas del
problema, (3.4), tiene que ser positiva definida. Es decir, el determinante calculado en el
teorema 3.1 debe ser positivo. Así, del teorema anterior se tiene:
[ ] 0)1()()det( 212 >+−−= − σσ ncc nÓ .
Como c>2σ , la expresión anterior se puede dividir entre 12 )( −− ncσ , obteniendo
0)1( 2 >+− σnc .
Capítulo 3
34
De donde, la condición para que la matriz de covarianzas sea positiva definida es:
1
1
−−>
nρ (3.5)
Restricciones
Así, para las restricciones del problema se tomará en cuenta sólo variables
aleatorias nXXX ,,, 21 K que tengan
• la misma distribución marginal,
• sean dependientes,
• con covarianzas homogéneas y positivas.
Para la solución del, problema en el apéndice A se mostrará que no se pueden utilizar
los estimadores de máxima verosimilitud para los parámetros µ , σ y c ya que estos no
existen. Por consiguiente, surge la necesidad de llevar a cabo otro desarrollo diferente al
caso de variables independientes.
3.3 REPRESENTACIÓN DE LA MATRIZ DE COVARIANZAS
Para resolver el problema, primeramente se representa la matriz de covarianzas (3.4) como:
IJÓ )( 2σ−−= cc .
En donde, J es la matriz de unos de orden nn × , mientras que I se refiere a la matriz identidad del mismo orden.
Ahora se calculan los valores y vectores propios de la matriz J.
3.3.1 VALORES PROPIOS DE LA MATRIZ J
Sea J la matriz de unos de orden nn × , se buscarán sus valores propios. Para tal efecto, se
escribe el sistema de ecuaciones
vJv λ= .
Para la solución se forma el sistema homogéneo
0vIJ =− )( λ . (3.6)
En donde, se buscan los valores propios λ , tal que satisfagan la ecuación siguiente:
( ) 0det =− IJ λ
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 35
35
Así,
0
111
111111
det =
−
−−
λ
λλ
LMOMM
LL
Un determinante de este tipo se resolvió en el teorema 3.1, para la matriz de
covarianzas. De esta forma, al sustituir los valores 1=c y λσ −= 12 , se tiene
[ ]
[ ] 0)(
11)11(
111
111111
det
1
1
=−−=
−+−−−=
−
−−
−
−
λλ
λλ
λ
λλ
n
n
n
n
LMOMM
LL
.
De donde resultan los valores propios
n=λ es un valor propio simple.
Mientras que
0=λ es un valor propio de multiplicidad 1−n .
3.3.2 VECTORES PROPIOS DE LA MATRIZ J
El valor propio n=λ , se sustituye en el sistema de ecuaciones (3.6). Por otro lado, de la definición de valor propio se puede eliminar una ecuación cualesquiera del sistema.
Eliminando la primera ecuación queda la matriz ampliada del sistema (3.6)
−
−−
−−
01111111
01111111011111110111111101111111
n
nn
nn
LMMMOMMMMM
LLLL
Se hacen ceros los elementos de la primera columna, a partir de la segunda fila
Capítulo 3
36
−
−−
−−
000000
00000000000000000001111111
nn
nnnn
nnn
LMMMOMMMMM
LLLL
Ahora a partir de la segunda fila se dividen entre n todas las restantes,
−
−−
−−
01000010
00010010000010100000011001111111
LMMMOMMMMM
LLLLn
Si txxxtxtx nn ====⇒=⇒= −1432 L , luego de la ecuación 1, del sistema
anterior (reducido), resulta que
tx =1 .
De tal forma que el vector propio para n=λ está dado por:
1v =
=
1
11
1 M.
Para el otro valor propio, se sustituye 0=λ en el sistema de ecuaciones (3.6). Por
otro lado, de la definición de valor propio de multiplicidad 1−n , resulta que se pueden
eliminar 1−n ecuaciones del sistema.
Eliminando las primeras 1−n ecuaciones queda la matriz ampliada del sistema (3.6)
( )01111 L .
De donde, 11 tx = , 22 tx = , ..., 11 −− = nn tx y )( 121 −+++−= nn tttx L .
Así, los vectores propios resultantes para 0=λ son:
−
=
1
001
2
Mv ,
−
=
1
010
3
Mv , ...,
−
=
110
0M
nv .
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 37
37
Con lo cual el sistema de vectores propios de la matriz J queda completo e igual a:
1v =
=
1
11
1 M,
−
=
1
001
2
Mv ,
−
=
1
010
3
Mv , ...,
−
=
110
0M
nv .
3.4 SISTEMA DE VECTORES ORTOGONALES EQUIVALENTE A LOS
VECTORES PROPIOS DE LA MATRIZ J
Utilizando las mismas ideas que en el caso de variables aleatorias independientes se
encontrará una matriz adecuada para transformar las variables de tal forma que con las
nuevas variables se demuestre que X y 2XS son independientes. Para esto se obtendrá un
sistema de vectores propios equivalente al anterior.
Ahora se buscan los nuevos vectores ortonormalizados como combinaciones lineales
de los vectores propios, considerando que el primer vector ortonormalizado sea ( )1n1 .
Como los vectores propios son independientes se tiene que forman una base de nRR .
De tal forma que por medio de combinaciones lineales entre ellos se puede obtener otra
representación de los vectores propios también independientes. Así, de esta manera por medio de las combinaciones lineales siguientes
==
1
11
1*1 Mvv ,
−
=−=
0
011
23*2
Mvvv ,
−
=−=
0
101
24*3
Mvvv , ...,
−
=−=
10
01
2* Mvv n . (3.7)
En general,
21* vvv −= +kk para 1,,3,2 −= nk K y
==
1
11
1*1 Mvv ,
−
=−=
10
01
2* Mvv n .
Resulta un nuevo sistema de vectores independientes que se va a normalizar con el proceso
de ortonormalización de Gram-Schmidt.
Capítulo 3
38
3.4.1 ORTONORMALIZACIÓN DEL SISTEMA DE VECTORES EQUIVALENTE A LOS VECTORES PROPIOS DE LA MATRIZ J
Para la ortonormalización se usa el proceso de Gram-Schmidt, con
1
11
+
++ =
k
kk w
wu .
En donde,
kkkkkkk uuvuuvuuvvw )()()( *122
*111
*1
*11 ⋅−−⋅−⋅−= +++++ L ; 1,,2,1 −= nk K . (3.8)
Con )( uv ⋅ igual al producto escalar ( uvuv t=⋅ )( ) de los vectores uv y .
De tal forma que
===
1
11
1*1
*1
1
11 Mnv
v
w
wu .
Similarmente para 2u , primeramente se ortogonaliza con los vectores anteriores,
−
=
−
−
=⋅−=
0
011
1
11
10
0
011
)( 11*2
*22
MM
M nuuvvw .
Ahora normalizando el vector ortogonalizado
−
==
0
011
2
1
2
22
Mw
wu .
Similarmente para 3u , primeramente se ortogonaliza con los vectores anteriores,
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 39
39
−−
=
−
−
−
=
−
−
⋅
−
−
−
−
=
⋅−⋅−=
0
211
2
1
0
011
2
1
0
101
0
011
2
1
0
011
0
101
2
1
1
11
10
0
101
)()( 22*311
*3
*33
MMM
MMMM
M n
uuvuuvvw
Ahora normalizando el vector ortogonalizado
−−
×=
−−
+++==
0
211
23
1
0
211
411
1
3
33
MMw
wu .
Similarmente para 4u , primeramente se ortogonaliza con los anteriores,
−−−
=
−
−
−
=
−−+
−+−
−++−
=
××
−+×
+−
×++−
=
−−
×−
−
−
−
=
−−
×
−−
⋅
−
×−
−
−
⋅
−
−
−
−
=
=⋅−⋅−⋅−=
0
3111
31
0
1313
131
0
131
21
00
3
1
2
1
2
10
31
21
21
1
0
1
223
100
23
1
2
10
231
21
1
0
0211
231
0
0011
21
0
1001
0
211
23
1
0
211
01001
23
1
0
011
2
1
0
011
01001
2
1
1
11
10
01001
)()()( 33*422
*411
*4
*44
M
MMM
MMM
MMMMMn
uuvuuvuuvvw
Ahora normalizando el vector ortogonalizado
Capítulo 3
40
−−−
×=
−−−
+=
−−−
+++==
0
3111
34
1
0
3111
33
1
0
3111
9111
12
4
44
MMMw
wu .
En forma general, para 1+ku , primeramente se ortogonaliza con los vectores anteriores,
−
−−
=
−
−
−
=
−
−+
−−−−+++
−
−+
×−
−
−+−
=
−
−−=
−−=
⋅−−⋅−⋅−=
∑
∑
∑
∑
=
=
=+
=+
+++++
0
1
11
1
0
1
1
1
1
0
11
1)2)(1(
2000
11
112
10
1
1
11
1
1
1
)1(1
)()()(
3
2
2
*1
2
*1
*122
*111
*1
*11
M
M
M
M
M
L
M
L
kkk
k
k
kkkkk
ii
ii
ii
ii
k
i
k
i
k
iik
k
iik
kkkkkkk
uv
uv
uuvuuvuuvvw
Ahora normalizando el vector ortogonalizado
−
−−
+=
−
−−
+=
−
−−
++++==
+
++
0
1
11
)1(
1
0
1
11
1
0
1
11
111
122
veces
1
11
M
M
M
M
M
M
43421 L kkkkkkkkk
k
kk
w
wu .
De tal forma que la matriz ortonormal queda
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 41
41
( )
−−
−−
−−−
−−−−
==
)1(
100
1
)1(
1
)2(3
20
1)1(
1
)2(3
1
)1(2
11)1(
1
)2(3
1
)1(2
11
21*
nn
n
n
nnn
nnn
nnn
n
L
MOMMM
L
L
L
L uuuU .
Se probará que X=µ y 22ˆ XS=σ son independientes y que tienen distribuciones
normal y Ji-cuadrada, respectivamente. Con estos resultados es posible obtener la distribución del estadístico de prueba.
σµ
ˆ
ˆ−=
qT .
Antes de continuar se deben analizar algunas de las propiedades que se obtienen con la matriz de transformaciones.
3.5 MATRIZ DE TRANSFORMACIÓN
La matriz de transformación adecuada se representa como:
−
−
−−
−−
−−
−−
−
==
)1(
1
)1(
1
)1(
1
)1(
1
0)2(3
2
)2(3
1
)2(3
1
00)1(2
1
)1(2
1
1111
*
nn
n
nnnnnn
nnnn
t
L
MOMMM
L
L
L
UA (3.9)
La matriz por construcción es ortonormal.
3.5.1 DISTRIBUCIÓN DE LAS VARIABLES TRANSFORMADAS
En la subsección anterior se obtuvo la matriz de transformación adecuada para la
independencia de variables aleatorias normales dependientes. Ahora se estudiará un
teorema que muestra la distribución de las variables transformadas.
Capítulo 3
42
Teorema 3.2
Sean nXXX ,,, 21 K variables aleatorias dependientes e idénticamente
distribuidas, con distribución normal, además con covarianzas homogéneas,
(3.4) y sea la transformación AXY = (en donde la matriz de transformación A
está dada en (3.9)), entonces se cumple
( )( ))(,),(,)1(,~ 2221
)( ccncnN n −−+− σσσµ KDeY .
En donde, D es la matriz diagonal de orden n y )0,,0,0,1(1 K=′e .
Demostración
u Si AXY = , de la teoría de variables aleatorias con distribución normal resulta lo
siguiente
( )tnN AAÓA1AXY ,~ )( µ= . (A3)
Llevando a efecto los cálculos se tiene
1
0
01
0
0 eA1 µµµµ nn
nn
=
=
=MM
, (B3)
en donde,
=
0
01
1 Me .
Por otro lado,
IAJAAIJAAAÓ )()( 22 σσ −−=−−= cccc ttt . (C3)
Calculando el primer término del segundo miembro de la igualdad (C3), se tiene
[ ] [ ][ ]
),,,(
),,,(),,,(
),,,(),,,(
),,,(),,,(
1
11
111
111
(B3) de
00e
00e00e
001AeeeA
AeeeA111AAJA
K
KK
KK
KK
cn
nncnnc
ncnc
nccc
t
ttt
ttt
=
==
==
==
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 43
43
en donde, ),,,( 21 neee K representa una matriz cuyas columnas son los vectores dados.
Además los vectores neee ,,, 21 K forman la base canónica del espacio euclideano nR , es
decir, ie representa al vector con todas sus componentes cero, excepto la i-ésima, la cual
vale 1. Por lo tanto, sustituyendo en (C3) la igualdad anterior
[ ]( )( ))(,),(,)1(
)(,,)(,)(
),,,)((),,,()(),,,(
222
22
21
2
212
12
1
ccnc
ccccn
ccnccn
n
nt
−−+−=
−−−−=
−−=−−=
σσσ
σσσ
σσ
K
K
KKK
D
eee
eee00eI00eAAÓ
Se obtiene
( ))(,),(,)1( 222 ccnct −−+−= σσσ KDAAÓ . (D3)
En donde, ( ))(,),(,)1( 222 ccnc −−+− σσσ KD representa una matriz diagonal con
elementos en la diagonal principal )(,),(,)1( 222 ccnc −−+− σσσ K , respectivamente.
Sustituyendo (B3) y (D3) en (A3), se obtiene la distribución de las variables
transformadas
( )( ))(,),(,)1(,~ 2221
)( ccncnN n −−+− σσσµ KDeY .
El teorema queda demostrado. t
Nota
De la expresión (D3) se obtiene una demostración mucho más simple del Teorema 3.1, despejando la matriz de covarianzas:
( )ADAÓ )(,),(,)1( 222 ccnct −−+−= σσσ K .
Ahora calculando el determinante
( )[ ]( )
( )2)1(2
2)1(2
222
)1()(
)1())(det()det(
)det()(,),(,)1(det)det()det(
σσ
σσ
σσσ
+−−=
+−−=
−−+−=
−
−
ncc
ncc
ccnc
n
nt
t
AA
ADAÓ K
Capítulo 3
44
3.6 PROPIEDADES DE LAS VARIABLES TRANSFORMADAS
Con la transformación AXY = , resultan las siguientes propiedades.
Propiedad 1
Las iY tienen distribución normal y son independientes.
Comprobación
Del Teorema 3.2, se tiene
( )( ) nicNY
ncnNY
i ,,3,2 todapara ,,0~
)1(,~
2
21
K=−
+−
σ
σµ
y además son independientes.
Propiedad 2
∑∑==
=n
ii
n
ii XY
1
2
1
2 .
Comprobación
∑∑==
=====n
ii
tttttn
ii XY
1
2
1
2 )()( XXAXAXAXAXYY .
Propiedad 3
XnY =1 .
Comprobación
XnXnn
Xn
Yn
ii === ∑
=
11
11 .
Propiedad 4
∑=
=n
iiY
nS
2
22 1X .
Comprobación
∑∑∑∑====
=−=−=−=n
ii
n
ii
n
ii
n
ii Y
nY
nY
nXY
nXX
nS
2
221
1
2(3) Prop.
2
1
2(2) Prop.
2
1
22 11111X .
Propiedad 5
X y 2XS son independientes.
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 45
45
Comprobación
Se deduce de las propiedades (1), (3) y (4).
3.7 DISTRIBUCIÓN DE LA MEDIA Y LA VARIANZA
Una de las dificultades para determinar las distribuciones muestrales de la media y la
varianza reside en que las variables son dependientes y por consiguiente no existen
resultados conocidos en estos casos. Para resolver el problema se usarán las ideas del
capítulo anterior para caso de variables aleatorias independientes.
En la sección 3.1.1 se vio que la estadística de prueba estaba en función de la media y la varianza, por consiguiente, se requiere de la distribución de estas dos estadísticas.
Primeramente se nota que el vector de variables tiene distribución:
( )Ó1X ,~ )( µnN , (3.10)
con IJÓ )( 2σ−−= cc y J la matriz de unos de orden nn × , mientras que I se refiere a la
matriz identidad del mismo orden con 0),cov( >= cXX ji para toda ji ≠ .
3.7.1 DISTRIBUCIÓN DE LA MEDIA MUESTRAL
Después de haber visto las subsecciones anteriores, está todo preparado para ver la
distribución de la media. De las propiedades anteriores se tiene lo siguiente:
+−n
ncNX
2)1(,~
σµ . (3.11)
Comprobación
De la propiedad (3)
1
1Y
nX = .
Por la propiedad (1)
+−=
n
ncn
nNY
nX
2
1
)1(,
1~
1 σµ .
Luego,
+−n
ncNX
2)1(,~
σµ .
Capítulo 3
46
3.7.2 DISTRIBUCIÓN DE LA VARIANZA MUESTRAL
De forma similar a la media muestra resulta:
−−Γn
cnS
22 2,
21
~σ
X . (3.12)
Comprobación
De la propiedad (4)
∑∑==
−
−==
n
i
in
ii
c
Y
n
cY
nS
2
2
2
2
2
22 1
σ
σX .
De la propiedad (1), se tiene que
−
Γ=
−−
=∑ 2,
2
1~ 2
12
2
2
n
c
Yn
n
i
i χσ
.
Luego,
−−Γ
−
−= ∑
= n
cn
c
Y
n
cS
n
i
i2
2
2
2
22 2,
2
1~
σ
σ
σX .
3.8 DISTRIBUCIÓN DE LA ESTADÍSTICA DE PRUEBA
En la sección 3.1 se estableció el estadístico de prueba que se requiere para probar el
contraste de hipótesis y se ha visto que está en función de la media y la varianza muestrales,
de tal forma que utilizando los resultados anteriores se puede establecer el siguiente
Teorema.
Teorema 3.3
Sean nXXX ,,, 21 K variables aleatorias dependientes e idénticamente
distribuidas, con distribución conjunta normal y con covarianzas homogéneas y
positivas, esto es ( )Ó1X ,~ )( µnN con IJÓ )( 2σ−−= cc , 0>c y J la matriz
de unos de orden nn × , mientras que I se refiere a la matriz identidad del
mismo orden, entonces la estadística de prueba σ
µˆ
ˆ−=
qT , tiene una
distribución t no central con parámetro de no centralidad
+−−
1)1(n
qn
ρσµ
.
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 47
47
Demostración
u De la expresión (3.12), se nota que
21
22
2,2
1~ −=
−
Γ
− n
nS
c
nχ
σ X . (3.13)
Trasformando la estadística de prueba y utilizando la expresión (3.13) se obtiene:
)1()1)((
1
1
)1)((
1
ˆ
ˆ
21
2
2
2
2
22
2
2
−
−
−−−=
−
−
−
−−−=
−
−
−=
−=
−=
− n
qX
n
nc
n
S
c
n
qX
nnc
n
cS
c
n
Xq
S
XqqT
nχσ
σσ
σσ
σµ
X
XX
Por medio de la expresión (3.11), se tiene
+−−−n
ncqNqX
2)1(,~
σµ ,
de tal forma que
+−
−
+−
−1,
)1(~
)1( 22
n
nc
qN
n
nc
qX
σ
µ
σ. (3.14)
Así de esta manera la estadística de prueba se puede expresar como
Capítulo 3
48
−
+−
−
−−+−
−=
−
+−
−
−−
+−
−=
−
−
)1(
)1(
)1)((
)1(
)1(
)1(
)1)((
)1(
21
2central no
2
2
21
2
2
2
n
nc
qnZ
nc
nc
n
n
nc
qX
n
nc
n
nc
T
n
n
χ
σ
µ
σσ
χ
σ
σ
σ
Por otro lado, transformado su representación del numerador y denominador de la
cantidad subradical, cambiando c por ρσ 2 , se tiene:
Numerador
( )1)1()1()1( 2222 +−=+−=+− nnnc ρσσρσσ .
Denominador
)1)(1()1)(( 222 −−=−− nn ρσρσσ .
Cociente
( ))1)(1(
1)1(
)1)(1(
1)1(
)1)((
)1(2
2
2
2
−−+−
=−−+−
=−−
+−n
n
n
n
nc
nc
ρρ
ρσρσ
σσ
.
Sustituyendo el cociente por esta última expresión y definiendo el coeficiente por:
)1)(1(
1)1()(
−−+−
−=n
nh
ρρ
ρ (3.15)
Resulta que la estadística de prueba tiene la distribución
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 49
49
.1)1(
)(
)1()1)(1(
1)1(
)1(
)1(
)1)(1(
1)1(
*central no
2
*central no
21
2central no
+−
−=
+−
−−−+−
−=
−
+−
−
−−+−
−=−
n
qnTh
nc
qnT
n
n
n
nc
qnZ
n
nT
n
ρσ
µρ
σ
µρ
ρ
χ
σ
µ
ρρ
El teorema queda demostrado. t
3.8.1 ESTUDIO DEL COEFICIENTE DE LA ESTADÍSTICA DE PRUEBA
En el teorema anterior resulto una función, en el coeficiente del estadístico de prueba. Por
otro lado, al estudiar el tamaño de la prueba se tendrá que acotar la estadística de prueba,
luego, es conveniente que se analice la monotonía de la función )(ρh .
Proposición 3.1
La función )(ρh resultante en la estadística de prueba T, es negativa y
monótona decreciente en [ )1,0 .
Demostración
u La función en estudio está dada en la expresión (3.15) por:
)1)(1(
1)1()(
−−+−
−=n
nh
ρρ
ρ .
Está claro que la función es negativa, luego sólo falta probar su monotonía. Para esto
se calcula la derivada de la expresión del subradical dado que es positivo, resultando:
Capítulo 3
50
[ ] [ ][ ]
[ ]
[ ]
1 para ,0)1()1(
)1()1(
1)1()1)(1(
)1()1(
)1(1)1()1)(1(
)1)(1(
))1((1)1()1()1)(1(
)1)(1(
1)1(
2
2
22
2
2
>>−−
=
−−+−+−−=
−−−+−+−−
=
−−
−−+−−−−−=
−−+−
nn
n
n
nn
n
nnn
n
nnnn
n
n
d
d
ρ
ρρρ
ρρρ
ρ
ρρρ
ρρ
Así, )1)(1(
1)1(
−−+−
n
n
ρρ
es monótona creciente, luego
)1)(1(
1)1()(
−−+−
−=n
nh
ρρ
ρ ,
es monótona decreciente (negativa) para 10 <≤ ρ . La proposición queda demostrada. t
3.9 APROXIMACIÓN DE LA T NO-CENTRAL CON LA T CENTRAL
Al igual que en la sección 2.5 se trabajará con una aproximación de la t no central por
medio de la t central. Para esto se usa la simbología
• ν grados de libertad,
• δ parámetro de centralidad,
• *k percentil y
• la función ν+
=2
)(z
zzr .
Ahora con base en el resultado de HELENA CHMURA KRAEMER de Stanford
University y MINJA PAIK (agosto de 1979) de Department of Statistics California State
University Hayward, se tiene que para un valor dado *k ,
[ ][ ][ ]
0)(1)(1
)()(lim
2*2
**
)( 0* =
−−
−−∞→ δ
δνδν ν rkr
rkrFkF TT
.
donde 0T tiene distribución t central con 1−n grados de libertad.
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 51
51
Para la aplicación de dicho resultado, se requiere estudiar la monotonía del argumento
de la distribución central. Para esto se representa el argumento como
[ ]
[ ][ ])(1)(1
)()()(
2*2
*
δ
δνδrkr
rkrG
−−
−= . (3.16)
De tal forma que el resultado anterior se puede formular de la siguiente manera
[ ] 0)(lim0*
*)(
=−∞→
δδν ν
GFkF TT. (3.17)
Proposición 3.2
La función )(δG es una función monótona decreciente.
La demostración es idéntica a la realizada en la sección 2.5.
3.10 VALORES CRÍTICOS PARA MUESTRAS GRANDES
Primeramente se define el espacio paramétrico bajo la hipótesis como
0,)1(:),,( 01 >∈−Φ+≥== − cpqc RRσµσµω è .
Ahora para que la prueba sea de tamaño α se busca el valor de una constante k, tal
que
αωω
≤∈<∈
èè
|max kTP . (3.18)
Para esto se usa el Teorema 3.3, sustituyendo el estadístico de prueba y calculando la
siguiente probabilidad
ωρω ∈<=∈< èè |)(| * kThPkTP .
En donde, *T tiene la distribución
+−
−
1)1( central no
n
qnt
ρσ
µ con 1−n grados de
libertad
Continuando con el cálculo de la probabilidad del error tipo I, dividiendo entre )(ρh ,
y considerando el resultado de la Proposición 3.1 se tiene
Capítulo 3
52
−=
∈>≤∈<
)(1
|)(
|
*
*
ρ
ωρ
ω
h
kF
hk
TPkTP
T
èè
De tal forma que )(
1
ρh es creciente (negativa), luego su mínimo se obtiene cuando ρ
es mínima, es decir, 0=ρ .
Así,
−≤∈<
)0(1| *
h
kFkTP
Tωè . (3.19)
Ahora utilizando una aproximación de la *T no central con la 0T central, para lo cual
se usa la siguiente simbología:
• 1−= nν grados de libertad,
• El parámetro de centralidad
+−
−=
1)1(n
qn
ρσ
µδ ,
• )0(
*
h
kk = y
• la función ν+
=2
)(z
zzr .
Así al sustituir en (3.19) el resultado de la aproximación (3.17), se tiene:
( )( )
( ))(
)(1
1
)0(1|
0
0
*
*
*
δ
δ
ω
GF
GF
kF
h
kFkTP
T
T
T
T
=
−=
−=
−≤∈< è
Como la función 0TF es decreciente, su máximo lo alcanza cuando el argumento,
)(δG , es mínimo.
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 53
53
Por otro lado, se demostró en la proposición (3.2) que )(δG es decreciente, por lo
tanto, su mínimo lo alcanza cuando su argumento, δ, es máximo.
Para obtener el valor máximo de δ bajo 0H se usa la representación anterior,
→≥−Φ−Φ−=<−Φ−Φ−=
→≤−Φ−−Φ−=>−Φ−−Φ−≤
+−−Φ−≤
+−
−−=
+−−=
−−
−−
−−
−−
−
)1( 0)1( si)1()0( 0)1( si)1(
)1( 0)1( si)1()0( 0)1( si)1(
1)1(
1)1(
1)1(
1
1)1(
01
01
01
01
01
01
01
01
01
ρρ
ρρ
ρ
ρσµ
ρσµδ
pppnp
pppnp
nnp
n
qn
n
qn
Como 0p se considerará mayor a 0.5, resultando la cota
np )1( 01
0 −Φ−=≤ −δδ .
Por otro lado, 0)1( 01 >−Φ− − np , esto es
0 0 >δ . (3.20)
De esta forma, se selecciona k tal que
( ) ( ) ( ) αδδδω ≤−=≤≤∈< )(1)()(| 00 000GFGFGFkTP TTTè .
Despejando el argumento
( )
)1()(
1)(
10
0
0
0
αδ
αδ
−≥
−≥
−T
T
FG
GF
Definiendo 0α por
)1(10 0
αα −= −TF . (3.21)
Considerando 5.0≤α , se tiene:
Capítulo 3
54
0)1(10 0
>−= − αα TF (3.22)
Sustituyendo kn
kh
kk ν−=
−−==
11)0(* , resulta lo siguiente
1
1
1)(
20
20
20
20
2*0
20
*0
+−+−=
+−+−=
+−+=
kk
kk
kkG
δνδ
ννδνδνν
νδνδν
δ
Por lo tanto,
02
020 1 αδνδ ≥+−+− kk
Falta encontrar el valor de k. Para esto de las expresiones (3.21) y (3.22) se nota que
01200
20 >++≥+− kk δανδ
Luego,
0<k (3.23)
De forma similar como se resolvió en el capítulo 2 en las páginas 27 y 28, se resuelve
la ecuación 02
020 1 αδνδ =+−+− kk en k, y se obtiene el valor de la constante crítica
k.
Así, para 5.00 ≥p , 5.0≤α y tamaño de muestra n, la constante crítica k es dada por:
ν
ναδνδα +++−=
200
200k .
3.11 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS
Note que en la demostración del Teorema 3.3, se obtuvo que el estadístico de prueba
−
+−
−
−−+−−=
− )1(
)1(
)1)((
)1(2
1
2central no
2
2
n
nc
qnZ
nc
ncT
nχ
σ
µ
σσ
Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 55
55
donde central noZ y 21−nχ son variables aleatorias independientes. Luego,
( )
<
+−Φ≤
<+
−
≤
≥
∈<
−
+−
−
−+−
−=
<
−
+−
−
−−+−
−≤∈<
−
−
−
−
−
02
1
1
02
1
21
2
2
2
02
1
2central no
2
2
)1(
nula hipótesis la utilizando
tienese ,0 que doconsideran
)1()1(
)1(
)1(
)1)((
)1(|
HkZpn
P
HkZ
qn
P
c
k
Znc
qn
c
ncP
Hkn
nc
qnZ
nc
ncPkTP
n
n
n
n
χ
χ
σµ
ωχ
σ
µ
σσ
χ
σ
µ
σσ
ω
è
è
Así, la última expresión coincide con la obtenida en 2.7. Luego en el Apéndice B, se
muestran algunas tablas de valores críticos para ciertos n, p y )1,0(∈α y el programa en S-
PLUS con el cual se generaron y por último una tabla de comparaciones de los valores
críticos calculados por simulación con los valores obtenidos por la aproximación para
muestras grandes, ν
ναδνδα +++−=
200
200k .
56
Capítulo 4
Aplicaciones
4.1 VARIABLES ALEATORIAS INTERCAMBIABLES O SIMÉTRICAMENTE DEPENDIENTES
Una generalización de las variables aleatorias iid son las variables aleatorias intercambiables primeramente introducidas por B. De Finetti en 1970.
Definición 4.1
Las variables aleatorias nXX ,,1 K se llaman simétricamente dependientes o variables intercambiables (exchangeable random variables), si cualquier permutación de cualquier subconjunto de ellas de tamaño k ( nk ≤ ) tiene la misma distribución.
De Finetti demostró un elegante teorema para cualquier sucesión infinita de variables aleatorias intercambiables. Él demostró que cualquier sucesión de variables intercambiables es una mezcla de variables aleatorias iid. El siguiente teorema muestra que la distribución de una sucesión infinita de variables intercambiables nX se obtiene de una
aleatorización de una distribución binomial. Aquí, nn XXS ++= L1 y se llama al suceso
1=kX éxito.
Teorema
Para cada sucesión infinita de variables intercambiables, que toman sólo valores de 0 y 1, les corresponde una distribución F dada en [0,1], tal que
∫ −+ −=====
1
011 )1(0,,0,1,,1 θθθ dFXXXXP knk
nkk KK
∫ −−
==
1
0
)1( θθθ dFkn
kSP knkn .
Aplicaciones 57
57
Generalización
Se puede llevar acabo un razonamiento similar con variables aleatorias, que permiten tres
valores, en tal caso se tendrán dos parámetros libres. En general, el teorema y su
demostración se pueden utilizar con variables aleatorias que tomen un número finito de
valores. Este hecho significa que en un caso más general, las variables aleatorias
intercambiables se obtienen de sucesiones de variables aleatorias independientes con una
aleatorización por medio de algún parámetro. En algunos casos no se tiene ninguna dificultad, pero el problema en general es difícil, puesto que los parámetros no están
definidos claramente. A pesar de todo esto, se han demostrado resultados generales del
teorema. Ver Hewitt E., Savage L. J., Symmetric measures on Cartesian products, Trans.
American Math. Soc., 80 (1956), 470-501. Ver Loève (1963). Ver Bühlmann H.,
Austauschbare stochastische Variabeln und ihre Grenzwertsätze, Univ. of California
Publications in Statistics, 3, No. 1 (1960), 1-36.
4.2 MATRIZ DE COVARIANZAS PARA DATOS INTERCAMBIABLES
En el caso de que las variables aleatorias nXXX ,,, 21 K sean intercambiables, su matriz de
covarianzas es del tipo que se ha utilizado en el capítulo anterior para la prueba de
hipótesis. De manera más formal, se tiene el siguiente teorema.
Teorema 4.1
Sean las variables aleatorias nXXX ,,, 21 K intercambiables, entonces su matriz de varianzas y covarianzas es de la forma:
=2
2
2
σ
σσ
LMOMM
LL
cc
cccc
Ó .
Demostración
u Sea el vector
),,,( 21 nXXX K=X ,
en donde las variables nXXX ,,, 21 K son intercambiables.
Sea )(⋅τ una permutación del argumento. Aplicando la permutación al vector anterior, se
obtiene un nuevo vector de variables dado por
Capítulo 4
58
),,,()( )()2()1( nXXX ττττ K=X .
Por otro lado, de la definición de variables intercambiables se tiene que la distribución
de los vectores X y )(Xτ es la misma. Se sabe que si dos vectores tienen la misma
distribución, entonces sus matrices de covarianzas deben ser iguales.
Así, de esta forma la matriz de covarianzas para cualquier permutación )(Xτ es la
misma
=2
)()2(),()1(),(
)(),2(2
)2()1(),2(
)(),1()2(),1(2
)1(
)(
nnn
n
n
cc
cc
cc
τττττ
τττττ
τττττ
τ
σ
σσ
LMOMM
L
L
XÓ
Sea )(* Xτ otra permutación de las variables, luego su matriz de covarianzas está dada por:
=
2
)()2(),()1(),(
)(),2(
2
)2()1(),2(
)(),1()2(),1(
2
)1(
)(
*****
*****
*****
*
nnn
n
n
cc
cc
cc
τττττ
τττττ
τττττ
τ
σ
σ
σ
LMOMM
L
L
XÓ .
De tal forma que
)()( * XX ÓÓττ = .
Pero del Álgebra de matrices se sabe que dos matrices son iguales cuando sus
elementos correspondientes son iguales, de tal forma que se cumple
2)(
2)( * ii ττ σσ = para toda ni ,,2,1 K= .
Como )(iτ y )(* iτ son dos permutaciones cualesquiera para ni ,,2,1 K= , se debe
satisfacer
22)(
2)( * σσσ
ττ ==ii para toda ni ,,2,1 K= .
Similarmente para las covarianzas.
)(),()(),( ** jiji ccττττ = para toda nji ,,2,1, K= y ji ≠ .
Aplicaciones 59
59
Pero )(⋅τ y )(* ⋅τ son dos permutaciones cualesquiera para ni ,,2,1 K= , luego, se
debe cumplir que
cccjiji ==)(),()(),( ** ττττ para toda nji ,,2,1, K= y ji ≠ .
Así, se concluye que
=2
2
2
)(
σ
σσ
τ
LMOMM
LL
cc
cccc
XÓ .
El teorema queda demostrado. t
4.3 APLICACIONES A DATOS INTERCAMBIABLES
Se ha visto que en el caso de que las variables aleatorias nXXX ,,, 21 K sean
intercambiables, su matriz de covarianzas es del tipo que se ha utilizado en la prueba del
contraste de hipótesis visto en el capítulo 3.
Por otro lado, los datos intercambiables resultan en diferentes áreas. Por ejemplo, el
Dr. Ronald Randles de la Universidad de Florida ha hecho uso de la intercambiabilidad en
datos apareados, aplicados a la medicina. Él ha supuesto que cada paciente tiene una
medida tomada antes y después del tratamiento, con base en este hecho a formulado la
hipótesis nula de que las medidas antes de que y después de que son tomadas en un
tratamiento son intercambiables, es decir, que ninguna medida es afectada por el
tratamiento. Así los pares (Antes de, Después de) y (Después de, Antes de) tienen la
misma distribución.
Otra aplicación de datos intercambiados se tiene cuando los datos son reunidos en
bloques completamente aleatorizados en los que cada uno de los k tratamientos medidos
dentro de cada bloque, la hipótesis nula se refiere a que no existe ningún efecto del
tratamiento es que las !k observaciones dentro de cada bloque es intercambiable, es decir,
que todas las !k permutaciones de los datos dentro de cada bloque serían igualmente probables.
Capítulo 4
60
4.4 EXTENSIÓN DE LA PRUEBA t PARA OBSERVACIONES DEPENDIENTES
4.4.1 Caso de independencia
Para el caso de una muestra aleatoria nXXX ,,, 21 K de variables ),( 2σµN se analiza (ver
[12], páginas 428-431), por medio del método de pruebas de la razón de verosimilitudes generalizada, el contraste de hipótesis
0,:
0,:2
01
200
>≠
>=
σµµ
σµµ
H
H
en donde, 0µ es una constante conocida, el parámetro 2σ es desconocido, el espacio
paramétrico bajo la hipótesis nula es 20
2 ,|),( σµµσµω === è y el espacio
paramétrico +×=Ω RR .
Para utilizar el método anterior primeramente se obtienen los estimadores de máxima
verosimilitud de los parámetros ),( 2σµ bajo +×=Ω RR , los cuales resultan iguales a
),()ˆ,ˆ( 21
2−= nSXσµ . Por otro lado, los estimadores de los parámetros bajo ω son
−
−= ∑
=
n
iiX
n 1
200
20 )(
1
1,)ˆ,( µµσµ .
De está manera al aplicar el método de la razón de verosimilitudes generalizada y el
resultado de que X y 21−nS son independientes, se obtiene el estadístico de prueba
nS
XT
n 1
0
−
−=
µ.
Donde T tiene una distribución t-student con 1−n grados de libertad y la hipótesis
nula se rechaza cuando kT −< o kT > , con la constante crítica k igual al cuantil
)1(21 −− nt α .
4.4.2 Caso de dependencia
Para el caso en que las variables aleatorias nXXX ,,, 21 K son dependientes la prueba
anterior se complica enormemente, y su solución depende de la matriz de covarianzas. En
general, en la literatura de Estadística no se tienen pruebas para estos casos.
Cuando nXXX ,,, 21 K son variables aleatorias intercambiables normalmente
distribuidas con parámetros µ , 2σ y con covarianzas homogéneas, c, se demuestra en el
Aplicaciones 61
61
apéndice A que no se puede aplicar el método de pruebas de la razón de verosimilitudes
generalizada, debido a que no existen los estimadores de máxima verosimilitud para µ , 2σ
y c.
De tal forma que si nXXX ,,, 21 K son variables aleatorias intercambiables
normalmente distribuidas con parámetros µ , 2σ y c la prueba para el contraste de
hipótesis
0,:
0,:2
01
200
>≠
>=
σµµ
σµµ
H
H
en donde, 0µ es una constante conocida, el parámetro 2σ es desconocido, el espacio
paramétrico bajo la hipótesis nula es cc ,,|),,( 20
2 σµµσµω === è y el espacio
paramétrico ++ ××=Ω RRR ; se busca en base a un estadístico similar al caso de independencia.
En las sección 3.7.1 y 3.7.2 se demostró que en el caso de variables intercambiables
normalmente distribuidas con parámetros µ y 2σ se tiene que
+−n
ncNX
2)1(,~
σµ y
−−Γn
cnSn
22 2,
21
~σ
además, en la propiedad 5 de la sección 3.6 se demostró que X y 21−nS siguen siendo
independientes. De tal forma que bajo 0H se cumple
( )1,0~)1( 2
0 N
n
nc
X
σ
µ
+−
− y 2
12
2
2,2
1~ −=
−Γ
− nn n
c
nSχ
σ y son independientes.
Así la distribución de la siguiente estadística *T se obtiene de la distribución t central
con 1−n grados de libertad
1
)(
)1()(
22
2
0*
−−
+−−
=
n
cnS
n
ncX
Tn σ
σµ
.
Simplificando la expresión anterior, se obtiene
Capítulo 4
62
1)1(1
)1( 1
02
2
1
0*
+−−−
=+−
−−=
−− nnS
X
nc
c
nS
XT
nnρ
ρµσ
σµ
De tal forma que
1
1
0* ~)( −−
−= n
n
thnS
XT ρ
µ,
en donde, X y 21−nS son la media y varianza muestrales y son independientes, y
1)1(
1)(
+−−
=n
hρ
ρρ con 10 <≤ ρ .
Para llevar a cabo la prueba se usará un estadístico similar al caso de variables
aleatorias independientes, y que se denota por
nS
XT
n 1
0
−
−=
µ.
Ahora se busca la constante crítica k, tal que
[ ]
=
=
<=
<<−=
<<−=−
<≤
<≤
<≤
<≤
<≤
)(max
)(max
|)(max
|)(
max
|max1
10
10
0*
10
0
*
10
010
*
*
ρ
ρ
ρ
ρ
α
ρ
ρ
ρ
ρ
ρ
hkF
khF
HkhTP
Hkh
TkP
HkTkP
T
T
Proposición
La función )(⋅h es monótona decreciente
Para probar se deriva 1)1(
1
+−−
nρρ
[ ][ ] [ ]
01)1(1)1(
)1)(1(1)1(
1)1(
122
<+−
−=+−
−−−+−−=
+−
−
n
n
n
nn
nd
d
ρρ
ρρρ
ρρ
.
Aplicaciones 63
63
Luego, 1)1(
1
+−−
nρρ
es monótona decreciente y la función raíz cuadrada es monótona
creciente, esto implica que )(ρh es monótona decreciente.
De la proposición anterior resulta que el máximo de la función )(⋅h se obtiene cuando
0=ρ , es decir, cuando 1)0( =h . Así,
[ ]
[ ]kF
khF
hkF
T
T
T
*
*
*
)0(
)(max110
=
=
=−
<≤ρα
ρ
Finalmente se tiene que la prueba no rechaza 0H cuando kTk <<− , donde k es tal
que para )1,0(∈α ,
( ) α−≤<<− 1| 0* HkTkP .
Con )1(21 −= − ntk α el 21 α− cuantil de la distribución t-student con 1−n grados
de libertad.
De tal forma que se obtiene la misma prueba que en el caso de independencia.
64 64
Capítulo 5
Conclusiones
Dadas las variables aleatorias nXXX ,,, 21 K , normalmente distribuidas con parámetros µ
y 2σ la prueba para el contraste de hipótesis
01
00
:
:
ppH
ppH
>
≤
en donde, 0p es una constante conocida y p es la probabilidad de que las variables
aleatorias tomen valores por encima de un valor q constante y definido de antemano; está
basada en una distribución t, tanto para el caso de independencia como el de variables
aleatorias dependientes normalmente distribuidas con covarianzas homogéneas. Teniendo
como resultado la coincidencia de la prueba en ambos casos. Aquí se puede hacer notar
que aún cuando las pruebas coinciden, en el caso de dependencia no existen los estimadores
de máxima verosimilitud para los parámetros, como los utilizados en el caso de variables
aleatorias independientes.
En el caso de variables aleatorias intercambiables resulta que éstas cumplen las
condiciones de variables aleatorias dependientes con covarianzas homogéneas, por
consiguiente, se puede aplicar la prueba anterior a este tipo de datos.
Por otro lado, el método de la razón de verosimilitud generalizada para la prueba de hipótesis de la media de variables aleatorias independientes con distribución normal y
parámetros µ y 2σ resulta una herramienta muy útil, sin embargo, para el caso de
variables aleatorias intercambiables no es posible implementar el método, ya que no existen
los estimadores de máxima verosimilitud de los parámetros respectivos.
Conclusiones 65
65
De esta forma para llevar acabo una prueba de hipótesis sobre la media de variables aleatorias intercambiables se propone usar un estadístico de prueba similar al que se obtiene
en el método de la razón de verosimilitud generalizada para el caso de variables aleatorias
independientes. Resultando que aún cuando se trate de variables aleatorias intercambiables
la prueba coincide con la de variables aleatorias independientes.
DISCUSIÓN
En el desarrollo de la prueba para las variables aleatorias dependientes con covarianzas
homogéneas se lleva a efecto una transformación para las variables. En esta parte se puede
apreciar que las ideas y resultados que aquí se obtiene se pueden extender a otro tipo de
matrices de varianzas y covarianzas, en especial para el caso de procesos estocásticos con
covarianzas estacionarias. Cabe señalar que aunque las ideas parecen ser propicias para
llevar a cabo una prueba en estas últimas condiciones, queda la pregunta abierta referente a
la transformación adecuada para llegar a la independencia de X y 2XS o de alguna función
lineal de estas.
66
Apéndice A
Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas
A.1 PLANTEAMIENTO DEL PROBLEMA
Sean nXXX ,,, 21 K variables aleatorias dependientes normalmente distribuidas con
parámetros µ y 2σ . Se quiere encontrar una prueba para el contraste de hipótesis:
01
00
:
:
ppH
ppH
>
≤
en donde, 0p es una constante conocida y p es la probabilidad de que las variables
aleatorias tomen valores por encima de un valor q constante y definido de antemano, esto
es:
[ ]qXPp i >= , para toda i.
Suponiendo normalidad de las variables aleatorias y estandarizando resulta:
−
>=
−
Φ−=σ
µσ
µ qZP
qp 1 .
De donde,
−
Φ≤−σ
µqp01 .
Así, las hipótesis son equivalentes a:
)1(:
)1(:
01
1
01
0
pq
H
pq
H
−Φ<−
−Φ≥−
−
−
σµ
σµ
(a.1)
Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 67
67
De donde, la estadística de prueba para la solución del problema está dada por:
σ
µˆ
ˆ−=
qT . (a.2)
Es decir, se buscará la distribución de la estadística de prueba T de tal forma que cumpla con el contraste de hipótesis
)1(:
)1(:
01
1
01
0
pTH
pTH
−Φ<
−Φ≥
−
−
(a.3)
A.2 ESTIMADORES DE MÁXIMA VEROSIMILITUD PARA µ , σ y c
Sean nXXX ,,, 21 K las variables aleatorias del proceso de manera que su función de
verosimilitud está dada por
−−−= − )()(
21
exp)det()2(
1),,|( 1
2
2~,~,~| 2 1xÓ1x
Óx
Xµµ
πσµ
σµt
nccf (a.4)
En donde, 1µ es el vector cuyas componentes son todas iguales a µ, x una realización
de la muestra y Ó matriz de covarianzas con la misma varianza, 2σ , y covarianzas
homogéneas, cXX ji =),cov( . Es decir, para
=2
2
2
σ
σσ
LMOMM
LL
cc
cccc
Ó (a.5)
Los cálculos de la inversa y el determinante se tienen en el Teorema A.1.
Teorema A.1
Sea la matriz de covarianzas dada en la expresión (a.5), entonces se cumple
a).- ( ) ( )
[ ]22
2
422
21
)1()(
)1(
)2()1(
)1(
σσσ
σσσ
+−−−+−
=−−−−
+−−=−
ncc
cnc
cncn
ncc JIIJÓ .
b).- [ ]212 )1()()det( σσ +−−= − ncc nÓ .
En donde I representa la matriz identidad de orden nn × , y J la matriz de unos también del mismo orden.
Apéndice A
68
Demostración u Primeramente se representa la matriz de covarianzas de la siguiente forma:
IJÓ )( 2 cc −+= σ
a).- De esta manera la comprobación es sencilla, basta con verificar las igualdades
IÓÓÓÓ == −− 11
Luego, se tiene
[ ][ ]
[ ] [ ]422
2222222
22422
1
)2()1(
)())(1()()1(
)1()()2()1(
1
σσσσσσσ
σσσσ
−−−−−−−−−−+−−−
=
−−−−+−−−−
=−
cncn
cccnccccnc
cnccccncn
IIIIIJJIJIJJ
IIJIJÓÓ
Como JJJ n= , III = , JIJJI == , se tendrá
[ ]
[ ]
I
I
IJJ
IIJJJJÓÓ
=
−−−−+−−+−−
=
−−−−−−−−−+−=
−−−−−−−−−−+−−−=−
422
2422
422
22222
422
22222221
)2()1(
)1()1(
)2()1(
)())(1(
)2()1(
)())(1()()1(
σσσσσ
σσσσσ
σσσσσσσ
cncn
ccncn
cncn
cccncc
cncn
cccnccccnnc
Similarmente IÓÓ =−1 .
b).- El determinante se cálculo en el teorema 3.1. El teorema queda demostrado. t
Continuando con los cálculos, considerando el logaritmo natural de la expresión (a.4)
( ) ( ))det(ln2
12ln
2)()(
2
1),,|( 12
~,~,~| 2 Ó1xÓ1xxX
−−−−−= − πµµσµσµ
nc t
cl . (a.6)
Falta derivar con respecto a los diferentes parámetros.
Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 69
69
A.2.1. DERIVADA CON RESPECTO A LA MEDIA
[ ]
( ) ( ) ( )
−+−=
−+−=∂∂
−−−−
−−
1Ó11Óx1Ó1xÓ1
1Ó1x1xÓ1xX
1111
112~
,~
,~
|
21
21
21
21
)()(21
)(21
),,|(2
tttt
tt
cc
µµ
µµσµµ σµ
l
Como cada término de la última igualdad es un número, esto significa que las
transpuestas correspondientes son iguales, luego se tiene
[ ] 1Ó1xÓ1xX
112~,~,~|
),,|(2−− −=
∂∂ tt
cc µσµ
µ σµl .
Igualando a cero la expresión de la derivada y despejando la media, se obtiene su
estimador de máxima verosimilitud
1Ó1
xÓ11
1
ˆ−
−
=t
t
µ .
Empleando la inversa de la matriz de covarianzas del teorema anterior, para calcular
el estimador de la media
[ ]
[ ]
[ ]
( )
( )( )( )
2
22
2
422
2
22
422
2422
2422
1
)1(
)1(
)2()1(
)1()2()1(
1
)1()2()1(
1
)1()2()1(
1
σ
σσσ
σσσ
σσσ
σσσ
σσσ
+−=
+−−−=
−−−−−
=
−−−−−−−
=
−−−−−−−
=
−−−−−−−
=−
nc
n
ncc
cn
cncn
cn
nnnccncncn
ncccncn
ncccncn
ttt
tt
1111J11
1IIJ11Ó1
Similarmente, para el numerador
Apéndice A
70
[ ]
[ ]
[ ]
( )
xnc
n
xcncn
cn
xnxcncncn
xxncxcncncn
ncccncn
ncccncn
n
ii
n
ii
n
ii
ttt
tt
+−=
−−−−−
=
−−−−−
=
−−−
−−−−=
−−−−−−−
=
−−−−−−−
=
∑∑∑===
−
2
422
2
2422
1
2
11422
2422
2422
1
)1(
)2()1(
)2()1(
1
)1()2()1(
1
)1()2()1(
1
)1()2()1(
1
σ
σσσ
σσσ
σσσ
σσσ
σσσ
x1x1Jx1
xIIJ1xÓ1
Finalmente, resulta
x
xt
t
=
==−
−
)(
)(ˆ1
1
1Ó1
1Ó1µ
(a.7)
A.2.2. DERIVADA CON RESPECTO A LA VARIANZA
Para la varianza se deriva la expresión (a.6) con respecto a 2σ
[ ] ( ) ( ))det(ln21
)()(21
),,|(2
12
2~,~,~|2 2 Ó1xÓ1xx
X σµ
σµσµ
σ σµ ∂∂−−
∂
∂−−=∂
∂ −t
ccl (a.8)
Derivando la matriz inversa de covarianzas
( ) [ ]
[ ] [ ][ ][ ]2422
22422
24222
12
)2()1(
2)2()1()()2()1(
)1()2()1(
1
σσ
σσσσ
σσσσσ
−−−−
+−−−−+−−−−−=
−−−−−−−∂
∂=
∂∂ −
cncn
cnncccncn
ncccncn
IIJI
IIJÓ
Simplificando el numerador de la última expresión
Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 71
71
[ ] [ ][ ][ ] [ ] [ ][ ]
[ ] [ ][ ] [ ] [ ] [ ]
[ ] [ ]222
42222
4224222
224222
222422
22422
)1(2)2(
)1(2)1(2)2(
2222)2)(1()2()1(2)2(
2)2()1()2()1(2)2(
2)2()1(2)2()()2()1(
2)2()1()()2()1(
σσ
σσσ
σσσσσ
σσσσσ
σσσσσ
σσσσ
+−−+−=
=+−+−−+−
=+−+−+−−+−−−−−+−
=+−+−+−−−−−+−
=+−+−−+−+−−−−−
=+−−−−+−−−−−
cncnc
cncncnc
nncnnccncncnc
cnnccncncnc
cnnccnccncn
cnncccncn
IJ
IJ
IJ
IJ
IJI
IIJI
Sustituyendo la expresión para el numerador, se tiene:
( ) [ ] [ ][ ]2422
2221
2)2()1(
)1(2)2(
σσ
σσσ −−−−
+−−+−=∂
∂ −
cncn
cncnc IJÓ (a.9)
Sustituyendo la expresión (a.9) en el primer término de la expresión (a.8) y
reduciendo
( ) [ ] [ ][ ]
)()2()1(
)1(2)2()(
2
1)()(
2
12422
2221
21x
IJ1x1xÓ1x µ
σσ
σσµµ
σµ −
−−−−
+−−+−−−=−
∂
∂−− −
cncn
cncnctt (a.10)
En la expresión (a.10) se tomarán los productos entre matrices y vectores
( )
0
(a.10)expresión la De
)()()()(
22
2
1
22
11
2
1
2
=
−=
−=
+−−
=
+−−=−−
∑
∑∑∑
=
===
µ
µ
µµµ
µµµµµ
xn
nx
nxnxnx
n
ii
n
ii
n
ii
n
ii
ttttt J11J1xJx1Jxx1xJ1x
Similarmente con la matriz identidad.
Apéndice A
72
2
2
1
2
22
1
2
222
1
2
2
1
2
2
11
2
2
1
)(1
21
21
2
)()()()()(
n
n
ii
n
ii
n
ii
n
ii
n
ii
n
ii
ttttt
nS
xxn
n
xxxn
n
xxxxn
n
xxn
n
nxx
=
−=
−+−=
+−+−=
+−=
+−=
+−−=−−
∑
∑
∑
∑
∑∑
=
=
=
=
==
µ
µµ
µµ
µµ
µµµµµ I11I1xIx1Ixx1xI1x
Sustituyendo los resultados de los productos entre matrices y vectores en la expresión
(a.10), resulta
( ) [ ] [ ][ ]
[ ] [ ][ ]
[ ][ ]
[ ]( )[ ]
−=
+−−−
+−=
−−−−
+−=
−−−−
+−−−−+−−−−=
−
−−−−
+−−+−−−=−
∂
∂−− −
22
2
222
222
2422
222
2422
222
2422
2221
2
)(2
)1()(
)1(
2
1
)2()1(
)1(
21
)2()1(
)1()()(2)2()()(
2
1
)()2()1(
)1(2)2()(
2
1)()(
2
1
c
Sn
cnc
cnnS
cncn
cnnS
cncn
cncnc
cncn
cncnc
n
n
n
tt
tt
σ
σσ
σ
σσ
σ
σσ
σµµσµµ
µσσ
σσµµ
σµ
1xI1x1xJ1x
1xIJ
1x1xÓ1x
Esto es
( )
−=−
∂
∂−− −
22
21
2 )(2)()(
2
1
c
Sn nt
σµ
σµ 1xÓ1x (a.11)
Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 73
73
Por otro lado, de la expresión (a.6) se observa que falta la derivada del logaritmo del determinante de la matriz de covarianzas, para esto se utiliza la expresión del determinante
calculado en el Teorema A.1.
( ) ( )[ ]
( )( )
( )( )
( )
( )( )
( )22
2
22
22
22
222
22
22
212
12222
21222
)1()(
)2(
)1()(
)2(
)1()(
)1()12(
)1()(
)()1()1(
)1()(
)()1())(1(
)1()(ln)det(ln
σσ
σ
σσ
σ
σσ
σσ
σσ
σσ
σσ
σσσ
σσσσ
+−−
+−=
+−−
+−=
+−−
−+−++−=
+−−
−++−−=
+−−
−++−−−=
+−−∂
∂=
∂∂
−
−−
−
ncc
ncn
ncc
nnnc
ncc
cnnnc
ncc
cncn
ncc
cnccn
ncc
n
nn
nÓ
Esto es
( ) ( )( )
+−−
+−=
∂
∂22
2
2 )1()(
)2(
2)det(ln
2
1
σσ
σ
σ ncc
ncnÓ (a.12)
Finalmente, sustituyendo (a.11) y (a.12) en (a.6)
[ ] ( )( )
( )( )
( ) ( )( )
+−−+−−−+−
=
+−−+−
−−
=
+−−+−
−
−=
∂∂
222
2222
22
2
22
2
22
2
22
22
~,~,~|2
)1()(
)2()()1(
2
)1()(
)2(
)(2
)1()(
)2(
2)(2),,|(2
σσσσσ
σσσ
σ
σσσ
σσµ
σ σµ
ncc
nccncSn
ncc
nc
c
Sn
ncc
ncn
c
Snc
n
n
nc
xX
l
Al igualar a cero la derivada, resulta la ecuación
( ) ( )
( ) 0)1()(
)2()()1(222
2222
=+−−
+−−−+−
σσ
σσσ
ncc
nccncSn (a.13)
Apéndice A
74
A.2.3. DERIVADA CON RESPECTO A LA COVARIANZA
Para la covarianza se deriva la expresión (a.6) con respecto a c.
[ ] ( ) ( ))det(ln21
)()(21
),,|( 12~,~,~| 2 Ó1xÓ1xx
X ccc
ct
c ∂∂−−
∂∂−−=
∂∂ − µµσµ
σµl (a.14)
Derivando la matriz inversa de covarianzas
( ) [ ]
[ ] [ ][ ][ ]2422
22422
2
422
1
)2()1(
)2()1(2)1())1(()2()1(
)1()2()1(
1
σσ
σσσσ
σσσ
−−−−
−−−−−−−−−−−−−=
−−−−−−−∂
∂=
∂∂ −
cncn
ncnnccncncn
ncccncncc
IIJIJ
IIJÓ
Simplificando el numerador de la última expresión
[ ] [ ][ ][ ]
[ ] [ ][ ] [ ]2242
422242
22422
2422
22422
)1()1(
)1(2)1()1(
)2()1(2)1()1()2()1(
)2()1(2)2()1(
)2()1(2)1())1(()2()1(
σσ
σσσ
σσσσ
σσσ
σσσσ
+−+−−−=
=+−+−+−−−=
=−−−+−+−−−−−−+
+−−−−−−−−=
=−−−−−−−−−−−−−
nccn
nccncn
ncnncncncn
ncnccncn
ncnnccncncn
IJ
IJ
I
J
IIJIJ
Sustituyendo la expresión para el numerador, se tendrá:
( ) [ ] [ ]2422
42221
)2()1(
)1()1(
σσ
σσ
−−−−
+−−+−=
∂∂ −
cncn
cnnc
c
JIÓ (a.15)
Sustituyendo la expresión (a.15) en el primer término de la expresión (a.14)
( ) [ ] [ ] )(
)2()1(
)1()1()(
21
)()(21
2422
42221 1x
JI1x1xÓ1x µ
σσ
σσµµµ −
−−−−
+−−+−−−=−
∂∂
−− −
cncn
cnncc
tt (a.16)
En la expresión (a.16) se utilizan los productos entre matrices y vectores que se
realizaron para la expresión (a.10), en donde resultó:
0)()( =−− 1xJ1x µµ t y 2)()( nt nS=−− 1xI1x µµ
Se obtiene
( ) [ ][ ]
−−=
+−−
+−−=−
∂∂
−− −22
2
2222
2221
)(2)1()(
)1(
2)()(
2
1
c
Sn
ncc
ncSn
cnnt
σσσ
σµµ 1xÓ1x (a.17)
Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 75
75
Por otro lado, de la expresión (a.14) se observa que falta la derivada del logaritmo del determinante de la matriz de covarianzas, para esto se utiliza la expresión del determinante
calculado en el Teorema A.1.
( ) ( )[ ]
( )( )
( )[ ]( )
( )22
22
22
212
12222
212
)1()(
)1(
)1()(
)()1()1(
)1()(
)1()()1())(1(
)1()(ln)det(ln
σσ
σσσσ
σσσσσ
σσ
+−−−−
=
+−−−−+−−−
=
+−−−−++−−−−
=
+−−∂∂
=∂∂
−
−−
−
ncc
ncn
ncc
cncn
ncc
ncnccn
ncccc
n
nn
nÓ
Esto es
( ) ( )
+−−−
−=∂∂
22 )1()(
)1(
2)det(ln
2
1
σσ ncc
ncn
cÓ (a.18)
Finalmente, sustituyendo (a.17) y (a.18) en (a.14)
[ ] ( )
( )( )
( )
+−−−−++−−
=
=
+−−−
+−
−=
=
+−−−
+
−−=
∂∂
222
222
2222
2
2222
22
~,~,~|
)1()(
)1()()1(
2
)1()(
)1(
)(2
)1()(
)1(
2)(2),,|(2
σσσσ
σσσ
σσσσµ
σµ
ncc
nccncSn
ncc
nc
c
Sn
ncc
ncn
c
Snc
c
n
n
nc
xX
l
Al igualar a cero la derivada, resulta la ecuación
( )
( ) 0)1()(
)1()()1(222
222
=+−−
−−++−−
σσ
σσ
ncc
nccncSn (a.19)
Se forma el sistema de ecuaciones, para encontrar los estimadores de máxima
verosimilitud. Así de las ecuaciones (a.7), (a.13) y (a.19)
Apéndice A
76
( ) ( )( )
( )( )
=+−−
−−++−−
=+−−
+−−−+−
=−
)19a.(0)1()(
)1()()1(
)13a.(0)1()(
)2()()1(
)7a.(0
222
222
222
2222
σσσσ
σσ
σσσ
µ
ncc
nccncS
ncc
nccncS
x
n
n
Sumando (a.13) + (a.19), se obtiene
( )( )
( )( )
( )
0)1(
1
0)1()(
)(
0)1()(
)2()1()(
0)1()(
)1()()2()(
2
222
22
222
22
222
222
=+−
=+−−
−
=+−−
−−−−−
=+−−
−−++−−−
σ
σσσ
σσσσ
σσσσσ
nc
ncc
c
ncc
ncncc
ncc
nccncc
Es decir, ¡no existen estimadores de máxima verosimilitud!, puesto que la última
igualdad se cumple sólo cuando c o 2σ crecen indefinidamente.
Otra forma de demostrar que los estimadores de máxima verosimilitud no existen, se
tiene al analizar la propiedad 1 del capítulo 3, página 44. En donde, se puede observar que
las variables de la transformación AXY = , 1Y y las restantes variables iY ni ≤≤2 tienen
diferentes varianzas y son independientes. Ahora, como se necesitan estimar 3 parámetros
se puede dar un valor cualesquiera a uno de ellos y de esta forma se puede elegir una función de máxima verosimilitud cada vez más grande, sin acotación.
77
Apéndice B
Simulación de valores críticos para muestras pequeñas
B.1 PLOGRAMA EN S-PLUS
A continuación se muestra el programa elaborado en S-PLUS, para calcular tanto la tabla
de cuantiles, como los resultados de comparar los valores simulados, con los valores
críticos calculados en la aproximación que se obtuvo de forma analítica.
#SE PROGRAMA UNA SIMULACIÓN CON R REPETICIONES PARA CALCULAR LOS CUANTILES DE LA DISTRIBUCIÓN DESCONOCIDA
numerador<-function(n,p,r) (sqrt(n)*qnorm(1-p)+rnorm(r))/sqrt(n-1) denominador<-function(n,r) sqrt(rchisq(r,(n-1))/(n-1)) Probabilidad<-function(n,p,r) numerador(n,p,r)/denominador(n,r) suma<-function(n,p,alfa,r) s<-0 k<-1 ordenar<-sort(Probabilidad(n,p,r)) while(s <= alfa) s<-s+abs(ordenar[k]/r) k<-k+1 cuantil<-ordenar[k-1] cuantil
Apéndice B
78
teorico<-function(n,p,alfa) alfa0<-qt(1-alfa,n-1) delta0<-(-qnorm(1-p)*sqrt(n)) -(alfa0*sqrt(delta0^2+n-1)+delta0*sqrt(alfa0^2+n-1))/(n-1) final<-function(alfa, cp=c(0.6,0.7,0.75,0.8,0.9,0.95,0.99,0.995),
cn=c(5:30,35,40,45,50),r=100000) valoresp<- cp valoresn<-cn np<-length(valoresp) nn<-length(valoresn) resultados<-matrix(NA,nn,np) for(i in 1:np) for(j in 1:nn) posi<-valoresp[i] posj<-valoresn[j] resultados[j,i]<-suma(posj,posi,alfa,r) cat("\n"," Critical values for alfa=", alfa, "\n") presentacion<-matrix(NA,nn,np) for(i in 1:np) presentacion[,i]<-resultados[,i] row.names(presentacion)<- valoresn names(presentacion)<-
c("p=0.60","p=0.70","p=0.75","p=0.80","p=0.90","p=0.95","p=0.99","p=0.995")
print( presentacion) cat("\n" ) tablas<-function(valoresf=c(0.01,0.02,0.025,0.05,0.10,0.20)) for(i in 1:length(valoresf)) final(valoresf[i]) comprobar<-function(ca=c(0.01,0.02,0.025,0.05,0.10,0.20),
cn=c(5,10,15,20,25,30,40,50),cp=c(0.6,0.7,0.75,0.8,0.9,0.95,0.99,0.995), alfa,m=5,r=100000)
Simulación de valores críticos para muestras pequeñas. 79
79
for(s in 1:length(ca)) alfai<-ca[s] tn<-length(cn) tp<-length(cp) cat("\n"," Comparacion de resultados por simulacion y
aproximado, respectivamente, para alfa=", alfai, "\n") comparacion<- matrix(NA,tn,tp) comparacion1<- matrix(NA,tn,tp) for(i in 1:tn) for(j in 1:(tp/2)) aux<-2*j-1 jj<-aux+1 vni<-cn[i] vpj<-cp[j] comparacion[i,aux]<-suma(vni,vpj,alfai,r) comparacion[i,jj]<-teorico(vni,vpj,alfai) jc<-j+4 vpj<-cp[jc] comparacion1[i,aux]<-suma(vni,vpj,alfai,r) comparacion1[i,jj]<-teorico(vni,vpj,alfai) row.names(comparacion)<- cn names(comparacion)<-
c("p=0.60","p=0.60","p=0.70","p=0.70","p=0.75","p=0.75","p=0.80","0.80")
print( comparacion) cat("\n") row.names(comparacion1)<- cn names(comparacion1)<-
c("p=0.90","p=0.90","p=0.95","p=0.95","p=0.99","p=0.99","p=0.995","0.995")
print( comparacion1)
B.2 TABLAS DE CUANTILES
Apéndice B
80
n
n
Simulación de valores críticos para muestras pequeñas. 81
81
n
n
Apéndice B
82
n
n
Simulación de valores críticos para muestras pequeñas. 83
83
B.3 COMPARACIONES
En las siguientes tablas se muestran algunas comparaciones entre los valores simulados y
los valores calculados con la aproximación del valor crítico.
n
n
n
Apéndice B
84
De las comparaciones anteriores, se puede apreciar que cuando el valor de p, es más
grande ( 15.0 << p ) y el nivel de significancia disminuye los valores simulado y
aproximado se asemejan más a partir de muestras de tamaño 30, en los demás casos se
requieren muestras mayores.
n
n
n
85
Bibliografía
[1] Billingsley, Patrick, Probability and Measure, JOHN WILEY & SONS, New York,
1979.
[2] Box, George E. P; Jenkins, Gwilym M. and Reinsel, Gregory C., Time Series
Analysis. Forecasting and Control, PRENTICE HALL INTERNATIONAL, INC.,
USA, 1994.
[3] Brocwell, Peter J. and Richard A. Davis, Introduction to Time Series and
Forecasting, SPRINGER-VERLANG, New-York, Inc. 1996.
[4] Casella, G. & Berger, R.L., Statistical Inference, DUXBURY PRESS, Belmont,
California, 1990.
[5] Chatfield, Chris, The analysis of Time series an introduction (fifth edition),
CHAPMAN & HALL/CRC, UK. 1999.
[6] Chung, Kai Lai, A course in Probability Theory, Harcourt, Brace & World, Inc.
1968.
[7] Feller, William, An Introduction to Probability Theory and its Applications V.2,
Second edition, JOHN WILEY & SONS, New York, 1971.
[8] Halperin, Max Approximations to the Non-Central t, With Applications,
TECHNOMETRICS, Vol. 5, No. 3, pp 295-305, August 1963.
[9] Herstein, I. N. & Winter, D. J., A primer on Linear Algebra, MACMILLAN
PUBLISHING COMPANY, United States of America, 1988.
[10] Kraemer, H. Ch., & Paik. A Central t Approximation to the Noncentral t-
Distribution, TECHNOMETRICS, Vol. 21, No. 3, pp 357-360, August 1979.
[11] Maltsev, A. I. Fundamentos de Álgebra Lineal, Editorial Mir, Moscú, 1972.
Bibliografía
86
[12] Mood, A.M., Graybill, F. A. & Boes, D. C., Introduction to the theory of statistics, Third Edition, McGraw Hill, Singapore, 1974.
[13] Owen, D. B. A Survey of Properties and Applications of the Noncentral t-
Distribution, TECHNOMETRICS, Vol. 10, No. 3, pp 445-473, August 1968.
[14] Pankrants, Alan, Forecasting with univariate Box-Jenkins Models. Concepts and
Cases, JOHN WILEY & SONS Inc, New York, 1983.
[15] Parzen, Emanuel, Procesos estocásticos, PARANINFO, Madrid-España, 1972.
[16] Rohatgi, Vijay K., Statistical Inference, JOHN WILEY & SONS Inc, New York,
1984.
[17] Ross, Sheldon M., Stochastic Processses, Second Edition, JOHN WILEY, New York,
1996.
[18] Searle, S. R., Matrix Algebra Useful for Statistics, JOHN WILEY, New York, 1982.
[19] Wilks, Samuel S., Mathematical Statistics, JOHN WILEY & SONS Inc, New York, 1962.