Date post: | 06-Jun-2015 |
Category: |
Documents |
Upload: | sociedad-de-ginecologia-de-misiones |
View: | 4,259 times |
Download: | 0 times |
11
Curso bianual de Ginecología.
Sociedad de Ginecología y
Obstetricia de Misiones.
Posadas 2008
Bioestadística
Bioq. María de Luján Calcagno
Facultad de Farmacia y Bioquímica
UBA
22
ESTADÍSTICA(BIOESTADÍSTICA)
2) ESTADÍSTICADESCRIPTIVA
(ANÁLISIS EXPLORATORIO)
3) INFERENCIA ESTADÍSTICA
1) DISEÑO DE LA
INVESTIGACIÓN
33
VARIABLE OBSERVADA
X
OBJETIVO: OBTENER CONCLUSIONES BIOLÓGICAS PARA UNA POBLACIÓN A PARTIR DE DATOS DE UNA
MUESTRA
POBLACIÓN DE INDIVIDUOS
POBLACIÓN DE OBSERVACIONES
MUESTRA DE INDIVIDUOS(tamaño n)
UNIDAD EXPERIMENTAL
MUESTRA DE OBSERVACIONES
(n datos)
OBSERVACIÓN INDIVIDUAL
Esquema: Dra. Delia Garrido
VARIABLE OBSERVADA X
VARIABLE OBSERVADA X
44
VARIABLES
ALEATORIAS
CUALITATIVAS(CATEGÓRICAS)
CUANTITATIVAS(NUMÉRICAS)
NOMINALES
ORDINALES
DISCRETAS
CONTINUAS
55
NOMINALES: Registran la presencia de un atributo. Mutuamente excluyentes y exhaustivas.1) Dicotómicas: Sexo, Grupo (Normales vs. SOP).2) Más de dos categorías: Grupo sanguíneo (O, A, B, AB); No fumador-ex
fumador-fumador.
ORDINALES: Reflejan un orden natural entre las categorías.Estadio de cáncer de mama: I, II, III, IV (II no es el doble de grave que I)
DISCRETAS: Sólo toman valores en un conjunto finito o infinito numerable; surgen de conteos.Número de nódulos; número de partos (4 partos es el doble de 2 partos); número de hematíes en 1 ml.
CONTINUAS: Pueden tomar infinitos valores en un rango, no se pueden numerar; suelen surgir de mediciones o cálculos.Peso; altura; nivel de una hormona en sangre.
Ejemplos:
66
OBJETIVO: OBTENER CONCLUSIONES BIOLÓGICAS PARA UNA POBLACIÓN A PARTIR DE DATOS DE UNA
MUESTRA
POBLACIÓN DE OBSERVACIONES
v.a. X
MUESTRA DE OBSERVACIONES
(tamaño n)
ESTADÍSTICOS DE LA MUESTRA:
Media muestral
Varianza muestral Desviación estándar muestral Mediana de la muestra Proporción de un atributo en la muestra
μ̂=X
22 σ̂=SσS ˆ
θ̂=Mπ̂=P
PARÁMETROS DE LA POBLACIÓN:
Esperanza o media de X = Varianza de X =
Desviación estándar de X = =Mediana poblacional = Proporción de un atributo =
2σ2σ
^ Léase: estimador de…
77
VARIABLE OBSERVAD
A
OBJETIVO: OBTENER CONCLUSIONES BIOLÓGICAS PARA UNA POBLACIÓN A PARTIR DE DATOS DE UNA
MUESTRA
POBLACIÓN DE
INDIVIDUOS
POBLACIÓN DE OBSERVACIONE
S
MUESTRA DE INDIVIDUOS
UNIDAD EXPERIMENT
AL
MUESTRA DE OBSERVACIONE
S
OBSERVACIÓN INDIVIDUAL
VARIABLE OBSERVADA
VARIABLE OBSERVADA
INFERENCIAESTADÍSTICA
CONCLUSIÓN BIOLÓGICA
ESTADÍSTICA DESCRIPTIVA
88
Algunos estadísticos muestrales:
Media muestral (medida de tendencia central):
∑ni
iix
nˆx
=
1=
1=μ=
0
2
4
6
8
10
12
5,6=x
6,3=x
0
2
4
6
8
10
12
5,6=x
6,3=x
FSH 1 FSH 2FSH 3 FSH 4
1- Para variables numéricas:
Muestras de tamaño n = 8
Medias: 6,5 3,6 6,5 3,6
FSH 2
2,3
2,5
2,8
3,4
3,6
4,5
4,8
4,8
FSH 1
4,8
5,4
6,3
6,7
6,8
6,9
7,6
7,8
FSH 3
1
2,1
4,3
6,7
7,6
8,4
10,5
11,2
FSH 4
0,2
1
1,8
2,3
2,5
4,8
7,2
9,2
99
Varianza muestral:
( )=σ2 2n=i
1=ii
2 xx1n
1ˆ=s ∑_
_
Desviación estándar:
2=σ= sˆs
VAR (FSH 1) = 1,05
VAR (FSH 2) = 1,04
VAR (FSH 3) = 13,91
VAR (FSH 4) = 10,03
DS (FSH 1) = 1,02
DS (FSH 2) = 1,02
DS (FSH 3) = 3,73
DS (FSH 4) = 3,17
Medidas de dispersión:
Coeficiente de variación:
xs
CV =
Coeficiente de variación %:
100= *xs
%CV
1010
Mediana muestral:(otra medida de tendencia central)
Se ordenan los n datos de menor a mayor y la mediana es el valor central (si n es impar), o el promedio de los dos valores centrales (si n es par).
756=2
86+76=θ= ,
,,ˆmMediana
FSH 1 4,8 5,4 6,3 6,7 6,8 6,9 7,6 7,8
Rango o recorrido:(otra medida de dispersión)
Rango = X Máx – X mín
Informamos: Media (DS) o (cuando corresponde, según la distribución de la variable): Mediana (Mínimo; Máximo)
o bien (Xmín ; Xmáx)
1111
Proporción de un atributo:
nf
muestraladeTamaño
sucesoalfavorablesCasosˆprelativaFrecuencia ==Π==
2- Para variables categóricas:
Frecuencia absoluta = f = es la cantidad de veces que ocurre el suceso de interés al efectuar n veces el experimento. O bien, es la cantidad de casos favorables al suceso de interés cuando se observa una muestra de tamaño n.
Algunos estadísticos muestrales:
1212
0,21
3,94
7,66
11,38
15,11F
SH
(m
UI/
mL
)Box Plot variable FSH en mujeres normales
Mediana
Media
Cuantil 0,25 = 25% percentilo
Cuantil 0,75 = 75% percentilo
Máximo
Mínimo
Gráfico de Cajas y Bigotes para variables numéricas continuas:
Cuantil 0,05
Cuantil 0,95
1313
-1,31
7,01
15,34
23,67
32,00F
SH
(m
UI/m
L)
Box plot variable FSH en mujeres con SOP
1414
Normal SOP
Grupo
-1,31
7,01
15,34
23,67
32,00F
SH
-BIO
AR
S
6,39
4,58
6,39
4,58
FSH en mujeres normales y con SOP
1515
0,04 1,74 3,43 5,12 6,81 8,51 10,20 11,89 13,58 15,28
FSH (mUI/mL)
0,00
0,07
0,13
0,20
0,26F
recu
enci
a re
lati
vaFSH en mujeres normales
HISTOGRAMA
Este hueco no aparece
en el box plot
X
Y
1616
0,04 1,74 3,43 5,12 6,81 8,51 10,20 11,89 13,58 15,28
FSH (mUI/mL)
0,00
0,07
0,13
0,20
0,26fr
ecu
enci
a re
lati
vaFSH en mujeres normales
Ajuste: Normal (6,69, 8,73)
X
Y
1717
-1,71 2,21 6,12 10,03 13,94 17,86 21,77 25,68 29,59 33,51
FSH (mUI/mL)
0,00
0,13
0,26
0,39
0,52fr
ec
ue
nc
ia r
ela
tiv
aFSH en mujeres con SOP
Ajuste: Normal (5,35, 18,75)
X
Y
1818
N (μ;σ2)
2)σ
μ X-(
21
2e
πσ2
1=)X(f
- Parámetros poblacionales (un ejemplo):
3=σ=)X(DS
9=σ=)X(Var
6=μ=)X(E2
El área bajo la curva es igual a 1. La curva es simétrica respecto de X =
X
Y
1919
N (μ;σ2)
•Las probabilidades se calculan como áreas bajo la curva.•El área bajo la curva es igual a 1. •La curva es simétrica respecto de X = •Entre ± se encuentran aproximadamente el 68% de las observaciones.•Entre ±2 se encuentran aproximadamente el 95% de las observaciones.•Entre ±3 se encuentra aproximadamente el 97,5% de las observaciones.
- +
- 2 + 2
- 3 + 3
2020
-6 -4 -1 1 4 6 8 11 13 16 18
FSH (mUI/mL)
0,00
0,10
0,20
0,30
0,40
De
ns
ida
d
( )2σ;μNX˜
nσ;μNX
2
˜ ( )
X: Media de muestras de tamaño n
(n=9 en este caso).
X
Y
2121
Y N (; ), entonces ˜ ( )1;0N
nσ
μX=Z
-˜X
nσ2
Variable aleatoria Normal Estandarizada:
Si X N (; ), entonces˜2σ ( )1;0N
σμX
=Z -˜
Y, además, cualquiera sea la distribución de X, si n es suficientemente grande,
);(n
NX2
~ Teorema Central del Límite
2222
Pero:
_
-6 -5 -3 -2 -1 0 1 2 3 5 6Variable T
0,00
0,10
0,20
0,30
0,40
De
ns
ida
d
Distribución T de Student
n-1 = 9-1 = 8 grados de libertad
Si X N (; ),y media de muestras de tamaño n, entonces
2σ X
1nT
nS
μX=T ˜ -
_˜
2323
Muchas veces, si la desviación estándar S es muy grande, vemos que informan el error estándar de la media. NO ES CORRECTO, pues el estimador de la precisión con la que se mide la variable X es la desviación estándar de X (Recordemos que )σS ˆ
N (; ), entonces ˜ ( )1;0N
nσ
μX=Z
-˜X
nσ2
Vimos que:
nσ
ESMn
SMSE ˆ
Error estándar de la Media: es la desviación estándar de la media
2424
Estimación por Intervalos de Confianza
Con los estimadores puntuales de los parámetros sólo sabemos que, si la muestra fue bien tomada, estamos cerca del parámetro. Cuán cerca, o con qué precisión fue hecha la estimación, lo informan los intervalos de confianza. Son de la forma:
C (L.Inf< Parámetro desconocido < L.Sup) = 1- 1- se fija, en general, en 0,95 (o 95%)
Ejemplo: En una muestra de 9 mujeres normales, la media de FSH fue de 6,69 UI/mL y la desviación estándar fue de 2,95 UI/mL. Queremos construir un intervalo de confianza del 95% de confianza. La fórmula es, en este caso:
ns*t±x 8;975,0 995,2*306,2±69,6
C (4,42 < < 8,96) = 0,95
6,69 ± 2,27
2525
0 10 20 30 40 50 60 70 80 90 100
Intervalos
-0,06
0,94
1,95
2,95
3,96
4,97
5,97
6,98
7,98
8,99
9,99
11,00
Med
iaIntervalos de confianza para la media
Cobertura: 95,00%
2626
Inferencia estadística: Prueba de hipótesisAhora se quieren poner a prueba hipótesis respectivas a los parámetros desconocidos de la población. Por ejemplo, ¿se puede suponer que la muestra que dio una media de 6,69 pertenece a una población que tiene esperanza = 6? (Hipótesis nula); ¿o la población de la cual proviene esa muestra tiene una esperanza mayor que 6? (Hipótesis alternativa)Estas hipótesis las escribimos así:
6>μ:H
6=μ:H
1
0
FSH (mUI/mL)0,00
0,10
0,20
0,30
0,40
Den
sid
ad
x
0=6
)6=μ(X 0H0
En esta situación I, es muy probable que la muestra pertenezca a esta población
En esta situación II, es muy improbable que la muestra pertenezca a esta población
FSH (mUI/mL)
0,00
0,10
0,20
0,30
0,40
De
nsi
da
d
0 = 6
)6=μ(X 0H0
x
Suponiendo que conocemos y que es igual a 3:
Situación I: Situación II:
01
00
μμH
μμH
:
:En general:
2727
FSH (mUI/mL)
0,00
0,10
0,20
0,30
0,40D
en
sid
ad
Área a la derecha de = muy grande
x
Situación 1:
Aquí, si rechazo H0, tengo
una probabilidad de equivocarme demasiado grande, porque hay una gran probabilidad de que la muestra pertenezca a esta población. ¿Me conviene
rechazar H0 con una
probabilidad tan grande de equivocarme? ¡NO!
Situación 2:
Aquí, si rechazo H0, la
probabilidad de equivocarme es prácticamente cero porque hay una probabilidad casi nula de que la muestra pertenezca a esta población.
¿Me conviene rechazar H0 con
una probabilidad tan pequeña de equivocarme? ¡SÍ!
)6=μ(X 0H0
FSH (mUI/mL)
0,00
0,10
0,20
0,30
0,40
De
ns
ida
d
)6=μ(X 0H0
Área a la derecha de 0
x
2828
FSH (mUI/mL)
0,00
0,10
0,20
0,30
0,40
De
ns
ida
d
críticoX
05,0=)críticoValorX(P ≥ = Nivel de significación
del test
¿Entonces?; ¿cuál es el límite?; ¿a partir de qué valor de media rechazo H0 o no me animo a rechazar H0?
Ese valor es el que deja en la zona de rechazo un área de a lo sumo 0,05, o 5%(en problemas biológicos)
El nivel de significación es una “declaración de principios” que se hace, en un paper, en la sección Materiales y métodos (Métodos estadísticos): “se considerará significativa una probabilidad de error menor que el 5%”…
Zona de rechazoZona de aceptación
2929
En nuestro ejemplo, la probabilidad P de equivocarnos al afirmar que la esperanza de la población es mayor que 6, vale 0,2451; y es mayor que 0,05. Por lo tanto, no podemos rechazar la hipótesis de que nuestra muestra pertenece a una población de esperanza = 6.
Ésta es la P de los papers
2,40 3,01 3,63 4,24 4,86 5,47 6,09 6,70 7,31 7,93 8,54 9,16 9,7710,3911,00
FSH (mUI/mL)
0,00
0,10
0,20
0,30
0,40
Den
sida
d
_Normal(6;1): P(X>6,69)=0,2451
696= ,muestraladex
P = 0,2451
3030
*Si se conoce : de N(; 2/n) a N (0;1)
*Si no se conoce :
de N(; 2/n) a Tn-1
El estadístico de prueba es el “termómetro” que detecta cuándo la hipótesis nula no es válida.
);(N
n
XE 10σ
μ= 0
_
˜
10μ
= nT
nS
XE
_
˜ -
(Diapositiva 21)
(Diapositiva 22)
Sin embargo, para simplificar, y para poder calcular las probabilidades, los estadísticos muestrales, como la media, en este caso, se estandarizan y se convierten en el ESTADÍSTICO DE PRUEBA. Es decir: la diferencia entre el estimador del parámetro y el Estadístico de prueba es sólo un cambio de escala. Por ejemplo:
3131
Así, la P también es el área de la zona de rechazo calculada a partir del Estadístico de prueba E.
2,40 3,01 3,63 4,24 4,86 5,47 6,09 6,70 7,31 7,93 8,54 9,16 9,7710,3911,00
FSH (mUI/mL)
0,00
0,10
0,20
0,30
0,40
Den
sid
ad
_Normal(6;1): P(X>6,69)=0,2451
69,6=muestraladex
P = 0,2451
690=93
6696= ,
/
,EDonde
_
1=9
3
-5,0 -4,3 -3,6 -2,9 -2,1 -1,4 -0,7 0,0 0,7 1,4 2,1 2,9 3,6 4,3 5,0Variable
0,00
0,10
0,20
0,30
0,40
Den
sida
d
Normal(0,1): p(Z > 0,69)=0,2451
P = 0,2451
Est. de prueba E = 0,69
Z
3232
-5,00 -4,17 -3,33 -2,50 -1,67 -0,83 0,00 0,83 1,67 2,50 3,33 4,17 5,00
Variable
0,00
0,10
0,20
0,30
0,40
Den
sida
d
Normal(0,1):Área en la cola izquierda = 0,0500
Test de cola izquierda:
01
00
μ<μ:H
μ=μ:H
Test de dos colas:
01
00
μ≠μ:H
μ=μ:H
-5,00 -4,00 -3,00 -2,00 -1,00 0,00 1,00 2,00 3,00 4,00 5,00
Variable Z
0,00
0,10
0,20
0,30
0,40
Den
sida
d
Normal(0,1): Área en las colas = 0,0500
3333
RealidadH0 verdadera H0 falsa
Decisió
n
“Acepto” H0 Acierto
Error de tipo II = Prob. de
cometerlo (no se conoce)
Rechazo H0
Error de tipo I = Prob. de
cometerlo(Nivel de
significación: lo fija el experimentador)
Acierto: Potencia del test1- = Probabilidad
de ocurrencia
Esquema de las decisiones en un test de hipótesis:
3434
Entonces, resumamos las definiciones de los errores y aciertos:
Probabilidad de cometer error de tipo I (): La probabilidad de rechazar H0 siendo verdadera. Es el nivel de significación del test. Es la probabilidad de error que el investigador fija antes de el investigador fija antes de analizar los resultadosanalizar los resultados. Es el máximo error que está dispuesto a cometer en la decisión.
Probabilidad de cometer error de tipo II (): La probabilidad de “aceptar” H0 siendo falsa. No se puede calcular, a menos que se fije una alternativa.
Potencia ( = 1-): La probabilidad de rechazar H0 siendo falsa. Es la capacidad de un test de detectar diferencias verdaderas.
La P de los papers es:* La probabilidad exacta de equivocarse al rechazar H0. * El nivel justo de significación.* El área de la zona de rechazo calculada exactamente a partir del estadístico de prueba (se calcula después de que se tomaron los se calcula después de que se tomaron los datosdatos).
3535
Variable
0,00
0,10
0,20
0,30
0,40
De
nsi
da
d
críticoX0 1
En un test de cola derecha, donde H0: = 0 y H1: > 0 , supongamos una alternativa 1
0HbajoX 1HbajoX
Potencia = 1-
Nivel de significación =
Error de tipo II =
Zona de rechazoZona de aceptación
3636
Relación entre Intervalo de confianza y Test de Hipótesis
Volviendo a nuestro ejemplo:
C (4,42 < < 8,96) = 0,95
Si ahora planteamos las hipótesis:
6≠μ:H
6=μ:H
1
0
Vemos que el intervalo de confianza del 95% contiene al valor 6. Por lo tanto, se podría decir que tenemos una confianza del 95% de que el verdadero valor de pueda ser 6. Entonces, no nos atrevemos a rechazar la hipótesis = 6.
Si, por el contrario, el valor 6 no perteneciera al intervalo, tendríamos que rechazar la hipótesis de que = 6, y la probabilidad de error de esa afirmación sería del 5% ( = 0,05).
Este razonamiento vale para cualquier intervalo de confianza
3737
Cómo se organizan las bases de datos:
•Un número de identificación correlativo ayuda a ordenar la base
•Cada fila es un caso o paciente o registro
•Cada columna (o campo) es una variable
•Las variables categóricas pueden ir en letras o números, según el software
3838
Test de Shapiro-Wilks para normalidad de una variable
continua:H0: La variable sigue una distribución normal
H1: La variable no sigue una distribución normal
Para decidir que la variable sigue razonablemente una
distribución normal, la P debe ser mayor que 0,20
3939
Normal SOP
Grupo
-1,31
7,01
15,34
23,67
32,00F
SH
-BIO
AR
S
6,39
4,58
6,39
4,58
FSH en mujeres normales y con SOP
Dos muestras:
4040
Para analizar dos muestras independientes, automáticamente se piensa en el test de Student:
4141
p(Var Hom) en la salida del programa de la diapositiva anterior es la P del test de homogeneidad de varianzas de Fisher, cuyas hipótesis son:
22
211
22
210
σ≠σ:H
σ=σ:H
Los supuestos del test de Student para muestras independientes son:*Independencia de las variables*Normalidad de ambas variables*Homogeneidad de varianzas
Lo ideal es no rechazar H0 para que se cumpla la hipótesis de
homogeneidad de varianzas (pero no a cualquier precio). Entonces, la P debería ser como mínimo mayor que 0,10 para no rechazar la hipótesis de homogeneidad de varianzas.
Luego de inactivar el outlier
4242
En el ejemplo sospechábamos que las mujeres con SOP pueden tener valores de FSH menores que las normales. Automáticamente pensamos en el test de Student para muestras independientes. Pero ¡OJO!Encontramos dos problemas graves:
1* Se vio (test de Shapiro-Wilks para normales y SOP) que, para el grupo de mujeres normales, la variable sigue una distribución razonablemente Normal o Gaussiana. Pero para el grupo SOP, no.
2* La P de la prueba de varianzas homogéneas era 0,0339, menor que 0,05, debido a la presencia de fuertes outliers. Luego de inactivar el outlier, la P resulta mayor que 0,10. Es decir que la heterogeneidad de varianzas se debía al outlier.
Entonces, si queremos comparar los grupos y verificar que en el grupo SOP los valores de FSH son menores que en las mujeres normales, ¿qué método aplicamos? Si usamos un test que compara medias, seguramente sobrevaluaremos los valores de FSH en las mujeres con SOP.
4343
Para estos casos, cuando ni aun con una transformación de los datos se
logra la distribución normal, se desarrollaron los:
MÉTODOS NO PARAMÉTRICOS
Ventajas:
* No exigen que las variables tengan distribución alguna. A lo sumo,
algunos piden distribuciones simétricas.
* Se pueden aplicar cuando hay pocos datos.
* Son robustos respecto a outliers.
Desventajas:
* Tienen menos potencia que los tests no paramétricos.
* No utilizan toda la información de la variable; sólo se basan en el
rango de los datos.
* Hay pocos tests no paramétricos desarrollados.
4444
Test de Wilcoxon-Mann Whitney:
Si bien es un test de menor potencia que los paramétricos, aquí detectó una diferencia que no detectó el test de Student porque no se cumplían las suposiciones para el test de Student. Esos datos outliers del grupo SOP desplazaron la media hacia valores mayores, que solaparon la diferencia.
Media (1) 6,69
Media (2) 5,35
4545
Análisis de la varianza (ANOVA)
Es el procedimiento estadístico que se utiliza cuando se desean comparar I medias de variables aleatorias que siguen distribución normal. Si I=2, el Anova es equivalente al test de Student. Las hipótesis que se contrastan son:
H0 : μ1 = μ2 = … = μI
H1 : no todas las μi son iguales
Causas o fuentes de variación:
Grupo o tratamiento diferente
(Variación controlada)
Diferencias individuales, errores de medición de la variable,
efecto del medio ambiente, etc.(Variación no controlada y/o no
controlable)
4646
Y.._
Y1.
_Y2.
_Y3.
_
Variación Entre grupos (CME) >> Variación Dentro de grupos (CMD)
Veamos las fuentes de variación en las dos situaciones:
Y1.
_Y2.
_Y3.
_
Y.._
II) H0 es verdadera:
Variación Entre grupos (CME) Variación Dentro de grupos (CMD)
I) H0 es falsa (el caso más extremo: todas las medias diferentes):
4747
La particularidad del ANOVA es que utiliza un cociente de
varianzas (Varianza entre grupos dividido la varianza dentro de
los grupos)
para contrastar igualdad de medias. Si la variación entre las I
medias de grupos o tratamientos es mayor que la variación entre
observaciones dentro de los tratamientos (donde la única causa
de variación es un error aleatorio no controlable pues pertenecen
a un mismo grupo), entonces se rechazará la hipótesis nula de
igualdad de las medias poblacionales.
)(;)1( InIDENTRO
ENTRE FCM
CMpruebadeoEstadístic ~
4848
¿Por qué no usar un test de Student para cada par de comparaciones cuando queremos comparar I medias?
Recordemos el nivel de significación de un test, que es el error que se comete al rechazar la hipótesis nula de igualdad.Si aplicamos un test de Student por cada par de medias, y en cada rechazo cometemos error de tipo I, al rechazar varias hipótesis el error puede llegar a ser muy grande.
Pero, ¿y si se rechaza la hipótesis nula?, ¿cómo sé cuáles son las medias que difieren?
Para eso se desarrollaron los tests a posteriori del ANOVA, que sí comparan las medias de a pares, pero que usan un estimador de la varianza combinado entre todos los datos y no sólo de un par de tratamientos, como ocurriría con un test de Student para cada par de medias.
4949
Variables categóricas: Tablas de contingencia
H0: Las variables que definen filas y columnas de la tabla son independientesH1: Las variables que definen las filas y columnas de la tabla no son independientes
n
columnadeTotal*filadeTotal=celdacadadeesperadaFrecuencia
El valor tan pequeño de la P permite afirmar que la prevalencia de hipertensión dentro de las fumadoras (33,0%) es significativamente diferente de la prevalencia dentro de las no fumadoras (22,8%)
5050
La P del test de Chi-cuadrado de Pearson, o del test de Máxima
Verosimilitud (MV), o del test exacto de Fisher (diapositiva anterior) es
muy pequeña, mucho menor que 0,05. Por lo tanto, podemos concluir,
con muy baja probabilidad de error, que el hecho de fumar y la
hipertensión no son independientes, o, en otras palabras, que la
proporción de hipertensas es significativamente diferente (mayor) en
mujeres fumadoras (33,0%) que en no fumadoras (22,8%).
El test de Chi cuadrado tiene dos supuestos:
* No debe haber ninguna frecuencia esperada (esperada bajo la
suposición de independencia) menor que 1.
* No debe haber más del 20% de celdas con frecuencias esperadas (ver
Tabla de frecuencias esperadas) menores que 5.
Si alguno de estos requerimientos no se cumple, hay que usar el test
exacto de Irwin-Fisher.
5151
También puede interesar establecer cuánta más oportunidad de ser hipertensa tiene una mujer que fuma con respecto a una que no fuma.A este índice se lo llama ODDS RATIO (OR), o cociente de odds.
El ODDS es el cociente entre la probabilidad de tener el evento dividida por la probabilidad de no tenerlo (para un mismo grupo, por ejemplo, las fumadoras):
El ODDS para las no fumadoras:
327161
488327488161
)()(
hipertensasernoP
hipertensaserPOddsfum
642190
832642832190
)()(
hipertensasernoP
hipertensaserPOdds fumno
5252
El ODDS RATIO (OR) para las fumadoras con respecto a las no fumadoras:
66,1190*327642*161
642190327161
)()(
fumadorasnoODDS
fumadorasODDSOR
Interpretación: En esta muestra, una mujer que es fumadora tiene 1,66 veces (el 66% más) la oportunidad de ser hipertensa que una mujer que no es fumadora.
Como este OR es un estimador del valor verdadero en la población, se puede encontrar el intervalo de confianza del 95% cuyos límites contienen, con esa confianza, al verdadero valor del parámetro.
En este ejemplo:
C (1,30 < OR poblacional < 2,13) = 0,95
El intervalo de confianza no incluye al valor 1; por lo tanto, se puede afirmar, con un nivel de significación del 5%, que el OR poblacional es diferente de 1. ¿Por qué importa el 1? Porque si vale 1 los Odds para los dos grupos son iguales.
5353No fumadoras Fumadoras0,00
8,38
16,75
25,13
33,51
Po
rce
nta
je
Hipertensión en fumadoras
Hipertensión en fumadoras
0
5
10
15
20
25
30
35
No fumadoras Fumadoras
Po
rce
nta
je
Gráficos de barras para variables categóricas
InfoStat
Excel
5454
FUMADORAS
NO FUMADORAS
Hipertensas (33%)
Hipertensas (23%)
No hipertensas (67%)
No hipertensas (77%)
Gráficos de sectores o “torta” para variables categóricas
5555
Problemas de Correlación:
1 2 3 4 5 6 7 8 9
16
14
12
10
8
6
4
2
0
irmadsgrupo=0
irm
ab
a
Coeficiente de correlación de Pearson r = 0,8074; P<0,0001
Coeficiente de correlación por rangos de Spearman rs= 0,7911; P<0,0001
Hipótesis nula H0 : ρ = 0Hipótesis alternativa H1 : ρ 0
5656
0
0,2
0,4
0,6
0,8
1
1,2
1,4
1,6
1,8
0 5 10 15 200
0,2
0,4
0,6
0,8
1
1,2
1,4
1,6
1,8
0 5 10 15 20
0
5
10
15
20
25
30
35
0 5 10 15 20
0
5
10
15
20
25
30
35
0 5 10 15 20
r Pearson = 1r Pearson = 0,68
r Pearson =-1
r Pearson =-0,67
r Spearman = 1 r Spearman = 0,67
r Spearman =-1
r Spearman =- 0,65
5757
0
2
4
6
8
10
12
0 5 10 15 20 25 30 35
r Pearson = 0,62
0
2
4
6
8
10
12
0 10 20 30 40 50 60
r Pearson =- 0,62
0
2
4
6
8
10
12
0 5 10 15 20 25
r Pearson =-0,07
r Spearman = 0,62
r Spearman =-0,58
r Spearman =-0,04
0
10
20
30
40
50
60
0 2 4 6 8 10 12 14
r Pearson = 0,87
r Spearman = 1
5858
Problemas de Concordancia:
Se utilizan cuando se quiere saber si dos métodos concuerdan, si miden lo mismo, si son “intercambiables”
5959
Gráficos de Bland y Altman en mujeres normales
El 0 pertenece al intervalo construido con las diferencias: los dos métodos son concordantes.
El 1 pertenece al intervalo construido con los cocientes (ratios): los dos métodos son concordantes. 0 2 4 6 8 10 12 14
2,4
2,2
2,0
1,8
1,6
1,4
1,2
1,0
0,8
0,6
0,4
AVERAGE of irmaba and irmadsgrupo=0
RA
TIO
of
irm
ab
a a
nd
irm
ad
sMean
1,48
-1.96 SD
0,73
+1.96 SD
2,23
0 2 4 6 8 10 12 14
7
6
5
4
3
2
1
0
-1
-2
AVERAGE of irmaba and irmadsgrupo=0
irm
ab
a -
irm
ad
s
Mean
2,1
-1.96 SD
-1,5
+1.96 SD
5,8
6060
Gráficos de Bland y Altman en mujeres con SOP
El 0 pertenece al intervalo construido con las diferencias: los dos métodos son concordantes.
El 1 pertenece al intervalo construido con los cocientes (ratios): los dos métodos son concordantes. 0 5 10 15 20 25 30
3,5
3,0
2,5
2,0
1,5
1,0
0,5
0,0
AVERAGE of irmaba and irmadsgrupo=1
RA
TIO
of
irm
ab
a a
nd
irm
ad
s
Mean
1,53
-1.96 SD
0,47
+1.96 SD
2,59
0 5 10 15 20 25 30
20
15
10
5
0
-5
AVERAGE of irmaba and irmadsgrupo=1
irm
ab
a -
irm
ad
s
Mean
1,8
-1.96 SD
-3,1
+1.96 SD
6,7
6161
Prueba versus Grupo
Grupo
0
Normales
1
SOP
Prueba Normal a b a+b
Prueba Patológica c d c+d
a + c b + d n)%*
dbd
( 100+
Sensibilidad = Es la proporción de verdaderos positivos
)%*ca
a( 100
+Especificidad = Es la proporción de
verdaderos negativos
Sensibilidad y especificidad en Pruebas diagnósticas:
6262
irmaba
0 20 40 60 80 100
100
80
60
40
20
0
100-Specificity
Se
ns
itiv
ity
Curvas ROC (Receiver Operating Characteristics):
Punto de corte = 5,85Sensibilidad = 73,6%Especificidad = 64,3%
6363
Curvas ROC (Continuación):
El intervalo de confianza no contiene al 0,5
P < 0,05
Cuanto más se aparta de 0,5 el área, mejor capacidad de discriminación entre los dos grupos tiene la prueba diagnóstica.
6464
El punto de corte que rinde el mejor compromiso entre Sensibilidad (73,58%) y Especificidad (64,29%)
Curvas ROC (Continuación):
6565
Esquema de métodos estadísticos para comparación de grupos:Una muestra para contrastar un parámetro:
a) Variables numéricas:
Paramétricos:
• Test de Gauss para una media (H0: = 0)
(la muestra debe tener distribución normal y la varianza de la
población debe ser conocida, o un n muy grande para poder usar la
Normal)
• Test de Student para una media (H0: = 0)
(la variable debe tener distribución normal)
No paramétricos:
• Test del signo (es un test para la mediana) (H0: = 0)
(cuando la variable no sigue una distribución normal)
• Test de rangos signados de Wilcoxon (H0: = 0)
(se necesita que la variable tenga distribución simétrica)Nota: cuantos menos supuestos o requerimientos tiene un test, menor es su potencia
6666
Una muestra para contrastar un parámetro:
b) Variables categóricas:
• Test de Gauss para una proporción (H0: = 0)
El número esperado de éxitos n*0 y de fracasos n*(1-0) debe ser
mayor que 5 (n suficientemente grande).
• Test exacto para una proporción (Test Binomial) (H0: = 0)
(No tiene restricciones)
Esquema de métodos estadísticos para comparación de grupos (cont):
6767
Dos muestras INDEPENDIENTES para comparar dos parámetros:
Variables numéricas:
Paramétricos:
• Test de Student para diferencia de medias (H0: 1= 2)
(las variables deben ser independientes, tener ambas distribución
normal y tener varianzas homogéneas. Es el de mayor
potencia cuando se cumplen los supuestos)
• Test de Fisher de homogeneidad de varianzas (H0: 12 = 2
2)
(permite corroborar razonablemente la suposición de homogeneidad
de varianzas, necesaria para el test de Student anterior; en este
caso, conviene que la P sea mayor que 0,10)
No paramétricos:
• Test de Wilcoxon-Mann Whitney (H0: 1 = 2)
(Ambas muestras provienen de poblaciones con la misma
distribución (box-plots de ambas muestras revelan distribuciones
muy parecidas))
• Prueba de la mediana (H0: 1 = 2)
(Cuando los box-plots de ambas muestras revelan distribuciones
muy diferentes. Tiene menor potencia que el test de Mann-Whitney)
Esquema de métodos estadísticos para comparación de grupos (cont):
6868
Dos variables categóricas:
• Test de Gauss para diferencia de proporciones (H0: 1 = 2)
(Las muestras deben ser aleatorias, independientes, y la cantidad
esperada de éxitos y fracasos deben ser mayores que 5)
Métodos para variables categóricas arregladas en tablas de
contingencia
(H0: las variables que definen filas y columnas de la tabla son
independientes)
•Test de Chi-cuadrado
(No debe haber ninguna casilla con frecuencia esperada menor que 1
ni más del 20% de las casillas con frecuencia esperada menor que 5)
•Test G de máxima verosimilitud:
Es equivalente al test de Chi-cuadrado. Permite particionar cuando
alguna variable tiene más de dos categorías.
•Test exacto de Fisher o de Irwin-Fisher:
Calcula la P exacta de error al afirmar que hay dependencia entre las
variables que definen filas y columnas. No tiene restricciones para su
uso.
6969
Esquema de métodos estadísticos para comparación de grupos (cont):Dos muestras DEPENDIENTES o APAREADAS para comparar dos
parámetros:
Variables numéricas:
Paramétricos:
• Test de Student para muestras apareadas (H0: 1= 2; o bien 1- 2 =
0; o bien d = 0)
(las variables deben ser dependientes (en el mismo individuo o en
individuos apareados), su diferencia debe tener distribución normal.
Es el de mayor potencia si se cumplen los supuestos)
No paramétricos:
• Prueba de Wilcoxon para muestras apareadas (H0: 1 = 2; o bien 1-
2= 0; o bien d = 0)
(La variable diferencia no sigue una distribución normal pero el box-
plot revela una distribución simétrica)
• Test del signo (H0: 1 = 2; o bien 1 - 2= 0; o bien d = 0)
(No se requiere ni normalidad ni simetría; tiene menor potencia que
la prueba de Wilcoxon)
7070
Esquema de métodos estadísticos para comparación de grupos (cont):
Más de dos muestras INDEPENDIENTES para comparar I medias o
tratamientos:
Variables numéricas:
Paramétricos:
• Análisis de la varianza de un criterio o factor (ANOVA) (H0: 1 = 2 = …
= I)
(los grupos deben ser independientes, todas las variables deben ser
normales y las varianzas deben ser homogéneas; I mayor o igual que
2)
• Test del F máximo para homogeneidad de varianzas (H0: σ12= σ2
2= …
= σI2)
• Test de Levene para homogeneidad de varianzas (H0: σ12= σ2
2= … =
σI2)
• Test de Bartlett para homogeneidad de varianzas (H0: σ12= σ2
2= … =
σI2)
No paramétricos:
• Test de Kruskal-Wallis (H0: 1 = 2 = … = I)
(cuando no se cumplen los supuestos del ANOVA, ni aun luego de
alguna transformación)
7171
Esquema de métodos estadísticos para comparación de grupos (cont):
Más de dos muestras DEPENDIENTES para comparar I medias o
tratamientos:
Variables numéricas:
Paramétricos:
• Análisis de la varianza de un criterio o factor con medidas repetidas
(ANOVA) (H0: 1 = 2 = … = I)
(las mediciones que se efectúan en el mismo individuo no son
independientes, pero hay independencia entre los individuos; las
variabes deben ser normales; I mayor o igual que 2; si I=2 es
equivalente al test de Student para muestras apareadas)
No paramétricos:
• Test de Friedman (H0: 1 = 2 = … = I)
(cuando no se cumplen los supuestos del ANOVA)
7272
SOFTWARE:
Software gratis (free):
http://freestatistics.altervista.org/stat.php (Instat, Epi Info, entre muchos otros)
www.medcalc.be(MedCalc, sólo 25 sesiones gratis)
Software con excelente relación costo-beneficio (se puede usar en versión “demo”):
www.infostat.com.ar(InfoStat, desarrollado por la Universidad Nacional de Córdoba, Facultad de Agronomía)
7373
BIBLIOGRAFÍA:
LOS QUE TIENEN CASI DE TODO:
•Garrido, D., Sarchi, M. I., Elementos de Bioestadística. Facultad de Farmacia y Bioquímica. U.B.A. 1988.
•Dawson, Beth, Trapp, Robert, Bioestadística médica. Editorial El Manual Moderno. México. Cuarta Edición. 2005.
•Sokal, R. R., Rohlf, F. J., Biometría. Principios y métodos estadísticos en la investigación biológica. H. Blume Ediciones. 1979.
•Pagano, M., Gauvreau,K. Fundamentos de Bioestadística. Thomson Learning. México. 2001.
•Box, G., Hunter, W., Hunter, J. Estadística para investigadores. Introducción al diseño de experimentos, análisis de datos y construcción de modelos. Editorial Reverté, S.A. Barcelona. 1993.
•Macchi, Ricardo. Introducción a la Estadística en Ciencias de la Salud. Editoral Médica Panamericana. 1ra. ed., 2da. reimpres. Buenos Aires. 2005.
7474
BIBLIOGRAFÍA (continuación):
•Kuehl, Robert. Diseño de experimentos. Thomson Learning. México. 2003
•García, R. O., Inferencia estadística y diseño de experimentos. Eudeba. 2004.
SOBRE TEMAS ESPECÍFICOS:
•Agresti, Alan. Categorical Data Analysis. John Wiley & Sons, Inc. New York. 1990.
•Lee, Elisa. Statistical Methods for Survival Data Analysis. John Wiley & Sons, Inc. New York. 1992.
•Winer, B. J., Brown, D. R., Michels, K. M., Statistical principles in experimental design. Editorial McGraw-Hill Book Company. 1991. (La Biblia del ANOVA)
•César Pérez López. Muestreo estadístico. Conceptos y problemas resueltos. Pearson Educación S.A. Prentice Hall. Madrid. 2005.
•Montgomery, D.; Peck, E.; Vining, G. Introducción al análisis de regresión lineal. Compañía Editorial Continental. México. 2005.
7575
¡Muchas gracias!