Post on 08-May-2020
transcript
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable aleatoria: definicionesbásicas
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable Aleatoria
• Hasta ahora hemos discutido eventos elementales y susprobabilidades asociadas [eventos discretos]
• Considere ahora la idea de asignarle un valor al resultadode un evento
Ejemplo: Considere una vez más el evento de tirar dos dados.Entonces la suma de los resultados de ambos dados, elcual es un valor k tal que k Є [2, 12] puede definirse comouna variable aleatoria S. Utilizaremos la siguientenotación:
Pr{S=k}
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable Aleatoria
• Se entiende que S es una variable aleatoria que puede
tomar valores entre 2 y 12 con diversas probabilidades.
• Más técnicamente S es visto como una función sobre los
subconjuntos del espacio de muestreo y Pr{S=k}
representa la suma de las probabilidades de todos los
resultados a los que les corresponde la suma k.
Nota: No se preocupe si la idea es un poco difusa al principio,
quedara más clara con los ejemplos.
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable Aleatoria
• Normalmente, estaremos interesados en conocer la
distribución que la variable aleatoria S, la cual toma
valores enteros k = 0, 1, …, n con probabilidades
P(k) = Pr(K = k)
• Generalmente, necesitaremos definir un conjunto de
atributos que sumaricen las descripciones de la
distribución de la variable aleatoria.
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Valor esperado
• El primer valor que sumariza el comportamiento de una
variable aleatoria es el valor esperado, definido como:
• Intuitivamente, el promedio mide la posición del “centro
de la distribución”
• También se conoce al promedio como el valor esperado
de la variable aleatoria, o de la distribución de ésta.
( )!=
=++++=n
k
nnppppkkp0
)()2(2)1(1)0(0 µL
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Valor esperado
Ejemplo: Promedio de tirar un dado.
• Tirar un dado puede resultar en obtener cualquiera de los
6 valores 1, 2, 3, 4, 5, 6 cada uno con probabilidad 1/6.
• Entonces el promedio está dado por:
• Note que el promedio no es ninguno de los resultados
legales de un dado
[ ] [ ] 5.32/766
1654321
6
1=!=+++++=µ
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Valor esperado
[ ]2
101
2
1=+=µ
Ejemplo: Promedio de un volado.
• Si se le asigna los valores, águila = 0, sol = 1, entonces el
valor esperado de tirar un dado (con probabilidad p=1/2)
es:
Sin embargo si asignamos águila = -1, sol = 1, el valor
esperado sería[ ] 0112
1=+!=µ
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Valor esperado: definición formal
Dada una variable X, cuyos resultados tienen probabilidades
p(i) para los valores xi (i=1, 2,…, n), entonces el valor
esperado de la variable aleatorio X se define como:
El valor esperado toma cada posible valor xi y lo pesa por su
probabilidad p(i).
El valor esperado es un operador lineal
{ } ( )!=
=n
i
i ipxXE1
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Valor esperado: definición formal
{ } ( )!=
=n
i
i ipxXE1
Muchas veces conviene ordenar los pares (xi, f(xi)) en forma
tabular,
f(xn)…f(x3)f(x2)f(x1)f(x)
xn….x3x2x1x
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Promedio: producto de dos variables
• Valor esperado del producto de dos variables aleatorias
independientes X, Y.
{ } ( )
( ) ( ) { } { }!!
!!!
=
====
j
Yj
i
Xi
i j
YXji
k
YEXEjpyipx
jpipyxkXYkpXYE )()(
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Promedio: suma de dos variables
{ } ( ) ( ) ( ) ( )
( ) ( ) { } { }!!
!!!!!
+=+
=+=+=+
j
Yj
i
Xi
ij
j
ji
iii
YEXEjpyipx
jipyjipxjipyxYXE ,,,
• Valor esperado de la suma de dos variables aleatorias
independientes X, Y.
• Lo cual implica que:
• En general, el valor esperado es un operador lineal, esto
es,
{ } { } { }YEXEYXE +=+
{ } { } { }YbEXaEbYaXE +=+
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Promedio
{ } { }!! =iiiiXEcXcE
• Suma de variables aleatorias Xi.
• Producto de variables aleatorias independientes
[ ] { }[ ]!! ="#$
%&'
i
i
i
iXEXE
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Varianza
{ } { } ( ) ( ) 22
!µ ="== # ipxXVXVarianzai
i
• Si el promedio nos indica dónde está el centro de nuestra
distribución, la varianza explica cuál es la dispersión de
una determinada distribución probabilística.
• Es fácil demostrar que:
{} { } { }XVccXVcV2
;0 ==
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Varianza de un dado
• Recuerde que el valor esperado de un dado es E{X}=7/2.
Para los 6 valores del dado, las diferencias de Xi con µ son:
-5/2, -3/2, -1/2, ½, 3/2, 5/2
• Debemos elevar al cuadrado las diferencias, multiplicarlas
por las probabilidades pi y sumarlas:
V{dado} = (1/6)[25+9+1+1+9+25]/4=70/24=35/12
• Note que un método alternativo es:
{ } 12/354/496/912
7
6
126
1
2 =!="#
$%&
'!= (
=i
idadoV
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Ejemplo de valor esperado y varianza
Ejemplo: Sean X, Y dos variables aleatorias del espacio de
muestreo formado por los posibles resultados de tirar dos
dados, de tal manera que siendo a, b tales resultados
entonces: X(a, b) = max(a, b) y Y(a, b) = a + b.
Note que si f es la distribución de probabilidad de X, entonces,
f(1) = 1/36 (La unica posibilidad que el máximo sea 1 es que
los dados hayan caído en (1,1). Similarmente, los tres
resultados (1,2), (2,1), (2,2) hacen que f(2) = 3/36.
Introducción a la Probabilidad Francisco Rodríguez Henríquez
9/365
11/367/365/363/361/36f(x)64321x
En general, se tiene que
( ) 47.4)( ==!i
xxfXE
( ) ( )! ==i
xfxXE 97.2122
( ) ( ) 99.1222 =!==XX
XExVar µ"
4.1=X
!
Ejemplo de valor esperado y varianza
Introducción a la Probabilidad Francisco Rodríguez Henríquez
La distribución g de la variable aleatoria Y sería como sigue:
1/362/363/364/365/366/365/364/363/362/361/36g(y)
12111098765432y
( ) 7)( ==!i
yygYE
( ) ( )! ==i
iygyYE 83.5422
( ) ( ) 83.5222 =!== YY YEyVar µ"
4.2=Y
!
Ejemplo de valor esperado y varianza
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable aleatoria en el dominiocontinuo
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable Aleatoria continua
( ) ( ) !<<!"#= xxXPxFX
,
Definición: La función de distribución acumulativa (cdf) de Xse define como:
Con las siguientes propiedades:
1.
2.
3.
4.
5.
( ) 10 !! xFX
( ) ( )2121
if xxxFxFXX
<!
( ) ( ) 1lim =!=!"
XXx
FxF
( ) ( ) 0lim =!"="!#
XXx
FxF
( ) ( ) ( ) !!
+==="<
++
"+
aaFaFxFXXX
ax 00
lima lim
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable Aleatoria continua
( ) ( )aFaXPX
!=> 1
equivalentemente, podemos determinar la probabilidad de
ciertos eventos en función de la cdf.
1.
2.
3.
( ) ( ) ( )aFbFbXaPXX
!="<
( ) ( ) !!
"==<#<
"bP
00
-
Xlimb bF bX
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable Aleatoria
Definición: Sea X una variable aleatoria con cdf FX(x). SiFX(x) es continua y si tiene existe su derivada dFX(x)/dxcomo una función continua para toda x, excepto quizáspor un número finito de puntos, entonces se dice que X esuna variable aleatoria continua.
De esta manera, si X es una variable aleatoria continua,entonces,
P(X = x) = 0
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable Aleatoria: función de densidadde probabilidad
( )( )dx
xdFxf X
X =Definición: Sea
La función fX(x) es conocida como la función de densidad deprobabilidad de la variable aleatoria continua X.
Con las siguientes propiedades:
1.
2.
3. fX(x) es una función continua bien comportada
4.
5.
( ) 0!xfX
( )!"
"#=1dxxfX
( ) ( )!="<b
aX dxxfbXaP
( ) ( ) ( ) !! dfxXPxFx
XX " #$=%=
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Variable Aleatoria: Promedio y variancia
( )( )
( )!"
!#
$==
%
&'
'(continua:
discreta:
Xdxxxf
Xxpx
XE
X
k
KXk
Xµ
Definición: El valor esperado (promedio) de una variable aleatoriaestá dado como:
Definición: La varianza de una variable aleatoria se define como:
( ) ( )
( ) ( )!"
!#
$
%
%=
&
'(
(%continua:
discreta:
2
2
2
Xdxxfx
Xxpx
XX
k
KXXk
X
µ
µ
)
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Varianza
{ } { } { } { } { }XEXEXEXEXV2222
2 !=+!= µµ
• Note también que:
• Es fácil probar que en el caso de la suma de variables
aleatorias independientes Xi, la varianza es lineal:
{ } { }!! =iiXVXV
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Uniforme
( )!"
!#$
<<%=
manera otra de0
1bxa
abxfX
Una variable aleatoria X es llamada variable aleatoria uniforme sobreel rango (a, b), si su pdf está dado por:
( )2
baXE
X
+==µ
( )12
2
2 ab
X
!="
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Uniforme
( )!"
!#$
<<%=
manera otra de0
1bxa
abxfX
Una variable aleatoria X es llamada variable aleatoria uniforme sobreel rango (a, b), si su pdf está dado por:
( )2
baXE
X
+==µ
( )12
2
2 ab
X
!="
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Uniforme
( )!"
!#$
<<%=
manera otra de0
1bxa
abxfX
Una variable aleatoria X es llamada variable aleatoria uniforme sobreel rango (a, b), si su pdf está dado por:
( )2
baXE
X
+==µ
( )12
2
2 ab
X
!="
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Bernoulli
( ) ( ) 0,1k ,)1( 1 =!=== !kk
X ppkXPkp
Una variable aleatoria X es llamada variable aleatoria Bernoulli conparámetro p si,
La distribución Bernoulli modela experimentos en que el resultadosólo puede ser éxito o fracaso. El ejemplo tradicional es tirarvolados.
( ) pXEX ==µ
( )ppX
!= 12"
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Binomial
Una variable aleatoria X es llamada variable aleatoria binomialcon parámetros (n, p) si,
La distribución binomial modela el número total de exitos trasvarios intentos hechos sobre una población infinita bajo lossiguientes supuestos:
• Únicamente dos resultados puede ocurrir en cada intento.• La probabilidad de éxito en cada intento es constante e
independiente de otros intentos.James Bernoulli derivó la distribución binomial en 1713 (Ars
Conjectandi).
( ) ( ) ( ) nkppk
nkXPkp
knk
X ,,1,0 1 K=!""#
$%%&
'===
!
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Binomial
( ) npXEX ==µ
( )pnpX
!= 12"
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución binomial Bernoulli
knkknk qpk
nqpknCpnkb !!
""#
$%%&
'== ),(),;(
N = 10;P= 2/3.
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución binomial Bernoulli
knkknk qpk
nqpknCpnkb !!
""#
$%%&
'== ),(),;(
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Comportamiento asintótico de laley binomial
Suponga que en la función binomial b(k;n, p), n >>1, p << 1, perode tal manera que np permanece constante, digamos, np = a.Dado que q = 1-p, se tiene que:
Donde si n es suficientemente grande y si k estáfijo. De aquí que en el límite cuando se tiene,!
n
k
"
# $ %
& ' p
k1( p( )
n(k)1
k!ak1(
a
n
"
# $
%
& '
n(k
!
n n "1( )L n " k +1( ) # nk
!
n"#, p" 0,k << n
!
b k;n, p( ) "1
k!ak1#
a
n
$
% &
'
( )
n#k
*ak
k!e#a
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Poisson
La distribución de Poisson es una distribución de probabilidaddiscreta. Expresa la probabilidad que un número deeventos ocurra en un tiempo fijo suponiendo que:
a. Los eventos ocurren a una razón [velocidad]conocida.
b. La ocurrencia de eventos es independiente decuándo ocurrió el último evento.
Poissonfrancés = pescadoPoisoninglés = Veneno
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Poisson λ = 1,3, 5, 10
!
P[x = k] ="ke#"
k!
( ) !µ == XEX
!" =2
X
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Poisson λ = 1,3, 5, 10
!
P[x = k] ="ke#"
k!
( ) !µ == XEX
!" =2
X
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Exponencial
Una variable aleatoria X es llamada variable aleatoria exponencialcon parámetro λ>0 si,
• La distribución exponencial es especial porque modela eventosque ocurren aleatoriamente en el tiempo.
• La principal aplicación es en el estudio de tiempos de vida útilde componentes
• Quizás la propiedad más interesante de la distribuciónexponencial es su característica de “amnesia”. Por ejemplo, siun componente tiene un tiempo de vida útil distribuidoexponencialmente, entonces un item que ha funcionado porhoras es tan bueno como un item nuevo
( )!"#
<
>=
$
00
0
x
xexf
x
X
%%
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Exponencial
Una variable aleatoria X es llamada variable aleatoria exponencialcon parámetro λ>0 si,
( )!
µ1
== XEX
2
2 1
!" =
X
( )!"#
<
>=
$
00
0
x
xexf
x
X
%%
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Exponencial
( )!"#
<
>=
$
00
0
x
xexf
x
X
%%
Una variable aleatoria X es llamada variable aleatoria exponencialcon parámetro λ>0 si,
( )!
µ1
== XEX
2
2 1
!" =
X
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Exponencial
( )!"#
<
>=
$
00
0
x
xexf
x
X
%%
Una variable aleatoria X es llamada variable aleatoria exponencialcon parámetro λ>0 si,
( )!
µ1
== XEX
2
2 1
!" =
X
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Normal o Gaussiana
Una variable aleatoria X es llamada variable aleatoria normal(guassiana) si su pdf está dado por,
• La distribución gaussiana es la reina de las distribuciones. Eneste universo, la naturaleza se comporta gaussianamente.
• El teorema del límite central garantiza que cualquier otradistribución se comporta como una gaussiana cuando se hacenun número suficiente de experimentos: “la suma de muestrasindependientes para cualquier distribución con valor esperadoy varianzas finitos converge a la distribución normal conformeel tamaño de muestras tiende a infinito”.
• El primer uso de la distribución normal fue la de hacer unaaproximación continua a la distribución binomial.
( ) ( ) ( )222/
2
1 !µ
"!
##= x
X exf
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Normal o Gaussiana
( ) ( ) ( )222/
2
1 !µ
"!
##= x
X exf
Una variable aleatoria X es llamada variable aleatoria normal(guassiana) si su pdf está dado por,
( ) µµ == XEX
22 !! =X
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Normal o Gaussiana
( ) ( ) ( )222/
2
1 !µ
"!
##= x
X exf
Una variable aleatoria X es llamada variable aleatoria normal(guassiana) si su pdf está dado por,
( ) µµ == XEX
22 !! =X
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Distribución Normal o Gaussiana
• Se usa la notación N(µ; σ2) para denotar que la variable aleatoriaX es normal con promedio µ y varianza σ2.
• A una variable aleatoria normal Z con promedio cero y varianza1 se le llama variable aleatoria normal estándar:
• Como se ha mencionado, la distribución normal es la másutilizada en el estudio de fenómenos aleatorios, pues ocurre conharta frecuencia en una amplísima variedad de fenómenos de lanaturaleza
( ) ( ) )1;0(2
1 2/2
Nexf x
X != "
#
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Ruido Gaussiano
( ) ( ) ( )222/
2
1 !µ
"!
##= x
X exf
( ) µµ == XEX
22 !! =X
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Ley débil de números grandes
• La ley débil de números grandes es uno de los resultadosmás importantes de la probabilidad, además de ser elfundamento teórico de la estadística.
• Contesta la pregunta: “¿Cuál es el valor esperado delpromedio de n muestras independientes de la mismavariable X?”
• Se conoce como la ley débil debido a que existe una versiónfuerte, conforme el número n de muestras tiende a infinito.
• Antes de revisar este importante resultado es necesarioestudiar la desigualdad de Chebyshev.
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Desigualdad de Chebyshev
{ } ( )!=i
i ipxXE22
• Dada una variable aleatoria X con promedio cero cuyosvalores, positivos o negativos, son xi con probabilidadesp(i), considere la suma:
• Ahora de esa suma, excluya aquellos valores que están auna distancia ε del promedio (origen).
{ } ( ) ( ) { }!!!!!
"="" ##""
i
xx
i xPipipxXE
ii
2222
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Desigualdad de Chebyshev
{ } [ ] 22 )/(!"!" XExPi
#$
• Por lo que,
• Razonando de la misma manera se puede demostrar que:
• Tomando en cuenta que el promedio es cero se llega alresultado conocido como la desigualdad de Chebyshev,
{ } [ ] 22/!! XExP
i"#
{ }2
1
!"! #$
ixP
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Ley débil de números grandes
• Regresando a la pregunta inicial: “¿Cuál es el valoresperado del promedio de n muestras independientes de lamisma variable X?”, considere el experimento el el cual sehan tomado n muestras independientes de una variablealeatoria X, obteniendo valores xi.
• Suponga que las n muestras corresponden a n variablesaleatorias Xi, (i=1,2,…,n). Definimos la función promedioS(n)/n tal que, S(n) = [X1 +X2 +…+Xn]/n.
Pregunta: ¿Cuál es el valor esperado y variancia del promedio?
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Ley débil de números grandes
( ){ } { } { }[ ] µµµµµ =++++=++= nnXEXEnnSEn
/][// 1 LL
Pregunta: ¿Cuál es el valor esperado y variancia del promediode n muestras?
Es decir que el valor esperado del promedio de n muestras esexactamente el valor esperado de la variable aleatoriaoriginal X.
Para hallar la varianza del promedio de n muestras conpromedio cero, se tiene,
( ){ } { } { }[ ] nnnnXVXVnnSVn
////2222
1!! ==++= L
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Ley débil de números grandes
{ } [ ] 2222//)/)((/)( !"!!µ nnnSEnnSP ##$%
Utilizando el resultado anterior y la desigualdad de Chebyshevse tiene que:
Este es el resultado buscado. La probabilidad que el promediode n independientes muestras de una variable aleatoria Xdifiera de su valor µ esperado por más que una constantearbitraria prefijada ε es controlada por la función de laderecha.
Equivalentemente escribimos, { } 2/11/ kknSP !"<! #µ
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Ley débil de números grandes
Tres mitos de la ley débil de números grandes:
1. Esta ley no dice que una mala (o buena) racha de valores quesignificativamente se desvían del valor esperado serácompensada con futuros experimentos: esta ley NO tienememoria, asume independencia en las muestras.
2. La ley no dice que el valor esperado estará cerca del promediopara un número suficiente de muestras. La ley dice queprobablemente estaremos cerca.
3. La ley es una desigualdad no una aproximación. Puede ocurrirque la estimación sea de pobre calidad (considere el caso k = 1en la última ecuación).
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Teorema del límite Central
n
X
n
nXXZ
nn
n
/
1
!
µ
!
µ "=
"++=
L
Acaso el teorema del límite central sea el resultado más famoso, elmás celebrado de la teoría de la probabilidad. En su formamás simple, puede ser formulado como sigue:
“Sea X1,…,Xn una secuencia de variables aleatoriasindependientes, idénticamente distribuidas, cada una conpromedio µ y varianza σ2. Defina entonces
Donde,
Entonces
”
( )n
n
i
inXX
nX
nX ++== !
=
L1
1
11
( )1;0Nlímn
=!"
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Métodos de Montecarlo
Experimento: Sean X1, X2,…,Xn una muestra de variable aleatoriaBernoulli X con promedio µ y varianza σ2. ¿Cuántasmuestras de X deben ser tomadas si se quiere que laprobabilidad que el valor esperado del promedio de lasmuestras no se desvíe de su valor teórico µ por más de σ/10?
En una variable aleatoria Bernoulli, se tiene que: µ = p;
σ2 =(0- µ)2(1-p)+(1- µ)2p=p2(1-p)+(1-p)2p=p-p2=p(1-p). Sihacemos,
µ = p=1/2; implica σ2 =1/4.
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Métodos de Montecarlo
{ } 22 //)( !"!µ nnnSP #$%
Utilizando la ley débil de números grandes se tiene:
Sustituyendo los valores pedidos se llega a:
{ }( ) nn
nnSP100
10/10/2/1/)(
2
2
=!"#$
$$
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Métodos de Montecarlo
Experimento: Utilizandoun generador denúmeros aleatorios,se asigna a losvalores por encimade ½ el valor de 1 ya los otros el valorde 0.
0.050.0520000.0710.0514000.0830.051200
0.10.0510000.1250.058000.250.050.071734000.50.050.0310620010.05-0.0545100
100/nσ/10desvexp 1n
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Problema del Chevalier de Mere
Problema: Se dice que el Chevalier de Mere retó porcorrespondencia a sus buenos amigos y mejores matemáticos,Pierre de Fermat y Blas Pascal a mediados del ancestral sigloXVII. El reto consistía en calcular cuál probabilidad de éxitoera más alta entre los siguientes dos experimentos:
1. La probabilidad de obtener al menos un 6 tras tirar 4veces un solo dado o;
2. La probabilidad de obtener un doble seis tras tirar 24veces dos dados.
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Problema del Chevalier de Mere
La probabilidad de no obtener un seis en 4 intentos es (1-1/6)4, porlo que la probabilidad de obtener al menos un seis es, 1- (1-1/6)4 =0.517.
La probabilidad de obtener al menos un doble seis en 24 intentos es,
1-(1-1/36)24 = 1-(35/36)24 =0.49140 [¿Cómo se compara esteresultado con la distribución binomial?]
Se sabe que el chevalier de mere conocía la respuesta correcta.Suponiendo que no sabía nada de probabilidad, ¿cuántos dadostuvieron que ver rodar los cansados ojos del chevalier de merepara penosamente obtener ese resultado de manera empírica?
Introducción a la Probabilidad Francisco Rodríguez Henríquez
Problema del Chevalier de Mere
{ }( ) nn
ExpExpP100
10/10/]21[
2
2
=!"##$
$$µ
Considere la diferencia del promedio de ambos experimentos, estoes, Δ=0.51775-0.49140=0.02635. Suponga que permitimos unatolerancia de la mitad de ese valor, esto es, ε=0.0132.
Por lo que se tiene que:
Lo cual implica que se necesitan
[¡Note que un experimento consiste en tirar 4 veces un dado y 24veces dos dados!]
osexperiment 7576100
!="
n