Esperanza Mate Matic A

Post on 31-Jul-2015

49 views 0 download

Tags:

transcript

Esperanza Matemática

UCR – ECCI

CI-1352 Probabilidad y Estadística

Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Media de una Variable Aleatoria

Sea X una variable aleatoria con distribución de probabilidadf(x). La media o valor esperado de X es Si X es discreta

µ = µ X = E(X ) =∑ xfx

(x)

Si X es continua+∞

µ = µ X = E(X ) =∫−∞ xf (x)dx

UCR-ECCI CI-1352 Probabilidad y Estadística

Esperanza Matemática 2

Media de una Variable Aleatoria (cont.)

Teorema. Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor esperado de la variable aleatoria g(X) es Si X es discreta

µ g ( X ) =

Si X es continua

E[g (X )] =

∑ g (x) f

x

+∞

(x)

µ g ( X ) = E[g (X )] =

∫−∞g (x) f

(x)dx

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 3

Media de una Variable Aleatoria (cont.)

Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria g(X,Y) es Si X y Y son discretas

µ g ( X ,Y

)

= E[g (X ,Y )] =

∑ ∑ g

(x,y x

y ) f

(x, y )

Si X y Y son continuas+∞ +∞

µ g ( X ,Y

)

= E[g (X ,Y )] = ∫ ∫ g (x,y ) f

(x, y )dxdy

−∞ −∞

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 4

+

Media de una Variable Aleatoria (cont.)

Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria X es Si X y Y son discretas

µ X = E(X ) =∑ ∑ xf

y x

(x, y ) =

∑ xg (x)x

Si X y Y son continuas

µ X = E(X ) =+∞ +∞

∫ ∫ xf (x, y )dxdy

= ∫ xg (x)dx

−∞ −∞ −∞

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 5

+

Media de una Variable Aleatoria (cont.)

Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria Y es Si X y Y son discretas

µY = E(Y ) = ∑ ∑ yf

y x

(x, y ) =

∑y

yh(y )

Si X y Y son continuas

µY = E(Y ) =

+∞ +∞

∫ ∫ yf (x, y )dxdy

= ∫ yh(y )dy

−∞ −∞ −∞

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 6

X

X

+

Varianza y Covarianza

Sea X una variable aleatoria con distribución de probabilidadf(x) y la media μ. La varianza de X es Si X es discreta

σ 2 = σ 2 = Var(X ) =

E[(X − µ )2 ]=∑ (x − µ

)2

f (x)

x

Si X es continua

σ 2 = σ 2 = Var(X ) =

E[(X − µ )2 ]=∫ (x − µ )2f (x)dx

−∞

La raíz cuadrada positiva de la varianza, σ, se llamadesviación estándar de X.

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 7

Varianza y Covarianza (cont.)

La cantidad x – µ se llama desviación estándar de una observación respecto a su media.

Cuando estas desviaciones se elevan al cuadrado y después se promedian, σ2 será mucho menor para un conjunto de valores x que sean cercanos a µ, que para un conjunto de valores que varíe de forma considerable de µ.

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 8

abilidad y Estadística

X

X

Varianza y Covarianza (cont.)

Teorema. La varianza de una variable aleatoria X es

σ 2 = σ 2 = Var(X ) =

E (X2 )− µ 2

Prueba. Caso discreto (el caso continuo es igual, pero en vez de sumatorias son integrales).

σ 2 = σ 2= Var(X ) = ∑ (x − µ

)2

x

f (x)

σ 2 = ∑ (x2 − 2µx + µ 2 ) f (x)x

σ 2 = ∑ x2 f (x) − 2µ ∑ xf (x) + µ 2

∑f (x)

xµ = ∑ xf (x) y

x x x

∑ f (x) = 1x

σ 2

UCR-ECCI CI-1352 Probσ 2

= ∑ x2 f (x) − 2µ 2 +

µ 2

x

= E (X 2 )− µ 2

= ∑ x 2 f (x) − µ 2

x

Esperanza Matemática 9

g ( X

2

( ) g ( X g ( X

Varianza y Covarianza (cont.)

Teorema. Sea X una variable aleatoria con distribución de probabilidad f(x). La varianza de la variable aleatoria g(X) es Si X es discreta

σ 2

g ( X )= Var[g (X )] =

E[(g (X ) − µ )2 ]= ∑ (g (x) − µ g ( X

) )x

f (x)

Si X es continua

σ 2 = Var[g (X )] =

g X

E[(g (X ) − µ )2 ]= ∫+∞(g (x) − µ )2

f (x)dx

−∞

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 10

Varianza y Covarianza (cont.)

Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La covarianza de X y Y es Si X y Y son discretas

σ XY = cov(X ,Y ) =

E[(X − µ X)(Y − µY )] =∑ ∑ (x − µ

Xy x

)(y − µY ) f

(x, y )

Si X y Y son continuas+∞ +∞

σ XY = cov(X , Y ) =

E[(X − µ X)(Y − µY )] = ∫ ∫ (x − µ X)(y − µY ) f

(x, y )dxdy

−∞ −∞

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 11

Varianza y Covarianza (cont.)

La covarianza de dos variables aleatorias es una medida de la naturaleza de la asociación entre las dos.

La covarianza sólo describe la relación lineal entre dos variables aleatorias. Describe la naturaleza de la relación.

Si la covarianza es positiva significa que X y Y son linealmente ascendentes (valores grandes de X estarán relacionados con valores grandes de Y, y valores pequeños de X estarán relacionados con valores pequeños de Y).

Si la covarianza es negativa significa que X y Y son linealmente descendentes (valores grandes de X estarán relacionados con valores pequeños de Y, y viceversa).

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 12

Varianza y Covarianza (cont.)

Cuando X y Y son estadísticamente independientes la covarianza es cero. Lo opuesto, sin embargo, por lo general no es cierto. Dos variables pueden tener covarianza cero e incluso así no ser estadísticamente independientes.

Una covarianza entre X y Y es cero, quizá indica que X y Y no tiene una relación lineal, pero no que sean independientes.

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 13

CI-1352 Probabilidad y Estadística

Varianza y Covarianza (cont.)

Teorema. La covarianza de dos variables aleatorias X y Y con medias μX y μY, respectivamente, está dada por

σ XY = cov(X , Y ) =

E(XY ) − µ X µY

Prueba. Caso discreto (el caso continuo es igual, pero en vez de sumatorias son integrales).

σ XY

σ XY

σ XY

= cov(X , Y ) = ∑ ∑ (x − µ X )(y − µY ) f (x, y )x y

= ∑ ∑ (xy − µ X y − µY x + µ X µY ) f (x, y )x y

= ∑ ∑ xyf (x, y ) − µ X ∑ ∑ yf (x, y ) − µY ∑ ∑ xf (x, y ) + µ X µY ∑ ∑ f (x, y )x y x y x y x y

µ X = ∑ xf (x, y

),x

µY = ∑ yf (x, y ) yy

∑ ∑ f (x, y ) = 1x y

UCR- ECCI

σ XY

σ XY

=

E(X

Y )

− µ X µY

= E(XY ) − µ X

µY

− µ X µY+ µ X µY

Esperanza Matemática 14

Varianza y Covarianza (cont.)

Sean X y Y variables aleatorias con covarianza σXY ydesviación estándar σX y σY, respectivamente. El coeficiente decorrelación X y Y es

ρ =σ XY

XYσ X σ Y

El coeficiente de correlación satisface la desigualdad

-1 ≤ ρXY ≤ 1

El coeficiente de correlación describe la fuerza de la relación.

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 15

babilidad y Estadística

) +

+ +

Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias

Teorema. Si a y b son constantes, entonces

E(aX ± b) = aE(X) ± b

Corolario. Al hacer a = 0, se ve que E(b) = ±b

Corolario. Al hacer b = 0, se ve que E(aX) = aE(X)

Prueba. Caso continuo (el caso discreto es igual, pero en vez de integrales son sumatorias).

+∞E(aX ± b) =∫−∞

(ax ± b) f (x)dx

E(aX+∞

± b = a ∫ xf (x)dx ± b∫ f (x)dx

E(X ) =−∞

∫ xf (x)dx

−∞

y ∫ f (x)dx = 1UCR-ECCI CI-1352 Pro

E(aX−∞ −∞

± b) = aE(X ) ± bEsperanza Matemática 16

+

+∞

+

Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias

Teorema. El valor esperado de la suma o diferencia de dos o más funciones de una variable aleatoria X, es la suma o diferencia de los valores esperados de las funciones. Es decir,

E[g(X) ± h(X)] = E[g(X)] ± E[h(X)]

Prueba. Caso continuo (el caso discreto es igual, pero en vez de integrales son sumatorias).

E(g (x) ± h(x)) =

∫ (g (x) ± h(x)) f (x)dx

E(g (x) ± h(x)) =

−∞

∫ g (x) f (x)dx ±

∫h(x) f (x)dx

E(g (x) ± h(x)) =

−∞ −∞E(g (x)) ± E(h(x))

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 17

ECCI CI-1352 Probabilidad y Estadística nza Matemática

+ +

Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)

Teorema. El valor esperado de la suma o diferencia de dos o más funciones de las variables aleatorias X y Y, es la suma o diferencia de los valores esperados de las funciones. Es decir,

E[g(X,Y) ± h(X,Y)] = E[g(X,Y)] ± E[h(X,Y)]

Corolario. Al hacer g(X,Y) = g(X) y h(X,Y) = h(Y), se ve queE[g(X) ± h(Y)] = E[g(X)] ± E[h(Y)]

Corolario. Al hacer g(X,Y) = X y h(X,Y) = Y, se ve que

E(X ± Y) = E(X) ± E(Y)

E(g (x, y ) ± h(x, y )) = ∫∫

(g (x, y ) ± h(x, y )) f (x, y )dxdy

−∞ −∞

+∞ +∞ +∞ +∞E(g (x, y ) ± h(x, y )) = ∫

∫g (x, y ) f (x, y )dxdy ± ∫∫ h(x, y ) f (x, y )dxdy

UCR- Espera

−∞ −∞

E(g (x, y ) ± h(x, y )) = E(g (x, y )) ± E(h(x,

y ))

−∞ −∞

+ +

Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)

Teorema. Sean X y Y dos variables aleatorias independientes.Entonces E(XY) = E(X)E(Y)

Prueba. Caso continuo (el caso discreto es igual, pero en vez de integrales son sumatorias).

E(XY ) =+∞ +∞

∫ ∫ xyf (x, y )dxdy−∞ −∞

f (x, y ) = g (x)h(y )

E(XY ) =+∞ +∞

∫ ∫ xyg (x)h(y )dxdy

E(XY ) =−∞ −∞

∫ xg (x)dx∫ yh(y )dy

E(XY ) =−∞ −∞

E(X )E(Y )UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 19

-ECCI CI-1352 Probabilidad y Estadística

σ

σ

Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)

Teorema. Si a y b son constantes, entonces

σ2aX + b = a2σ2

X = a2σ2

Corolario. Al hacer a = 1, se ve que σ2X + b = σ2

X = σ2

Corolario. Al hacer b = 0, se ve que σ2aX = a2σ2

X = a2σ2

Prueba.2aX +b = E[(aX + b −

µaX +b )2 ]

µaX +b = E(aX + b) =aE(X ) +

b

= aµ X + b

2aX +b = E{[(aX+ b) − (aµ X + b)]2 }= E[(aX

X

+ b − aµ X − b)2 ]σ

UCR

2aX +b = E[(aX − aµ X)

2 ]= a 2 E[(X− µ X)2 ]= a 2 σ 2

Esperanza Matemática 20

σ

σ

Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)

Teorema. Si X y Y son variables aleatorias con distribución de probabilidad conjunta f(x,y), entonces

σ2aX + bY = a2σ2

X + b2σ2Y + 2abσXY

Teorema. Si X y Y son variables aleatorias con distribución de probabilidad conjunta f(x,y), entonces

σ2aX – bY = a2σ2

X + b2σ2Y – 2abσXY

Prueba.2aX +bY = E[(aX + bY − µaX +bY )2 ]

µaX +bY = E(aX + bY ) = aE(X ) + bE(Y ) = aµ X

+ bµY

2aX +bY = E{[(aX+ bY ) − (aµ

X

+ bµY)]2 }= E[(aX+ bY − aµ X − bµY)2 ]

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 21

σ 2aX +bY = E{[a(X− µ X) +

b(Y− µY )]2 }= a 2

E[(X

− µ X)2 ]+ b2 E[(Y− µY)2 ]+ 2abE[(X − µ X)(Y − µY )]

2 2 2 2 2σ aX +bY = a σ X + b σ Y+ 2abσ XY

Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)

Corolario. Si X y Y son variables aleatorias independientes, entonces σ2

aX + bY = a2σ2X + b2σ2

Y

Corolario. Si X y Y son variables aleatorias independientes, entonces σ2

aX – bY = a2σ2X + b2σ2

Y

Corolario. Si X1, X2, …, Xn son variables aleatorias independientes, entonces

σ2a1X1 + a2X2 + … + anXn = a2

1σ2X1 + a2

2σ2X2 + … + a2

nσ2Xn

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 22

Teorema de Chebyshev

Si una V.A. tiene una varianza o desviación estándar pequeña, se esperaría que la mayoría de los valores se agruparan alrededor de la media. Ver las figuras de las filminas 24 y 25.

El matemático ruso P.L. Chebyshev descubrió que la fracción del área entre cualesquiera dos valores simétricos alrededor de la media está relacionada con la desviación estándar.

Como el área bajo una curva de distribución de probabilidad, o en un histograma de probabilidad, suma 1, el área entre cualesquiera dos números es la probabilidad de que la V.A. tome un valor entre estos números.

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 23

Teorema de Chebyshev (cont.)

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 24

Teorema de Chebyshev (cont.)

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 25

Teorema de Chebyshev (cont.)

La probabilidad de que cualquier variable aleatoria X tome un valor dentro de k desviaciones estándar de la media es al menos 1 – 1/k2. Es decir,

P(µ − kσ < X < µ + kσ ) ≥ 1 −1

k 2

Este teorema tiene validez para cualquier distribución deobservaciones y, por esta razón, los resultados por lo general son débiles.

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 26

Teorema de Chebyshev (cont.)

El valor que el teorema proporciona es sólo un límite inferior; es decir, la probabilidad de una variable aleatoria caiga dentro de dos desviaciones estándar de la media no puede ser menor a 1 – 1/k2.

Sólo cuando se conoce la distribución de probabilidad, se puede determinar probabilidades exactas.

Por esta razón el teorema se conoce por el nombre dedistribución libre.

El uso de este teorema se relega a situaciones donde se desconoce la forma de la distribución.

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 27

Referencias Bibliográficas

Walpole, R.E.; Myers, R.H.; Myers, S.L. & Ye, K. “Probabilidad y estadística para ingeniería y ciencias”. Octava Edición. Pearson Prentice-Hall. México, 2007.

UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 28