Vector aleatorio complementario

June 20, 2017 | Autor: Casandra Torres | Categoría: Estadistica
Share Embed


Descripción

VECTORES ALEATORIOS

1

Introducci´ on

En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa analizar varias caracter´ısticas simult´ aneamente, como por ejemplo la velocidad de transmisi´on de un mensaje y la proporci´on de errores. De esta forma seremos capaces de estudiar no solo el comportamiento de cada variable por separado, sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo principal de este tema es elaborar un modelo matem´atico que permita analizar experimentos aleatorios en los que cada resultado experimental A tiene asociados p valores num´ericos. Estos modelos ser´an la base para la construcci´on de los modelos inferenciales necesarios en este contexto para extrapolar los resultados de una muestra a la poblaci´on.

2

Vectores aleatorios

El concepto de vector aleatorio nace como una generalizaci´on natural de la noci´on de variable aleatoria, al considerar simult´ aneamente el comportamiento aleatorio de varias caracter´ısticas asociadas a un experimento. Definici´ on 2.1 (Vector aleatorio.) Dado un un espacio probabil´ıstico (E, A, P ) y el espacio probabilizable (Rp , β) con β σ-´ algebra de Borel en Rp , se dice que una aplicaci´ on x = (x1 . . . , xp )t x : E −→ Rp es un vector aleatorio si es medible, es decir x−1 (B) ∈ A ∀B ∈ β, por tanto cada una de sus componentes xi , i = 1, . . . p es una variable aleatoria. Veamos algunos ejemplos sencillos de vectores aleatorios. El vector (x1 , x2 ) representa la temperatura m´axima que puede alcanzar una resistencia y el tiempo que tarda en alcanzarla. (En el caso bidimensional es m´as frecuente utilizar la notaci´on (X,Y).) 1

2

2

VECTORES ALEATORIOS

Los componentes del vector (x1 , x2 , x3 , x4 , x5 , x6 )t representan, respectivamente, la edad, peso, estatura, sexo, colesterol y triglic´eridos de una persona. Definici´ on 2.2 (Probabilidad inducida.) Dado un vector aleatorio x definido sobre (E, A, P ), se denomina probabilidad inducida por el vector a la aplicaci´ on p Px : β −→ R definida por: Px (B) = P [x−1 (B)]

∀B ∈ β

(Rp , β, Px ) es el espacio probabil´ıstico inducido por x. La distribuci´on de probabilidad inducida por un vector aleatorio se puede caracterizar mediante la funci´on de distribuci´on. Definici´ on 2.3 (Funci´ on de distribuci´ on.) Dado el vector aleatorio x se denomina funci´ on de distribuci´ on asociada, a la funci´ on F : Rp −→ R definida por: F (a) = P [x1 ≤ a1 , . . . , xp ≤ ap ] Las propiedades m´as importantes de las funciones de distribuci´on son: 1. F (−∞, a2 , . . . , ap ) = · · · = F (−∞, · · · − ∞, ai , −∞, · · · − ∞) = 0. 2. F (∞, . . . , ∞) = 1. 3. F es continua por la derecha respecto de cada variable. 4. F es no decreciente respecto a cada variable. 5. En el caso bidimensional dados hi > 0 se verifica que \ P ((a1 < x1 ≤ a1 + h1 ) (a2 < x2 ≤ a2 + h2 )) = = F (a1 + h1 , a2 + h2 ) − F (a1 , a2 + h2 ) − F (a1 + h1 , a2 ) + F (a1 , a2 ) ≥ 0 Mientras que en el caso p-dimensional se tendr´ıa la expresi´on: p X F (a1 +h1 , . . . , ai−1 +hi−1 , ai , ai+1 +hi+1 , . . . , ap +hp ) F (a1 +h1 , . . . , ap +hp )− i=1

+

p X

F (a1 +h1 , . . . , ai−1 +hi−1 , ai , ai+1 +hi+1 , . . . , aj−1 +hj−1 , aj , aj+1 +hj+1 , . . . , ap +hp )

i,j=1,i6=j

+ . . . , +(−1)p F (a1 , . . . , ap ) ≥ 0 Los vectores aleatorios se pueden clasificar teniendo en cuenta el tipo de las variables aleatorias que lo componen.

3

3

Vectores aleatorios discretos

La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus componentes sean v. a. discretas. Definici´ on 3.1 (Vector aleatorio discreto) Sea x un vector aleatorio definido sobre (E, A, P ) y S = {a ∈ Rp /P (a) > 0}, se dice que x es discreto si se cumple que: 1. S 6= ∅ 2. El cardinal de S es a lo sumo infinito numerable. X 3. P (a) = 1. a∈S

4. P [x ∈ B] =

P a∈B∩S

P (a).

Al conjunto S se le llama conjunto soporte del vector x. En este caso la funci´on de distribuci´on es discontinua y viene dada por la expresi´on: X F (x) = P (a) a∈Sx

con Sx = {a ∈

4

Rp /a

≤ x}.

Vectores aleatorios continuos

En los vectores aleatorios continuos cada componente es una v. a. de tipo continuo y an´alogamente al caso unidimensional para caracterizar su distribuci´on es conveniente emplear la funci´on de densidad. Definici´ on 4.1 (Funci´ on de densidad) Una funci´ on f : Rp −→ R se dice que es funci´ on de densidad si verifica las condiciones: 1. f (x) ≥ 0 ∀x ∈ Rp R R∞ R∞ 2. Rp f (x) dx = −∞ . . . −∞ f (x) dx = 1 Definici´ on 4.2 (Vector aleatorio continuo) Un vector aleatorio x se dice que es continuo si su funci´ on de distribuci´ on se puede expresar como: Z x1 Z xp F (x) = ... f (y)dy ∀x ∈ Rp −∞

−∞

4

5 DISTRIBUCIONES MARGINALES

donde f es una funci´ on de densidad en Rp . El conjunto Sx = {a ∈ Rp /f (a) > 0} se denomina conjunto soporte de x. Las propiedades m´as importantes de los vectores continuos son: 1. La funci´on de distribuci´on es continua. 2. En los puntos de continuidad de la funci´on de densidad se cumple que: ∂ p F (x) f (x) = ∂x1 . . . ∂xp 3. S = {a ∈ Rp /Px (a) > 0} = ∅, es decir, P (a) = 0 R 4. P [x ∈ B] = B f (x)dx

5

∀a ∈ Rp

Distribuciones marginales

Las componentes de los vectores aleatorios son v. a. y resulta en muchos casos de inter´es de estudiar el comportamiento de cada una de esas variables por separado o de grupos de las mismas. Para abordar este problemas se definen las distribuciones marginales. Definici´ on 5.1 (Distribuciones marginales) Sea x un vector aleatorio con funci´ on de distribuci´ on F(x), entonces cada una de sus componentes, xi son variables aleatorias unidimensionales con las siguientes funciones de distribuci´ on marginal para la componente xi Fi (xi ) = F (+∞, · · · + ∞, xi , +∞, · · · + ∞) Tambi´en se puede hablar de distribuciones marginales de un subvector , as´ı si x = (x1 , x2 )se define la funci´ on de distribuci´ on marginal de x1 como F1 (x1 ) = F (x1 , +∞, · · · + ∞) Si el vector es continuo se tiene las funci´on de densidad marginal de la compoR nente xi , fi (xi ) = Rp−1 f (a1 , . . . ai−1 , xi , ai+1 , . . . an )da1 . . . dai−1 dai+1 , . . . dan Mientras que si x es discreto las expresiones para las distribuci´on de probabilidad marginal de la componente xi son: X Pi (xi ) = P (y) y∈S,yi =xi

An´alogamente se tendr´ıan las distribuciones de los subvectores.

5

6

Distribuciones condicionadas

En muchos problemas reales puede interesa estudiar el comportamiento de una variable teniendo cierta informaci´on complementaria sobre el experimento. Por ejemplo sea (X, Y) un vector aleatorio cuyas componentes representan, respectivamente, las intensidades de las se˜ nales enviadas y recibidas a trav´es de un canal de informaci´on. Un aspecto fundamental es este tipo de problemas es conocer el comportamiento de la se˜ nal recibida Y condicionada a que se ha enviado una se˜ nal (X=x), es decir, analizar la distribuci´on de (Y / X=x). Otro problema muy interesante es el complementario del anterior, o sea, estudiar la se˜ nal que se envi´ o cuando se conoce la se˜ nal recibida (X/ Y=y). Cuando el suceso que condiciona tiene una probabilidad estrictamente positiva el problema se reduce a utilizar la probabilidad condicionada para calcular la distribuci´on de (x2 /x1 = a). Fx2 /x1 =a (b) =

P (x1 = a, x2 ≤ b) P (x1 = a)

En el caso que esta funci´on sea absolutamente continua se puede considerar la funci´on de densidad condicionada de (x2 /x1 = a) que ser´a ¯ ∂ p2 (Fx2 /x1 =a (x2 )) ¯ ¯ fx2 /x1 =a (b) = ¯ ∂x2 b en los puntos de continuidad de la funci´on de distribuci´on Sin embargo cuando el vector x1 es de tipo continuo, el suceso (x1 = a) tiene siempre una probabilidad igual a cero, y no se puede emplear el m´etodo anterior. En este caso se define la funci´on de densidad condicionada. Definici´ on 6.1 (Funci´ on de densidad condicionada) Dado el vector aleatorio ( x1 , x2 ) la funci´ on de densidad de x2 condicionada a (x1 = a), se define como una funci´ on no negativa fx2 /x1 =a , que satisface: Z Fx2 /x1 =a (b) =

{t∈Rp2 /t≤b}

fx2 /x1 =a (t) dt

∀x2 ∈ Rp2

El siguiente resultado nos permite calcular la funci´on de densidad condicionada en el caso de trabajar con vectores aleatorios continuos. Proposici´ on 6.1 Dado un vector aleatorio ( x1 , x2 ) cuya funci´ on de densidad es f( x1 , x2 ) se verifica que en todo punto de continuidad de f en el que fx2 (b) >0,

6

7

MOMENTOS

la funci´ on de densidad de (x1 /x2 = b) existe y vale: fx1 /x2 =b (a) =

f (a, b) fx2 (b)

Definici´ on 6.2 (Independencia de vectores aleatorios) Dado el vector aleatorio x=(x1 , x2 ) se dice que x1 y x2 son independientes cuando se verifica que: Fx (a, b) = Fx1 (a) Fx2 (b)

∀(a , b) ∈ Rp

Si trabajamos con la funci´on de densidad esta condici´on es equivalente a: fx (a, b) = fx1 (a) fx2 (b)

∀(a , b) ∈ Rp

Cuando las variables son discretas la independencia equivales a: ∀(a , b) ∈ Rp

Px (a, b) = Px1 (a) Px2 (b)

Una propiedad muy interesante es que si x1 y x2 son independientes entonces nuevas variables aleatorias g(x1 ) y h( x2 ), obtenidas como transformaciones de las anteriores, tambi´en los son. Tambi´en es interesante hacer notar que si dos vectores x1 y x2 son independientes no quiere decir que las componentes de x1 lo sean. Es decir en el caso multidimensional pueden aparecer muchos tipos de independencia como la independencia condicional Definici´ on 6.3 (Independencia condicional ) Dado el vector aleatorio x=(x1 , x2 , x3 ) se dice que x1 y x2 son condicionalmente independientes dado x3 cuando se verifica que x1 /x3 y x2 /x3 son independientes.

7

Momentos

En este apartado se da la definici´on de momento para poder describir de manera resumida el comportamiento de los vectores aleatorios. Definici´ on 7.1 (Momentos respecto al origen) Dado una vector aleatorio p-dimensional continuo x se denomina momento respecto al origen de orden (r1 , . . . , rp ), si existe, al valor dado por la expresi´ on: Z r r ar1 ,...,rp (x) = E(xr11 . . . xpp ) = xr11 . . . xpp f (x)dx Rp

donde f(x) es la funci´ on de densidad. An´ alogamente se definir´ıa para el caso discreto.

7

Los momentos respecto al origen m´as importantes son los orden uno que permiten definir el vector esperanza del vector aleatorio. Definici´ on 7.2 (Vector esperanza) Dado un vector aleatorio p-dimensional x se denomina vector esperanza, E(x), al vector µ de componentes (µ1 , . . . , µp )t definidas por : Z ∞

µi =

−∞

x fxi (x) dx

Es inmediato comprobar que: µi = E(xi ) = a0...,0,1i ,0,...,0 (x) . Cuando se trabaja con una funci´on g(x) la esperanza de la nueva variable aleatoria se puede calcular mediante la expresi´on: Z E[g(x)] =

g(x) f (x) dx Rp

Entre las propiedades m´as importantes del vector esperanza, si existe, se encuentran: 1 Linealidad para transformaciones y=Ax+b, siendo A una matriz (n,p): E[ y]=A E[x]+b. R R 2 E[g1 (x1 )] = Rp g1 (x1 ) f (x)dx = Rp1 g1 (x1 ) f1 (x1 )dx1 . 3 Linealidad E[a1 g1 (x) + a2 g2 (x)] = a1 E[g1 (x)] + a2 E[g2 (x)] , siendo ai ∈ R

Otros momentos muy importantes son los centrados respecto al vector de medias. La expresiones que aparecen a continuaci´ on se refieren al caso continuo, ya que el caso discreto se desarrolla de manera an´aloga a la realizada hasta este momento. Definici´ on 7.3 (Momentos centrados) Dado una vector aleatorio p-dimensional continuo x se denomina momento centrado de orden (r1 , . . . , rp ), si existe, al valor dado por la expresi´ on: Z mr1 ,...,rp (x) = (x1 − µ1 )r1 . . . (xp − µp )rp f (x)dx Rp

donde f(x) es la funci´ on de densidad.

8

7

MOMENTOS

Los momentos centrados de orden dos para una de las componentes ri = 2, cero para el resto, rj = 0 si j 6= i), dan lugar a las varianzas de cada componente xi , que se va a denotar por σii . V ar(xi ) = σii = E(xi − µi )2 = m0...,0,2i ,0,...,0 (x) El momento centrado de orden (0 . . . , 0, 1i , 0, . . . , 0, 1j , 0, . . . , 0) se denomina covarianza entre la componentes xi , xj , y se va a denotar por σij , tiene una gran importancia porque nos permite estudiar si las componentes est´an relacionadas linealmente. Definici´ on 7.4 (Matriz de Varianzas-Covarianzas) Dado un vector aleatorio x se define su matriz de varianzas-covarianzas, si existe, como:   σ11 . . . σ1p  ..  .. Σ = E[(x − µ) (x − µ)t ] =  ... . .  σp1 . . .

σpp

Entre sus propiedades destacan: • Las matrices de varianzas-covarianzas son siempre matrices sim´etricas y semidefinidas positivas • Σ = E[x xt ] − µ µt • Var (at x)=at Σa • Var(Ax+b)= A Σ At Tambi´en se pueden definir matrices de varianzas-covarianzas entre dos vectores aleatorios definidos sobre el mismo espacio probabil´ıstico, Definici´ on 7.5 Dado un vector aleatorio p-dimensional, x, y otro q-dimensional, y, se define su matriz de varianzas-covarianzas, si existe, como:   σx1 ,y1 . . . σx1 ,yq   .. .. .. Cov(x, y) = E[(x − µx ) (y − µy )t ] =   . . . σxp ,y1 Entre sus propiedades destacan: • Σ=Cov(x,x)

...

σxp ,yq

9

• Cov(x,y)= (Cov(y,x))t • Cov(Ax,By)= A Cov(x,y) Bt • Cov(x1 +x2 ,y)= Cov(x1 ,y) + Cov(x2 ,y) • Si los vectores tienen la misma dimensi´on Var(x+y)=Σx+y = Var(x)+ Cov(x,y)+ Cov(y,x)+ Var(y) • Si x e y son dos vectores aleatorios independientes entonces Cov(x,y)= 0, pero el rec´ıproco no tiene porque ser cierto. Lema 7.1 (Desigualdad de Cauchy-Schwartz) Dado un vector aleatorio (X, Y) en el que existen los momentos centrados de orden dos, se verifica que: E 2 [X Y ] ≤ E(X 2 ) E(Y 2 ) adem´ as la igualdad se alcanza si y solo si existen dos n´ umeros reales α y β, con al menos uno de ellos distinto de cero, tales que P [α X + β Y = 0] = 1. Definici´ on 7.6 (Coeficiente de correlaci´ on de Pearson) Dadas dos componentes xi , xj de un vector aleatorio x se denomina coeficiente de correlaci´ on de Pearson entre esas componentes , ρij a la expresi´ on: σij ρij = √ σii σjj Las propiedades m´as importantes del Coeficiente de correlaci´on de Pearson son: 1. −1 ≤ ρij ≤ 1. 2. ρij alcanza los extremos si y solo si xj es una funci´on lineal de xi , o al reves. 3. Si ρij =0, se dice que xi e xj son linealmente independientes, pero en general la independencia lineal no implica la independencia estad´ıstica. 4. Si xi e xj son independientes entonces son linealmente independientes. Definici´ on 7.7 (Matriz de correlaci´ on de Pearson) Dado un vector aleatorio x se denomina matriz de correlaci´ on entre sus componentes a:

10

7



1  .. R= . ρp1

... .. . ...

MOMENTOS

 ρ1p ..  .  1

Ejemplo 1.(Continuaci´on) La correlaci´on de Pearson entre X e Y es: ρ =

Cov(X , Y ) −1 = σX σY 11

por lo tanto tienen una relaci´on lineal muy peque˜ na. Ejemplo. Sea X una v. a. con distribuci´on U(-1, 1), y definimos la variable Y=X2 . Comprobar que X e Y son linealmente independientes pero no son independientes. R1 1 E(X) = −1 x dx = 0. 2 R1 1 E(X.Y) = E(X. X2 ) = E(X3 ) = −1 x3 dx = 0. 2 Cov(X, Y) = E(X.Y) - E(X) E(Y) = 0 ⇐⇒ ρ = 0 por lo tanto X e Y son linealmente independientes pero no independientes puesto que Y = X2 . Definici´ on 7.8 (Funci´ on generatriz de momentos) Dado un vector aleatorio x p-dimensional la funci´ on generatriz de momentos,si existe, se define como: Z t tt x gx (t) = E(e ) = et x f (x) dx Rp

Entre las propiedades m´as interesantes de la funci´on generatriz de momentos est´ an las siguientes: 1. g(0)=1 2. g cuando existe caracteriza la distribuci´on. 3. Los vectores aleatorias x,y son independientes si y solo si la funci´on generatriz de momentos conjunta es igual al producto de las funciones generatrices de las marginales. gx,y (t1 , t2 ) = gx (t1 ) gy (t2 ) ∀(t1 , t2 ) ∈ entorno de 0 ∈ Rp+q 4. Si x,y son vectores aleatorios independientes entonces la funci´on generatriz de x+y verifica: gx+y (t) = gx (t) gy (t)

11

Definici´ on 7.9 (Funci´ on caracter´ıstica ) Dado un vector aleatorio x p-dimensional la funci´ on caracter´ıstica se define como: Z t t φx (t) = E(eit x ) = eit x f (x) dx Rp

Esta funci´on existe siempre y caracteriza totalmente la distribuci´on del vector aleatorio x. Presenta unas propiedades an´alogas a la funci´on generatriz de momentos. Relacionada con la funci´on caracter´ıstica tienen gran importancia el siguiente Teorema Teorema 7.2 (Teorema de Cramer- Wald) La distribuci´ on de un vector aleatorio p-dimansional x est´ a completamente determinada por el conocimiento del comportamiento de todas las variables unidimensionales que se puedan formar como combinaci´ on lineal de sus componentes.

8

Momentos Condicionados

Estos momentos juegan un papel importante en el manejo de las distribuciones multivariantes , sobre todo cuando se imponen condiciones a algunas de sus componentes. Definici´ on 8.1 (Esperanza condicionada ) Dado un vector aleatorio x p-dimensional del que se consideran la partici´ on (x1 , x2 ) se define la esperanza del vector x1 condicionada por el valor x2 de la segunda componente como Z E[x1 /x2 ] = x1 fx1 /x2 (x1 )dx1 Rp1

En general esta expresi´on ser´a una funci´on del valor de x2 . Obs´ervese que se hace un abuso de notaci´on cuando x1 tienen dimensi´on mayor que 1, ya que en este caso habr´ıa que tener un vector esperanza , cuyas componentes son las integrales de las correspondientes componentes de x1 . Por otro lado si considero x2 un vector aleatorio entonces la esperanza condicionada tambi´en ser´a un vector aleatorio. Por tanto podr´a hablarse de su esperanza, que verifica el siguiente resultado, si todas las esperanzas existen E[x1 ] = E[E[x1 /x2 ]]

´ DE UN VECTOR ALEATORIO 9 FUNCION

12

La curva o superficie que a cada valor de x2 le hace corresponder E[x1 /x2 ] se llama la curva o superficie general de regresi´on de x1 sobre x2 . En el caso de que esta superficie sea lineal se tiene la regresi´on lineal. Definici´ on 8.2 (Varianza condicionada ) Dado un vector aleatorio x p-dimensional del que se consideran la partici´ on (x1 , x2 ) se define la varianza del vector x1 condicionada por el valor x2 como V [x1 /x2 ] = V1|2 como la matriz de varianzas respecto a la distribuci´ on condicionada (x1 /x2 ) En el caso bidimensional (x1 , x2 ) se verifica que E(xi ) = E[E(xi /xj )] V ar(xi ) = E[V ar(xi /xj )] + V ar[E(xi /xj )]

9

Funci´ on de un vector aleatorio

En este apartado estudiaremos algunos m´etodos que nos permiten calcular la distribuci´on de probabilidad de funciones de un vector aleatorio. El m´etodo m´as general consiste en obtener directamente la funci´on de distribuci´on del nuevo vector aleatorio. Dado y = g(x), entonces Fy (y) = P (y ≤ y) = P [ x ∈ Rp / g(x) ≤ y] Veamos algunos ejemplos sencillos en los que g es una funci´on de R2 en R, es decir Z es una variable aleatoria. Ejemplo Sea (X, Y)un vector aleatorio continuo cuya funci´on de densidad vale: ( 1 si 0 < x < 1 ; 0 < y < 1 f (x , y) = 0 en el resto Calcular la distribuci´on de la variable Z = El conjunto soporte de Z es SZ = (0 , ∞). P (Z ≤ z) = P (

Y . X

Y ≤ z) = P (Y ≤ z X) X

Cuando 0 < z < 1 la funci´on de distribuci´on vale: Z 1 Z zx Z 1Z F (z) = f (x , y) dx dy = 0

0

0

0

zx

dx dy =

z 2

13

Cuando z > 1 la funci´on de distribuci´on vale: Z

1/z

Z

Z

zx

F (z) =

1

Z

1

dx dy + 0

dx dy =

0

1/z

0

1 1 1 + (1 − ) = 1 − 2z z 2z

Por lo tanto la funci´on de distribuci´on es:  0 si z ≤ 0    z si 0 < z ≤ 1 F (z) = 2    1− 1 si z > 1 2z

,

Cuando la funci´on g verifique ciertas condiciones de regularidad es posible calcular directamente la funci´on de densidad del vector aleatorio transformado. Proposici´ on 9.1 Dado un vector aleatorio continuo x con funci´ on de densidad f(x), sea z=g(x) una transformaci´ on que verifica en el conjunto soporte Sx las siguientes condiciones : 1. La funci´ on g:Rp −→ Rp es biyectiva,salvo un conjunto de Lebesgue de medida nula. es decir existen las transformaciones zi = gi (x), i = 1, . . . p xi = hi (z), i = 1, . . . p 2. Todas las transformaciones son continuas. 3. Existen y son continuas las derivadas parciales ∂x , ∂z

∂z ∂x

¯ ¯ ¯ ∂(x) ¯ ¯ ¯ J = ¯ ∂(z) ¯ es distinto de cero en el recorrido de la transformaci´ on. Entonces se cumple que ( fz (z) =

fx [h(z)] |J| si z ∈ Sz 0 en el resto

14

10

EJEMPLOS

Corolario 9.1 Si el conjunto soporte S se puede expresar como una uni´ on finita de conjuntos disjuntos Si i = 1 . . . n, en cada uno de los cuales la funci´ on g es biyectiva y verifica las condiciones del teorema anterior, con inversas: hSi y Jacobianos: Ji entonces  n X   fx [hSi (z)] |Ji | si z ∈ Sz fz (z) = i=1   0 en el resto Las trasformaciones lineales y=Ax+b donde A es una matriz no singular, es decir, det(A)6=0, son transformaciones biyectivas, su inversa es x = A−1 (y − b)t y el jacobiano de la transformaci´on inversa vale J=det(A−1 ). Aplicando el teorema anterior la funci´on de densidad de y es: fy (y) = fx [A−1 (y-b)t ] × |det(A−1 )|

10

Ejemplos

Ejemplo 1. • Calcula el valor de c para que f(x, y) sea funci´on de densidad. ( c (x + y) si 0 < x < 1 ; 0 < y < 1 f (x, y) = 0 en el resto 1. La funci´on f(x, y) ≥0. Tomando c>0 se verifica la primera condici´on. R∞ R∞ 2. −∞ −∞ f (x , y) dx dy = 1. Z



Z

Z



1Z 1

f (x , y) dx dy = −∞

−∞

c (x + y)dx dy 0

Z = c 0

1

0

1 ( + y) dy = c 2

Por lo tanto el valor que buscamos es c=1. • Calcula la probabilidad de que P[ X≤ 0,5 ; Y≤ 0,75]. Z 0,5 Z 0,75 P [ X ≤ 0, 5 ; Y ≤ 0, 75] = f (x , y) dy dx −∞

−∞

15

Z

0,5 Z 0,75

=

Z

0,5

(x + y) dy dx = 0

0

( 0

3x 9 15 + ) dx = 4 32 64

• Calcula las distribuciones marginales de X e Y. 1. La marginal de la variable X es:  Z ∞ 1  R1 0 (x + y) dy = x + 2 f1 (x) = f (x , y) dy =  0 −∞ 2. La marginal de la variable Y es:  Z ∞ 1  R1 0 (x + y) dx = y + 2 f2 (y) = f (x , y) dx =  0 −∞

si 0 < x < 1 en el resto

si 0 < y < 1 en el resto

• Calcula las distribuciones condicionadas de (Y/X=x), (X/Y=y), E(Y/X=x) y E(X/Y=y). 1 la funci´on de densidad de (Y/X=x) ser´a: 2   2(x + y) f (x, y) si 0 < y < 1 = fY /X (y/x) = 2x + 1  f1 (x) 0 en el resto

1. Como la marginal f1 (x) = x +

Z

Z



E(Y /X = x) = −∞

y fY /X (y/x) dy =

1

y 0

3x + 2 2(x + y) dy = 2x + 1 6x + 3

1 la funci´on de densidad de (X/Y=y) ser´a: 2   2(x + y) si 0 < x < 1 f (x, y) fX/Y (x/y) = = 2y + 1  f2 (y) 0 en el resto

2. Como la marginal f2 (y) = y +

Z

Z



E(X/Y = y) = −∞

y fX/Y (x/y) dx =

1

x 0

2(x + y) 3y + 2 dx = 2y + 1 6y + 3

• Estudia la independencia de X e Y. La densidad conjunta es: ( (x + y) si 0 < x < 1 ; 0 < y < 1 f (x, y) = 0 en el resto

16

10

EJEMPLOS

y las densidades marginales son:   f1 (x) =

 0  

f2 (y) =

x+

y+

 0

1 2 1 2

si 0 < x < 1 en el resto si 0 < y < 1 en el resto

Entonces f (x , y) 6= f1 (x) f2 (y) y por lo tanto X e Y no son independientes. • Calcula el vector de medias y la matriz de varianzas covarianzas de (X, Y). 1. En primer lugar vamos a obtener el vector de medias. Z

Z



E(X) =

x f1 (x) dx =

−∞

Z E(Y ) =

−∞

y f2 (y) dy =

1 7 x (x + ) dx = 2 12

1

7 1 y (y + ) dy = 2 12

0

Z



1

0

2. Para calcular la matriz de varianzas-covarianzas necesitamos obtener las varianzas y la covarianza. Z



2

E(X ) = −∞

Z 2

x f1 (x) dx =

1

0

1 5 x2 (x + ) dx = 2 12

y la varianza de X es V ar(X) = E(X 2 ) − E 2 (X) = Z



E(Y 2 ) =

−∞

Z y 2 f2 (y) dx =

0

1

11 144

1 5 y 2 (y + ) dy = 2 12

y la varianza de Y es V ar(Y ) = E(Y 2 ) − E 2 (Y ) =

11 144

Para obtener la covarianza calculamos primero el momento de orden (1, 1) Z



Z

Z



E(X Y ) =

1Z 1

x y f (x , y) dy dx = −∞

−∞

x y (x + y) dy dx 0

0

17

Z

1

=

x2 x 1 + ) dx = 2 3 3

( 0

Cov(X , Y ) = E(X Y ) − E(X) E(Y ) =

−1 144

La matriz de varianzas-covarianzas es : 1 Σ = 144

Ã

!

11 −1 −1 11

• La correlaci´on de Pearson entre X e Y es: ρ =

Cov(X , Y ) −1 = σX σY 11

por lo tanto tienen una relaci´on lineal muy peque˜ na. Ejemplo 2. • Comprueba que f(x, y) es funci´on de densidad.  2   3 si 0 < x ≤ 1 ; 0 < y < x 4 f (x, y) = si 1 < x < 2 ; 0 < y < 2 − x 3   0 en el resto 1. La primera condici´on f(x, y)≥0 se comprueba de forma inmediata. R∞ R∞ 2. −∞ −∞ f (x , y) dx dy = 1. Z



Z

Z



1Z x

f (x , y) dx dy = −∞

−∞

0

Z = 0

1

2x dx + 3

Z

2

1

0

2 dy dx + 3

Z

2 Z 2−x

1

0

4 dy dx 3

4(2 − x) 1 2 dx = + = 1 3 3 3

• Calcula la probabilidad de que P[ X≤ 1,5 ; Y≤ 0,5]. Z

0,5 Z 1,5

P [ X ≤ 1, 5 ; Y ≤ 0, 5] =

f (x , y) dy dx −∞

Z

0,5 Z x

= 0

0

2 dy dx + 3 =

Z

1

0,5

Z 0

0,5

−∞

2 dy dx + 3

Z 1

1 2 4 7 + + = 12 12 12 12

• Calcula las distribuciones marginales de X e Y.

1,5 Z 0,5 0

4 dy dx 3

18

10

1. La marginal de la variable X es:  R 2x x 2   dy =  Z ∞  0 3 3 R 2−x 4 4(2 − x) f1 (x) = f (x , y) dy =  3 dy = 0 −∞  3   0 2. La marginal de la variable Y es: ( R R 2−y 1 2 dx + 1 3 y f2 (y) = 0

4 3

dx = 2(1 − y)

EJEMPLOS

si 0 < x ≤ 1 si 1 < x < 2 en el resto

si 0 < y < 1 en el resto

• Calcular las distribuciones condicionadas de (X/Y=y) e (Y/X=x) . 1. Teniendo en cuenta la expresi´on de f2 (y), la densidad de (X/Y=y) es:  2/3 1   = si 0 < x ≤ 1   2(1 − y) 3(1 − y) f (x, y)  4/3 2 fX/Y (x/y) = = si 1 < x < 2  f2 (y)  2(1 − y) 3(1 − y)    0 en el resto cuando el valor de y, que condiciona, pertenezca al intervalo (0, 1). 2. Para calcular la densidad de (Y/X=x)hemos de tener en cuenta que f1 (x), cambia de expresi´on dependiendo del valor de x. Para 0 < x ≤ 1 se tiene:  1 2/3 = si 0 < y < 2 − x f (x, y)  2x/3 x fY /X (y/x) = f1 (x)  0 en el resto Para 1 < x < 2 se tiene:

 f (x, y) 

1 4/3 = 4(2 − x)/3 2−x fY /X (y/x) = f1 (x)  0

si 0 < y < 2 − x en el resto

• Calcula el vector de medias y la matriz de varianzas covarianzas de (X, Y). 1. El vector de medias de (X, Y) es Z

Z



E(X) = −∞

x f1 (x) dx = Z

0

1

2x x dx + 3 Z



E(Y ) = −∞

y f2 (y) dy =

Z

2

x 1

4(2 − x) 10 dx = 3 9

1

y 2 (1 − y) dy = 0

1 3

19

2.

Z E(X 2 ) =



−∞

Z x2 f1 (x) dx =

1

2x dx + 3

x2

0

Z

2

1

x2

4(2 − x) 25 dx = 3 18

La varianza de X es V ar(X) = E(X 2 ) − [E(X)]2 = Z E(Y 2 ) =



−∞

Z y 2 f2 (y) dy =

1

25 162

y 2 2 (1 − y) dy =

0

1 6

La varianza de Y es V ar(Y ) = E(Y 2 ) − [E(Y )]2 = El momento de orden (1, 1) Z ∞Z ∞ Z E(X Y ) = x y f (x , y) dy dx = −∞

−∞

1Z x

0

0

Cov(X , Y ) = E(X Y ) − E(X) E(Y ) =

1 18

2 x y dy dx + 3

Z

2 Z 2−x

xy 1

0

13 10 1 1 − × = 36 9 3 108

La matriz de varianzas-covarianzas es : Ã Σ =

25 162 −1 108

−1 108 1 18

!

Ejemplo 3. Sea (X, Y) un vector aleatorio discreto con la siguiente distribuci´on de probabilidad X\Y 1 2

0 0

1

2

3

1 8

3 8

2 8

0

0

1 8 1 8

Calcular las distribuciones marginales de X e Y. 1. La v. a. marginal X toma los valores 1, 2 y sus probabilidades son: P1 (X = 1) =

3 X

P (1 , y) = 0 +

y=0

P (1 X = 2) =

3 X y=0

P (2 , y) =

3 2 1 3 + + = 8 8 8 4

1 1 1 + 0 +0 + = 8 8 4

4 13 dy dx = 3 36

20

10

EJEMPLOS

2. La v. a. marginal Y toma los valores 0,1,2, 3 con probabilidades: P2 (Y = 0) =

2 X

P (x , 0) = 0 +

x=1

P2 (Y = 1) =

2 X

P (x , 1) =

3 3 +0 = 8 8

P (x , 2) =

2 2 +0 = 8 8

P (x , 3) =

1 2 1 + = 8 8 8

x=1

P2 (Y = 2) =

2 X x=1

P2 (Y = 3) =

2 X

1 1 = 8 8

x=1

Ejemplo 4. Sea (X, Y) un vector aleatorio continuo cuya funci´on de densidad vale: ( 2 si 0 < x ≤ y < 1 f (x , y) = 0 en el resto Calcular las distribuciones marginales de X e Y. 1. La v. a. marginal X tiene como conjunto soporte SX =(0, 1) y su funci´on de densidad es: ( R Z ∞ 1 si 0 < x < 1 x 2 dy = 2 − 2x f1 (x) = f (x , y) dy = 0 en el resto −∞ 2. La v. a. marginal Y tiene el mismo conjunto soporte SY =(0, 1) y su funci´on de densidad es: ( R Z ∞ y si 0 < y < 1 0 2 dx = 2y f2 (y) = f (x , y) dx = 0 en el resto −∞ • Calcular las distribuciones condicionadas de (Y/X=x) y (X/Y=y). 1. La funci´on de densidad de (Y/X=x) ser´a: fY /X (y/x) =

f (x, y) 2 1 = = f (x) 2y y

si 0 < x ≤ y < 1

2. La funci´on de densidad de (X/Y=y) ser´a: fX/Y (x/y) =

f (x, y) 2 1 = = f (y) 2 − 2x 1−x

si 0 < x ≤ y < 1

21

Ejemplo 5. Sea (X, Y) un vector aleatorio cuya funci´on de densidad es: ( 1 si 0 < x < 1 ; 0 < y < 1 f (x , y) = 0 en el resto Estudia si la independencia de X e Y. Calcularemos en primer lugar las distribuciones marginales de X e Y. ( 1 si 0 < x < 1 0 en el resto

f1 (x) = ( f2 (y) =

1 si 0 < y < 1 0 en el resto

Como f (x , y) = f1 (x)f2 (y) ∀(x , y) ∈ R2 entonces X e Y son independientes. Ejemplo 6. Sea (X, Y) un vector aleatorio continuo cuya funci´on de densidad vale: ( 2x si 0 < x < 1 ; 0 < y < 1 f (x , y) = 0 en el resto Calcular la distribuci´on de la variable (U, V)=(X+Y, X-Y). Las funciones g y h est´an definidas de la siguiente formas: u = g1 (x, y) = x + y

v = g2 (x, y) = x − y

u+v u−v y = h2 (u, v) = 2 2 El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y) y la transformaci´on realizada. Como u=x+y, es evidente que 0 < u < 2; por otra parte tenemos x = h1 (u, v) =

u+v < 1 ⇐⇒ 0 < u + v < 2 ⇐⇒ −u < v < 2 − u 2 u−v 0 < y < 1 ⇐⇒ 0 < < 1 ⇐⇒ −2 < −u + v < 0 ⇐⇒ u − 2 < v < 2 − u 2 es decir, 0 < u < 2 ; M ax(u − 2 , −u) < v < min(u , 2 − u) 0 < x < 1 ⇐⇒ 0 <

22

10

EJEMPLOS

Si u∈ (0, 1] =⇒ Max(u-2, -u)=-u ; min(u, 2-u)=u. Si u∈ (1, 2) =⇒ Max(u-2, -u)=u-2 ; min(u, 2-u)=2-u. Por lo tanto SU V = {(u , v) ∈ R2 / 0 < u < 1 − u < v < u 1 < u < 2 u − 2 < v < 2 − u} d(x , y) 1 = − d(u , v) 2 y la funci´on de densidad de (U, V) se calcula a partir de la expresi´on El jacobiano de la transformaci´on inversa vale J =

f (u , v) = f [

u+v u−v , ] × |J| 2 2

es decir,  u+v     2 u+v f (u , v) =   2   0

si 0 < u ≤ 1 ; −u < v < u si 1 < u < 2 ; u − 2 < v < 2 − u en el resto

El vector aleatorio (U, V) del ejemplo anterior con U=X+Y, V=X-Y, es un caso particular de las transformaciones del tipo U = a11 X + a12 Y ;

V = a21 X + a22 Y

que se pueden representar en forma matricial como (U , V )t = A (X , Y )t .

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.