Probabilidad y Procesos Estocàsticos
Descripción
Probabilidad y Procesos Estocásticos Aplicaciones
18/09/2008
René René Játiva Espinoza
Procesos Aleatorios o Estocásticos Las señales en comunicaciones tienen las siguientes propiedades: Son funciones del tiempo, definidas en cierto intervalo de observación Son aleatorias en el sentido que antes de realizar la experiencia no es posible determinar exactamente la forma de onda que será observada. Un proceso aleatorio o estocástico corresponde a un espacio muestral de funciones de tiempo, las cuales asocian una distribución de probabilidad que permite hablar de la probabilidad de los diversos eventos. 18/09/2008
René René Játiva Espinoza
Procesos Aleatorios o Estocásticos La forma de onda observada que se origina en la
variación de la señal a lo largo de un intervalo finito de tiempo se denomina realización o función muestreal. El conjunto de valores provenientes de varias realizaciones, pero correspondientes a un instante determinado dentro del intervalo de observación, constituyen una variable aleatoria. La salida de cada experiencia en un proceso aleatorio corresponde a una forma de onda, mientras que en el caso de una variable aleatoria se asocia a un número. 18/09/2008
René René Játiva Espinoza
Estacionariedad Sea F la función de distribución conjunta del
conjunto de variables aleatorias especificadas. Se dice que el proceso aleatorio X(t) es estacionario en sentido estricto si se cumple la siguiente relación para todos los desplazamientos τ, todo k y todos los posibles intervalos de observación:
FX (t1 +τ )…X (tk +τ ) ( x1 ,… xk ) = FX (t1 )…X (tk ) ( x1 ,… xk )
En otras palabras, la distribución conjunta de
cualquier conjunto de variables aleatorias es invariante respecto de la posición del origen t=0. 18/09/2008
René René Játiva Espinoza
Estacionariedad Si k=1 y para el caso de procesos estocásticos
estacionarios se tiene que la distribución de primer orden es independiente del tiempo:
FX (t ) ( x ) = FX (t +τ ) ( x ) = FX ( x ) Si k=2 y se hace τ=-t1, se demuestra que para
procesos aleatorios estacionarios, la función de distribución de segundo orden depende únicamente de la diferencia entre los tiempos de observación:
FX (t1 ), X (t2 ) ( x1 , x2 ) = FX ( 0), X ( t2 −t1 ) ( x1 , x2 ) ∀t1 , t2 18/09/2008
René René Játiva Espinoza
Media, Correlación y Covarianza La media de un proceso aleatorio estacionario es una
constante, y se define como:
µ X ( t ) = E ⎡⎣ X ( t ) ⎤⎦ =
∞
∫ xf ( ) ( x ) dx X t
−∞
La función de autocorrelación de un proceso
estocástico se define como la esperanza del producto de dos variables aleatorias X(t1), X(t2) que se obtienen de la observación del proceso X(t) en los instantes t1 y t2.. En el caso de procesos estacionarios esta función depende únicamente de la diferencia t2-t1. ∞ ∞ RX ( t1 , t2 ) = E ⎡⎣ X ( t1 ) X ( t2 ) ⎤⎦ =
RX ( t1 , t2 ) = RX ( t2 − t1 ) ∀t1 , t2 18/09/2008
∫ ∫ xx
1 2
−∞ −∞
René René Játiva Espinoza
f X (t1 ), X (t2 ) ( x1 , x2 ) dx1dx2
Media, Correlación y Covarianza La función de autocovarianza del proceso aleatorio X(t) para
el caso de un proceso estacionario también depende únicamente de la diferencia entre los instantes de observación, y se define por:
CX ( t1 , t2 ) = E ⎡⎣( X ( t1 ) − µ X ) ( X ( t2 ) − µ X ) ⎤⎦ CX ( t1 , t2 ) = RX ( t2 − t1 ) − µ X2
Los procesos estocásticos que cumplen con las dos
condiciones anteriores: media constante, y función de autocorrelación dependiente únicamente de la diferencia entre los instantes de observación se denominan estacionarios en sentido amplio. 18/09/2008
René René Játiva Espinoza
Ergodicidad El valor esperado o la media de las muestras
(ensemble average) en un proceso estocástico son promedios para instantes fijos de tiempo tomados para varias realizaciones del proceso. Si definimos el promedio temporal (time average) a lo largo del proceso como ux(T), y la media del proceso X(t) como uX podemos decir que X(t) es ergódico en la media si se cumplen las dos condiciones siguientes: T 1 lim µ x (T ) = µ X ; siendo µ x (T ) = x ( t ) dt ∫ T ⎯⎯ →∞ 2T −T
lim var ⎡⎣ µ x (T ) ⎤⎦ = 0 T ⎯⎯ →∞ 18/09/2008
René René Játiva Espinoza
Ergodicidad Si definimos la función de autocorrelación de la señal
promediada en el tiempo como Rx(τ,T), y notando que corresponde a una variable aleatoria, puede decirse que el proceso X(t) es ergódico en la función de autocorrelación si se satisfacen las dos condiciones siguientes: T 1 x ( t + τ ) x ( t ) dt lim Rx (τ , T ) = RX (τ ) ; siendo Rx (τ , T ) = ∫ T ⎯⎯ →∞ 2T −T lim var ⎡⎣ Rx (τ , T ) ⎤⎦ = 0
T ⎯⎯ →∞
Para que X(t) sea ergódico se requiere que X(t) sea
estacionario en sentido amplio 18/09/2008
René René Játiva Espinoza
Densidad Espectral de Potencia Puede demostrarse que el valor medio cuadrado a la
salida de un filtro estable, lineal e invariante en el tiempo, en respuesta a un proceso estacionario en sentido amplio es igual a la integral sobre todas las frecuencias de la densidad espectral de potencia Sx(f) del proceso estocástico de entrada multiplicado por el cuadrado de la magnitud de la función de transferencia del filtro:
E ⎡⎣Y
∞
2
( t ) ⎤⎦ = ∫
SX ( f ) =
H ( f ) S X ( f ) df 2
−∞
∞
∫ R (τ ) exp ( − j 2π f τ )dτ X
−∞ 18/09/2008
René René Játiva Espinoza
Densidad Espectral de Potencia: Demostración E ⎡⎣Y 2 ( t ) ⎤⎦ = RY ( 0 ) = h (τ 1 ) =
∞ ∞
∫ ∫ h (τ ) h (τ ) R (τ 1
2
X
2
− τ 1 )dτ 1dτ 2
−∞ −∞
∞
∫ H ( f ) exp ( j 2π f τ )df 1
−∞
⎡∞ ⎤ ⎡ ⎤ E ⎣Y ( t ) ⎦ = ∫ ∫ ⎢ ∫ H ( f ) exp ( j 2π f τ 1 )df ⎥ h (τ 2 ) RX (τ 2 − τ 1 )dτ 1dτ 2 −∞ −∞ ⎣ −∞ ⎦ ∞ ∞
2
∞
=
∞
∞
∫ dfH ( f ) ∫ dτ h (τ ) ∫ R (τ 2
−∞
−∞
2
X
2
− τ 1 ) exp ( j 2π f τ 1 )dτ 1
−∞
Si τ = τ 2 − τ 1 ; Note que : H
∞
*
( f ) = ∫ dτ 2 h (τ 2 ) exp ( j 2π f τ 2 ) −∞
E ⎡⎣Y 2 ( t ) ⎤⎦ = 18/09/2008
∞
∞
∞
∫ dfH ( f ) ∫ dτ h (τ ) exp ( j 2π f τ ) ∫ R (τ ) exp ( − j 2π f τ )dτ 2
−∞
2
−∞
2
X
−∞
René René Játiva Espinoza
Propiedades de la Densidad Espectral de Potencia Relaciones de Einstein-Wiener-Khintchine Establecen que la densidad espectral de potencia Sx(f) y la función de autocorrelación RX(τ) de un proceso estocástico estacionario en sentido amplio X(t) forman un par de transformadas de Fourier. Por ende definida una de ellas, la otra puede conocerse perfectamente. SX ( f ) =
∞
∫ R (τ ) exp ( − j 2π f τ )dτ X
−∞
RX (τ ) =
∞
∫ S ( f ) exp ( j 2π f τ )df X
−∞ 18/09/2008
René René Játiva Espinoza
Correlación Cruzada y Densidad Espectral Cruzada
Sean dos procesos estocásticos
X(t) e Y(t) con funciones de autocorrela-ción Rx(t,u) y Ry(t,u). Las dos funciones de correlación cruzada de X(t) e Y(t) se definen por: Rxy(t,u)=E[X(t)Y(u)], y Ryx(t,u)=E[Y(t)X(u)] R(t,u) es la matriz de correlación de los procesos aleatorios X(t) e Y(t), y en caso de que ambos procesos sean estacionarios en sentido amplio y conjuntamente estacionarios en sentido amplio, se reduce a R(τ) 18/09/2008
René René Játiva Espinoza
⎡ Rx ( t , u ) Rxy ( t , u ) ⎤ R (t, u ) = ⎢ ⎥ R t , u R t , u ( ) ( ) y ⎣ yx ⎦ ⎡ Rx (τ ) Rxy (τ ) ⎤ R (τ ) = ⎢ ⎥ τ τ R R ( ) ( ) y ⎣ yx ⎦
τ = t − u Por Redefinición Rxy (τ ) = Ryx ( −τ )
Correlación Cruzada y Densidad Espectral Cruzada Sean dos procesos estocásticos X(t) e Y(t) conjuntamente estacionarios en sentido amplio y con funciones de autocorrelación Rxy(τ) y Ryx(τ) respectivamente. Las densidades espectrales cruzadas Sxy(f) y∞ Syx(f), se definen por: ∞ Sxy ( f ) = ∫ Rxy (τ ) exp( − j2π f τ ) dt Syx ( f ) = ∫ Ryx (τ ) exp( − j2π f τ ) dt −∞
−∞
∞
Rxy (τ ) = ∫ Sxy ( f ) exp( j2π f τ ) df −∞
Ryx (τ ) = ∫ Syx ( f ) exp( j2π f τ ) dt
Sxy ( f ) = Syx ( − f ) = S*yx ( f ) 18/09/2008
∞
René René Játiva Espinoza
−∞
Ejercicio: Haykin 4.6 Un proceso estocástico X(t) se define como sigue, donde A es una variable aleatoria con distribución Gaussiana de media cero y varianza σA2. Este proceso se aplica a un integrador ideal, produciendo la salida Y(t). A) Determine la función de densidad de probabilidad (pdf) de la salida Y(t) para un instante particular tk. B) Determine si Y(t) es estacionaria o no. C) Determine si Y(t) es ergódico o no. t
X ( t ) = A cos ( 2π f c t ) ; Y ( t ) = ∫ X (τ )dτ 0
18/09/2008
René René Játiva Espinoza
Ejercicio: Haykin 4.6 a) Determinemos Y(t) y su pdf: t
A sin ( 2π fct ) Y ( t ) = ∫ X (τ )dτ → Y ( t ) = 2π fc 0 2π fc y A sin ( 2π fctk ) → A = y = Y ( t = tk ) = 2π fc sin ( 2π fctk ) dy sin ( 2π fctk ) = ; 2π fc dA 18/09/2008
f a ( A) =
1
σA
René René Játiva Espinoza
⎡ A2 ⎤ exp ⎢− 2 ⎥ 2π ⎣ 2σ A ⎦
Ejercicio Haykin 4.6 a) f a ( A) fy ( y) = dy dA A=
2 2 ⎡ ⎤ 2π f ) y ( 2π fc exp ⎢− 2 2⎥ σ A 2π ⎢⎣ 2sin ( 2π fctk ) σ A ⎥⎦ = sin ( 2π fctk ) y
sin ( 2π fctk )
2π fc fy ( y) = sin ( 2π fctk ) σ A → σ y2 =
18/09/2008
sin 2 ( 2π fctk ) σ A2
( 2π f )
2
2 2 ⎡ ⎤ 2π f ) y ( exp ⎢− 2 2⎥ 2π ⎢⎣ 2sin ( 2π fctk ) σ A ⎥⎦
; y = E { y} = 0
René René Játiva Espinoza
Ejercicio: Haykin 4.6 b) y c) Puesto que la pdf de la v.a. y corresponde a una distribución gaussiana de media cero, para determinar si el proceso Y(t) es estacionario resta determinar si su función de autocorrelación depende únicamente de la diferencia entre los dos instantes 2 de observación: ⎧⎛ ⎫⎪ ⎪ A ⎞ Ryt yt +τ = E { yt yt +τ } = E ⎨⎜ ⎟ sin ( 2π f c t ) sin ⎡⎣ 2π f c ( t + τ ) ⎤⎦ ⎬ 2π f c ⎠ ⎩⎪⎝ ⎭⎪ 1 2 ⎧ cos ( 2π f cτ ) + cos [ 4π f c t + 2π f cτ ] ⎫ Ryt yt +τ = 2 2 E { A } ⎨ ⎬ 4π f c 2 ⎩ ⎭
→ Ryt yt +τ = f (τ , t ) → Y ( t ) no es estacionario → no es ergódico 18/09/2008
René René Játiva Espinoza
Aplicaciones de los Procesos Estocásticos Estimación de Variable Aleatoria
18/09/2008
René René Játiva Espinoza
Valor Esperado Condicional El valor esperado condicional (media condicional) de
la función g(y) dada la condición M, puede calcularse a partir de la función de densidad condicional f(y|M). De forma similar la media condicional y la varianza condicional de y asumiendo que x=x, también se calculan a partir de f(y|M) como sigue: ∞
E {g ( y ) | M } =
∫ g ( y ) f ( y | M ) dy
−∞
η y| x = E {y | x} =
∞
∫ yf ( y | x ) dy
−∞
σ 18/09/2008
2 y| x
{
}
= E ( y − η y| x ) | x = 2
∞
∫ ( y − η ) f ( y | x ) dy 2
y| x
−∞
René René Játiva Espinoza
Valor Esperado Condicional Note que para un valor dado de x, la integral
correspondiente a la media condicional es el centro de gravedad de las masas en la tira diagonal infinitesimal (x,x+dx); y que el lugar geométrico de estos puntos conforme x varía entre –infinito e infinito se conoce como curva de regresión:
ϕ ( x) =
∞
∫ yf ( y | x ) dy
−∞
E {ϕ ( x )} = E {ϕ ( x )} =
∞
∞
∞
−∞
−∞
−∞
∫ ϕ ( x ) f ( x ) dx = ∫ f ( x ) ∫ yf ( y | x ) dydx
∞ ∞
∫ ∫ yf ( x, y ) dxdy = E {y}
−∞ −∞ 18/09/2008
René René Játiva Espinoza
Estimación de Variables Aleatorias La estimación es un problema fundamental en las
aplicaciones de la probabilidad. Dado un conjunto de observaciones de una o varias variables aleatorias, la estimación pretende predecir el valor de una o algunas de estas v.a, en la siguiente realización. La estimación de una v.a, puede hacerse por una constante c, o por una función de una o varias v.a, c(x), por ejemplo. La estimación se basa en minimizar algún criterio de error, como puede ser la media o la varianza del error cometido entre los valores estimados y los datos proporcionados. 18/09/2008
René René Játiva Espinoza
Estimación de Variables Aleatorias Cuando se utiliza como criterio a minimizar el valor
medio del error absoluto, y se estima la v.a, como una constante, el valor óptimo de esta constante c es la mediana de los datos, mientras que si se minimiza la varianza del error, el valor óptimo de c corresponde a la media de los datos:
{
e = E (y − c)
2
∞
} = ∫ ( y − c)
2
f ( y ) dy
−∞
∞
∞
de = ∫ 2 ( y − c ) f ( y ) dy = 0 → c = ∫ yf ( y ) dy dc −∞ −∞ → c = E {y} =
∞
∫ yf ( y ) dy
−∞ 18/09/2008
René René Játiva Espinoza
Estimación No Lineal de Mínimos Cuadrados Cuando se desea estimar la v.a, y por una función
c(x), de la v.a, x, el estimador de mínimos cuadrados (“mean square” MS) es una función de x, y corresponde a la curva de regresión, como se expresa a continuación:
{
e = E ( y − c ( x))
2
c ( x ) = E {y | x} =
} = ∫ ∫ ⎡⎣ y − c ( x )⎤⎦ ∞ ∞
−∞ −∞
∞
∫ yf ( y | x ) dy
−∞ 18/09/2008
René René Játiva Espinoza
2
f ( x, y ) dxdy
Estimación No Lineal de Mínimos Cuadrados: Demostración
{
e = E ( y − c ( x )) e=
2
} = ∫ ∫ ⎡⎣ y − c ( x )⎤⎦ ∞ ∞
2
f ( x, y ) dxdy
−∞ −∞
∞
∞
−∞
−∞
∫ f ( x ) ∫ ⎡⎣ y − c ( x )⎤⎦ f ( y | x ) dxdy 2
∞
→ Debe minimizarse :
∫ ⎡⎣ y − c ( x )⎤⎦ f ( y | x ) dy 2
∀x
−∞ ∞
∞
2 ∂ − y c x ⎡ ⎤ ( )⎦ f ( y | x ) dy = 0 → −2 ∫ ⎡⎣ y − c ( x )⎤⎦ f ( y | x ) dy = 0 ⎣ ∫ ∂c ( x ) −∞ −∞ ∞
∞
∞
−∞
−∞
−∞
∫ yf ( y | x ) dy − c ( x ) ∫ f ( y | x ) dy = 0 → c ( x ) = E {y | x} = ∫ yf ( y | x ) dy 18/09/2008
René René Játiva Espinoza
Estimación Lineal de Mínimos Cuadrados En una gran variedad de problemas, es suficiente
con utilizar un estimador lineal. Esto es c(x)=Ax+B; donde el problema radica en el cálculo de los coeficientes A y B. Este estimador se conoce como lineal y no homogéneo; mientras que cuando el estimador se calcula haciendo B=0, esto es c(x)=Ax, se dice que el estimador es lineal y homogéneo. En general, el estimador no lineal de y en términos de x no es una línea recta, y el error de mínimos cuadrados resultante es más pequeño del error cometido para el estimador lineal. 18/09/2008
René René Játiva Espinoza
Estimación Lineal de Mínimos Cuadrados Sin embargo cuando las v.a, x e y son conjunta-
mente normales, la curva de regresión es en efecto una recta y los estimadores MS lineal y no lineal son idénticos. Los valores de A y B, y el error MS se calculan como sigue: ∞ ∞
{
e = E ⎡⎣ y − ( Ax + B ) ⎤⎦
µ11 rσ y A= = µ20 σ x emin 18/09/2008
2
} = ∫ ∫ ⎡⎣ y − c ( x )⎤⎦ −∞ −∞
B = η y − Aη x
µ112 = µ02 − = σ y2 (1 − r 2 ) µ02 René René Játiva Espinoza
2
f ( x, y ) dxdy
Estimación Lineal de Mínimos Cuadrados
{
e = E ⎡⎣ y − ( Ax + B ) ⎤⎦
2
} = E{y
2
− 2 y ( Ax + B ) + ( Ax + B )
2
}
∂e = E {−2 y + 2 ( Ax + B )} = 0 → B = E {y} − A{x} ∂B → B = η y − Aη x
{
e = E ⎡⎣ y − ( Ax + η y − Aη x ) ⎤⎦ e=E
2
} = E {⎡⎣( y − η ) − A ( x − η )⎤⎦ } 2
y
x
{( y − η ) − 2 A ( y − η ) ( x − η ) + A ( x − η ) } 2
y
y
x
e = σ y2 − 2 Aσ xy + A2σ x2 = σ y2 − 2 Arσ xσ y + A2σ x2 18/09/2008
2
2
René René Játiva Espinoza
x
Estimación Lineal de Mínimos Cuadrados ∂e = −2rσ xσ y + 2 Aσ x2 ∂A rσ y rσ y → A= → B = ηy − ηx
σx
emin
σx
⎛ rσ y ⎞ 2 2 2 2 2 σ xσ y + ⎜ σ σ σ σy =σ −2 = − r + r 2 ⎟ x y y σx ⎝ σx ⎠ 2 y
rσ y
2
→ emin = σ y2 (1 − r 2 ) 18/09/2008
René René Játiva Espinoza
El Principio de Ortogonalidad A partir del criterio de minimización, puede
demostrarse que el error de estimación, y-(Ax+B), es ortogonal a los datos x. Este hecho se conoce como principio de ortogonalidad:
{
e = E ⎡⎣ y − ( Ax + B ) ⎤⎦
2
}
∂e = E 2 ⎡⎣ y − ( Ax + B ) ⎤⎦ ( − x ) = 0 ∂A
{
}
{
}
→ E ⎡⎣ y − ( Ax + B ) ⎤⎦ ( x ) = 0 18/09/2008
René René Játiva Espinoza
Estimación Lineal de Mínimos Cuadrados Homogénea El problema consiste en determinar el valor de la
constante a, de forma que el error de mínimos cuadrados, e=E{(y-ax)2}, sea mínimo:
{
e = E ⎡⎣ y − ( ax ) ⎤⎦
2
}
∂e = E {2 [ y − ax ] ( x )} = 0 ∂a
E {xy} − aE {x
2
}=0→a=
Eˆ {y | x} = ax 18/09/2008
René René Játiva Espinoza
E{xy}
{ }
E x2
Ejercicios: Fabrega C5-1 Las v.a, x e y tienen las función de densidad f(x,y).
Se quiere estimar y mediante la función lineal ax+b. Calcule a y b para que el error cuadrático sea mínimo y encuentre este error. ⎧⎪ x + y si x ∈ ( 0,1) ; y ∈ ( 0,1) f ( x, y ) = ⎨ de otra forma ⎪⎩0
σ xy a = 2 ; b = η y − aη x σx ηx =
∞
∫ xf ( x ) dx; x
−∞ 18/09/2008
fx ( x) =
∞
∫
−∞
1
1 f ( x, y ) dy = ∫ ( x + y ) dy = x + 2 0
René René Játiva Espinoza
Ejercicios: Fabrega C5-1 ∞
∞
1
1
−∞
−∞
0
0
∫ x ∫ f ( x, y ) dydx = ∫ x ∫ ( x + y ) dydx
ηx =
1
1 1 7 ⎛ 2 1 ⎞ → η x = ∫ ⎜ x + x ⎟ dx = + = 2 ⎠ 3 4 12 0⎝ ∞
∞
−∞
−∞
ηy =
∫ y∫
1
1
7 f ( x, y ) dxdy = ∫ y ∫ ( x + y ) dxdy = 12 0 0 2
1
7⎞ ⎛ 1⎞ 11 ⎛ σ = ∫ ⎜ x − ⎟ ⎜ x + ⎟ dy = = σ y2 12 ⎠ ⎝ 2⎠ 144 0⎝ 2 x
σ xy =
∞ ∞
∫ ∫ ( x − η ) ( y − η ) f ( x, y ) dxdy x
y
−∞ −∞ 18/09/2008
René René Játiva Espinoza
Ejercicios: Fabrega C5-1 σ xy =
∞ ∞
∫ ∫ ( x − η ) ( y − η ) f ( x, y ) dxdy x
y
−∞ −∞ 1 1
1 1
0 0
0 0
σ xy = ∫ ∫ ( x − η x ) ( y − η y ) ( x + y ) dxdy = ∫ ∫ xy ( x + y ) dxdy − η xη y σ xy
1 1
1 1
49 49 2 2 = ∫ ∫ xy ( x + y ) dxdy − = ∫ ∫ ( x y + xy ) dxdy − 144 0 0 144 0 0
1 1 49 1 σ xy = + − =− 6 6 144 144 → σ xy = −1/144 18/09/2008
René René Játiva Espinoza
Ejercicios: Fabrega C5-1 σ xy a = 2 ; b = η y − aη x σx −1/144 1 7 7 →a= = −1/11 → b = η y + η x = + = 7 /11 11/144 11 12 132 emin
σ xy = σ (1 − r ) ; r = σ xσ y
→ emin
18/09/2008
2 y
2
11 ⎡ ⎛ −1/144 ⎞ = ⎢1 − ⎜ ⎟ 144 ⎢⎣ ⎝ 11/144 ⎠
2
⎤ ⎥ = 5 / 66 ⎥⎦
René René Játiva Espinoza
Ejercicios: Fabrega C5-2 Dadas las v.a, x e y con función de densidad
conjunta fXY(x,y), calcule la curva de regresión de x sobre y: ⎧2 si 0 < x < y < 1 f xy ( x, y ) = ⎨ ⎩0 de otra forma ∞ ∞ f xy ( x, y ) E { x | y} = ∫ xf x|y = y ( x ) dx = ∫ x dx f ( y) −∞ −∞ f ( y) =
∞
∫
−∞
y
f xy ( x, y ) dx = ∫ 2dx = 2 y; 0 < y < 1 0
y
1 E { x | y} = ∫ x dx = y / 2 → xˆ = y / 2 y 0 18/09/2008
René René Játiva Espinoza
Lihat lebih banyak...
Comentarios