Probabilidad y Procesos Estocàsticos

October 15, 2017 | Autor: Orianny Abreu | Categoría: Multivariate Statistics
Share Embed


Descripción

Probabilidad y Procesos Estocásticos Aplicaciones

18/09/2008

René René Játiva Espinoza

Procesos Aleatorios o Estocásticos ™ Las señales en comunicaciones tienen las siguientes propiedades: ™Son funciones del tiempo, definidas en cierto intervalo de observación ™Son aleatorias en el sentido que antes de realizar la experiencia no es posible determinar exactamente la forma de onda que será observada. ™ Un proceso aleatorio o estocástico corresponde a un espacio muestral de funciones de tiempo, las cuales asocian una distribución de probabilidad que permite hablar de la probabilidad de los diversos eventos. 18/09/2008

René René Játiva Espinoza

Procesos Aleatorios o Estocásticos ™ La forma de onda observada que se origina en la

variación de la señal a lo largo de un intervalo finito de tiempo se denomina realización o función muestreal. ™ El conjunto de valores provenientes de varias realizaciones, pero correspondientes a un instante determinado dentro del intervalo de observación, constituyen una variable aleatoria. ™ La salida de cada experiencia en un proceso aleatorio corresponde a una forma de onda, mientras que en el caso de una variable aleatoria se asocia a un número. 18/09/2008

René René Játiva Espinoza

Estacionariedad ™ Sea F la función de distribución conjunta del

conjunto de variables aleatorias especificadas. Se dice que el proceso aleatorio X(t) es estacionario en sentido estricto si se cumple la siguiente relación para todos los desplazamientos τ, todo k y todos los posibles intervalos de observación:

FX (t1 +τ )…X (tk +τ ) ( x1 ,… xk ) = FX (t1 )…X (tk ) ( x1 ,… xk )

™ En otras palabras, la distribución conjunta de

cualquier conjunto de variables aleatorias es invariante respecto de la posición del origen t=0. 18/09/2008

René René Játiva Espinoza

Estacionariedad ™ Si k=1 y para el caso de procesos estocásticos

estacionarios se tiene que la distribución de primer orden es independiente del tiempo:

FX (t ) ( x ) = FX (t +τ ) ( x ) = FX ( x ) ™ Si k=2 y se hace τ=-t1, se demuestra que para

procesos aleatorios estacionarios, la función de distribución de segundo orden depende únicamente de la diferencia entre los tiempos de observación:

FX (t1 ), X (t2 ) ( x1 , x2 ) = FX ( 0), X ( t2 −t1 ) ( x1 , x2 ) ∀t1 , t2 18/09/2008

René René Játiva Espinoza

Media, Correlación y Covarianza ™ La media de un proceso aleatorio estacionario es una

constante, y se define como:

µ X ( t ) = E ⎡⎣ X ( t ) ⎤⎦ =



∫ xf ( ) ( x ) dx X t

−∞

™ La función de autocorrelación de un proceso

estocástico se define como la esperanza del producto de dos variables aleatorias X(t1), X(t2) que se obtienen de la observación del proceso X(t) en los instantes t1 y t2.. En el caso de procesos estacionarios esta función depende únicamente de la diferencia t2-t1. ∞ ∞ RX ( t1 , t2 ) = E ⎡⎣ X ( t1 ) X ( t2 ) ⎤⎦ =

RX ( t1 , t2 ) = RX ( t2 − t1 ) ∀t1 , t2 18/09/2008

∫ ∫ xx

1 2

−∞ −∞

René René Játiva Espinoza

f X (t1 ), X (t2 ) ( x1 , x2 ) dx1dx2

Media, Correlación y Covarianza ™ La función de autocovarianza del proceso aleatorio X(t) para

el caso de un proceso estacionario también depende únicamente de la diferencia entre los instantes de observación, y se define por:

CX ( t1 , t2 ) = E ⎡⎣( X ( t1 ) − µ X ) ( X ( t2 ) − µ X ) ⎤⎦ CX ( t1 , t2 ) = RX ( t2 − t1 ) − µ X2

™ Los procesos estocásticos que cumplen con las dos

condiciones anteriores: media constante, y función de autocorrelación dependiente únicamente de la diferencia entre los instantes de observación se denominan estacionarios en sentido amplio. 18/09/2008

René René Játiva Espinoza

Ergodicidad ™ El valor esperado o la media de las muestras

(ensemble average) en un proceso estocástico son promedios para instantes fijos de tiempo tomados para varias realizaciones del proceso. Si definimos el promedio temporal (time average) a lo largo del proceso como ux(T), y la media del proceso X(t) como uX podemos decir que X(t) es ergódico en la media si se cumplen las dos condiciones siguientes: T 1 lim µ x (T ) = µ X ; siendo µ x (T ) = x ( t ) dt ∫ T ⎯⎯ →∞ 2T −T

lim var ⎡⎣ µ x (T ) ⎤⎦ = 0 T ⎯⎯ →∞ 18/09/2008

René René Játiva Espinoza

Ergodicidad ™ Si definimos la función de autocorrelación de la señal

promediada en el tiempo como Rx(τ,T), y notando que corresponde a una variable aleatoria, puede decirse que el proceso X(t) es ergódico en la función de autocorrelación si se satisfacen las dos condiciones siguientes: T 1 x ( t + τ ) x ( t ) dt lim Rx (τ , T ) = RX (τ ) ; siendo Rx (τ , T ) = ∫ T ⎯⎯ →∞ 2T −T lim var ⎡⎣ Rx (τ , T ) ⎤⎦ = 0

T ⎯⎯ →∞

™ Para que X(t) sea ergódico se requiere que X(t) sea

estacionario en sentido amplio 18/09/2008

René René Játiva Espinoza

Densidad Espectral de Potencia ™ Puede demostrarse que el valor medio cuadrado a la

salida de un filtro estable, lineal e invariante en el tiempo, en respuesta a un proceso estacionario en sentido amplio es igual a la integral sobre todas las frecuencias de la densidad espectral de potencia Sx(f) del proceso estocástico de entrada multiplicado por el cuadrado de la magnitud de la función de transferencia del filtro:

E ⎡⎣Y



2

( t ) ⎤⎦ = ∫

SX ( f ) =

H ( f ) S X ( f ) df 2

−∞



∫ R (τ ) exp ( − j 2π f τ )dτ X

−∞ 18/09/2008

René René Játiva Espinoza

Densidad Espectral de Potencia: Demostración E ⎡⎣Y 2 ( t ) ⎤⎦ = RY ( 0 ) = h (τ 1 ) =

∞ ∞

∫ ∫ h (τ ) h (τ ) R (τ 1

2

X

2

− τ 1 )dτ 1dτ 2

−∞ −∞



∫ H ( f ) exp ( j 2π f τ )df 1

−∞

⎡∞ ⎤ ⎡ ⎤ E ⎣Y ( t ) ⎦ = ∫ ∫ ⎢ ∫ H ( f ) exp ( j 2π f τ 1 )df ⎥ h (τ 2 ) RX (τ 2 − τ 1 )dτ 1dτ 2 −∞ −∞ ⎣ −∞ ⎦ ∞ ∞

2



=





∫ dfH ( f ) ∫ dτ h (τ ) ∫ R (τ 2

−∞

−∞

2

X

2

− τ 1 ) exp ( j 2π f τ 1 )dτ 1

−∞

Si τ = τ 2 − τ 1 ; Note que : H



*

( f ) = ∫ dτ 2 h (τ 2 ) exp ( j 2π f τ 2 ) −∞

E ⎡⎣Y 2 ( t ) ⎤⎦ = 18/09/2008







∫ dfH ( f ) ∫ dτ h (τ ) exp ( j 2π f τ ) ∫ R (τ ) exp ( − j 2π f τ )dτ 2

−∞

2

−∞

2

X

−∞

René René Játiva Espinoza

Propiedades de la Densidad Espectral de Potencia ™ Relaciones de Einstein-Wiener-Khintchine ™Establecen que la densidad espectral de potencia Sx(f) y la función de autocorrelación RX(τ) de un proceso estocástico estacionario en sentido amplio X(t) forman un par de transformadas de Fourier. Por ende definida una de ellas, la otra puede conocerse perfectamente. SX ( f ) =



∫ R (τ ) exp ( − j 2π f τ )dτ X

−∞

RX (τ ) =



∫ S ( f ) exp ( j 2π f τ )df X

−∞ 18/09/2008

René René Játiva Espinoza

Correlación Cruzada y Densidad Espectral Cruzada

™ Sean dos procesos estocásticos

X(t) e Y(t) con funciones de autocorrela-ción Rx(t,u) y Ry(t,u). Las dos funciones de correlación cruzada de X(t) e Y(t) se definen por: Rxy(t,u)=E[X(t)Y(u)], y Ryx(t,u)=E[Y(t)X(u)] ™ R(t,u) es la matriz de correlación de los procesos aleatorios X(t) e Y(t), y en caso de que ambos procesos sean estacionarios en sentido amplio y conjuntamente estacionarios en sentido amplio, se reduce a R(τ) 18/09/2008

René René Játiva Espinoza

⎡ Rx ( t , u ) Rxy ( t , u ) ⎤ R (t, u ) = ⎢ ⎥ R t , u R t , u ( ) ( ) y ⎣ yx ⎦ ⎡ Rx (τ ) Rxy (τ ) ⎤ R (τ ) = ⎢ ⎥ τ τ R R ( ) ( ) y ⎣ yx ⎦

τ = t − u Por Redefinición Rxy (τ ) = Ryx ( −τ )

Correlación Cruzada y Densidad Espectral Cruzada Sean dos procesos estocásticos X(t) e Y(t) conjuntamente estacionarios en sentido amplio y con funciones de autocorrelación Rxy(τ) y Ryx(τ) respectivamente. Las densidades espectrales cruzadas Sxy(f) y∞ Syx(f), se definen por: ∞ Sxy ( f ) = ∫ Rxy (τ ) exp( − j2π f τ ) dt Syx ( f ) = ∫ Ryx (τ ) exp( − j2π f τ ) dt −∞

−∞



Rxy (τ ) = ∫ Sxy ( f ) exp( j2π f τ ) df −∞

Ryx (τ ) = ∫ Syx ( f ) exp( j2π f τ ) dt

Sxy ( f ) = Syx ( − f ) = S*yx ( f ) 18/09/2008



René René Játiva Espinoza

−∞

Ejercicio: Haykin 4.6 Un proceso estocástico X(t) se define como sigue, donde A es una variable aleatoria con distribución Gaussiana de media cero y varianza σA2. Este proceso se aplica a un integrador ideal, produciendo la salida Y(t). A) Determine la función de densidad de probabilidad (pdf) de la salida Y(t) para un instante particular tk. B) Determine si Y(t) es estacionaria o no. C) Determine si Y(t) es ergódico o no. t

X ( t ) = A cos ( 2π f c t ) ; Y ( t ) = ∫ X (τ )dτ 0

18/09/2008

René René Játiva Espinoza

Ejercicio: Haykin 4.6 a) Determinemos Y(t) y su pdf: t

A sin ( 2π fct ) Y ( t ) = ∫ X (τ )dτ → Y ( t ) = 2π fc 0 2π fc y A sin ( 2π fctk ) → A = y = Y ( t = tk ) = 2π fc sin ( 2π fctk ) dy sin ( 2π fctk ) = ; 2π fc dA 18/09/2008

f a ( A) =

1

σA

René René Játiva Espinoza

⎡ A2 ⎤ exp ⎢− 2 ⎥ 2π ⎣ 2σ A ⎦

Ejercicio Haykin 4.6 a) f a ( A) fy ( y) = dy dA A=

2 2 ⎡ ⎤ 2π f ) y ( 2π fc exp ⎢− 2 2⎥ σ A 2π ⎢⎣ 2sin ( 2π fctk ) σ A ⎥⎦ = sin ( 2π fctk ) y

sin ( 2π fctk )

2π fc fy ( y) = sin ( 2π fctk ) σ A → σ y2 =

18/09/2008

sin 2 ( 2π fctk ) σ A2

( 2π f )

2

2 2 ⎡ ⎤ 2π f ) y ( exp ⎢− 2 2⎥ 2π ⎢⎣ 2sin ( 2π fctk ) σ A ⎥⎦

; y = E { y} = 0

René René Játiva Espinoza

Ejercicio: Haykin 4.6 b) y c) Puesto que la pdf de la v.a. y corresponde a una distribución gaussiana de media cero, para determinar si el proceso Y(t) es estacionario resta determinar si su función de autocorrelación depende únicamente de la diferencia entre los dos instantes 2 de observación: ⎧⎛ ⎫⎪ ⎪ A ⎞ Ryt yt +τ = E { yt yt +τ } = E ⎨⎜ ⎟ sin ( 2π f c t ) sin ⎡⎣ 2π f c ( t + τ ) ⎤⎦ ⎬ 2π f c ⎠ ⎩⎪⎝ ⎭⎪ 1 2 ⎧ cos ( 2π f cτ ) + cos [ 4π f c t + 2π f cτ ] ⎫ Ryt yt +τ = 2 2 E { A } ⎨ ⎬ 4π f c 2 ⎩ ⎭

→ Ryt yt +τ = f (τ , t ) → Y ( t ) no es estacionario → no es ergódico 18/09/2008

René René Játiva Espinoza

Aplicaciones de los Procesos Estocásticos Estimación de Variable Aleatoria

18/09/2008

René René Játiva Espinoza

Valor Esperado Condicional ™ El valor esperado condicional (media condicional) de

la función g(y) dada la condición M, puede calcularse a partir de la función de densidad condicional f(y|M). De forma similar la media condicional y la varianza condicional de y asumiendo que x=x, también se calculan a partir de f(y|M) como sigue: ∞

E {g ( y ) | M } =

∫ g ( y ) f ( y | M ) dy

−∞

η y| x = E {y | x} =



∫ yf ( y | x ) dy

−∞

σ 18/09/2008

2 y| x

{

}

= E ( y − η y| x ) | x = 2



∫ ( y − η ) f ( y | x ) dy 2

y| x

−∞

René René Játiva Espinoza

Valor Esperado Condicional ™ Note que para un valor dado de x, la integral

correspondiente a la media condicional es el centro de gravedad de las masas en la tira diagonal infinitesimal (x,x+dx); y que el lugar geométrico de estos puntos conforme x varía entre –infinito e infinito se conoce como curva de regresión:

ϕ ( x) =



∫ yf ( y | x ) dy

−∞

E {ϕ ( x )} = E {ϕ ( x )} =







−∞

−∞

−∞

∫ ϕ ( x ) f ( x ) dx = ∫ f ( x ) ∫ yf ( y | x ) dydx

∞ ∞

∫ ∫ yf ( x, y ) dxdy = E {y}

−∞ −∞ 18/09/2008

René René Játiva Espinoza

Estimación de Variables Aleatorias ™ La estimación es un problema fundamental en las

aplicaciones de la probabilidad. ™ Dado un conjunto de observaciones de una o varias variables aleatorias, la estimación pretende predecir el valor de una o algunas de estas v.a, en la siguiente realización. ™ La estimación de una v.a, puede hacerse por una constante c, o por una función de una o varias v.a, c(x), por ejemplo. ™ La estimación se basa en minimizar algún criterio de error, como puede ser la media o la varianza del error cometido entre los valores estimados y los datos proporcionados. 18/09/2008

René René Játiva Espinoza

Estimación de Variables Aleatorias ™ Cuando se utiliza como criterio a minimizar el valor

medio del error absoluto, y se estima la v.a, como una constante, el valor óptimo de esta constante c es la mediana de los datos, mientras que si se minimiza la varianza del error, el valor óptimo de c corresponde a la media de los datos:

{

e = E (y − c)

2



} = ∫ ( y − c)

2

f ( y ) dy

−∞





de = ∫ 2 ( y − c ) f ( y ) dy = 0 → c = ∫ yf ( y ) dy dc −∞ −∞ → c = E {y} =



∫ yf ( y ) dy

−∞ 18/09/2008

René René Játiva Espinoza

Estimación No Lineal de Mínimos Cuadrados ™ Cuando se desea estimar la v.a, y por una función

c(x), de la v.a, x, el estimador de mínimos cuadrados (“mean square” MS) es una función de x, y corresponde a la curva de regresión, como se expresa a continuación:

{

e = E ( y − c ( x))

2

c ( x ) = E {y | x} =

} = ∫ ∫ ⎡⎣ y − c ( x )⎤⎦ ∞ ∞

−∞ −∞



∫ yf ( y | x ) dy

−∞ 18/09/2008

René René Játiva Espinoza

2

f ( x, y ) dxdy

Estimación No Lineal de Mínimos Cuadrados: Demostración

{

e = E ( y − c ( x )) e=

2

} = ∫ ∫ ⎡⎣ y − c ( x )⎤⎦ ∞ ∞

2

f ( x, y ) dxdy

−∞ −∞





−∞

−∞

∫ f ( x ) ∫ ⎡⎣ y − c ( x )⎤⎦ f ( y | x ) dxdy 2



→ Debe minimizarse :

∫ ⎡⎣ y − c ( x )⎤⎦ f ( y | x ) dy 2

∀x

−∞ ∞



2 ∂ − y c x ⎡ ⎤ ( )⎦ f ( y | x ) dy = 0 → −2 ∫ ⎡⎣ y − c ( x )⎤⎦ f ( y | x ) dy = 0 ⎣ ∫ ∂c ( x ) −∞ −∞ ∞





−∞

−∞

−∞

∫ yf ( y | x ) dy − c ( x ) ∫ f ( y | x ) dy = 0 → c ( x ) = E {y | x} = ∫ yf ( y | x ) dy 18/09/2008

René René Játiva Espinoza

Estimación Lineal de Mínimos Cuadrados ™ En una gran variedad de problemas, es suficiente

con utilizar un estimador lineal. Esto es c(x)=Ax+B; donde el problema radica en el cálculo de los coeficientes A y B. ™ Este estimador se conoce como lineal y no homogéneo; mientras que cuando el estimador se calcula haciendo B=0, esto es c(x)=Ax, se dice que el estimador es lineal y homogéneo. ™ En general, el estimador no lineal de y en términos de x no es una línea recta, y el error de mínimos cuadrados resultante es más pequeño del error cometido para el estimador lineal. 18/09/2008

René René Játiva Espinoza

Estimación Lineal de Mínimos Cuadrados ™ Sin embargo cuando las v.a, x e y son conjunta-

mente normales, la curva de regresión es en efecto una recta y los estimadores MS lineal y no lineal son idénticos. Los valores de A y B, y el error MS se calculan como sigue: ∞ ∞

{

e = E ⎡⎣ y − ( Ax + B ) ⎤⎦

µ11 rσ y A= = µ20 σ x emin 18/09/2008

2

} = ∫ ∫ ⎡⎣ y − c ( x )⎤⎦ −∞ −∞

B = η y − Aη x

µ112 = µ02 − = σ y2 (1 − r 2 ) µ02 René René Játiva Espinoza

2

f ( x, y ) dxdy

Estimación Lineal de Mínimos Cuadrados

{

e = E ⎡⎣ y − ( Ax + B ) ⎤⎦

2

} = E{y

2

− 2 y ( Ax + B ) + ( Ax + B )

2

}

∂e = E {−2 y + 2 ( Ax + B )} = 0 → B = E {y} − A{x} ∂B → B = η y − Aη x

{

e = E ⎡⎣ y − ( Ax + η y − Aη x ) ⎤⎦ e=E

2

} = E {⎡⎣( y − η ) − A ( x − η )⎤⎦ } 2

y

x

{( y − η ) − 2 A ( y − η ) ( x − η ) + A ( x − η ) } 2

y

y

x

e = σ y2 − 2 Aσ xy + A2σ x2 = σ y2 − 2 Arσ xσ y + A2σ x2 18/09/2008

2

2

René René Játiva Espinoza

x

Estimación Lineal de Mínimos Cuadrados ∂e = −2rσ xσ y + 2 Aσ x2 ∂A rσ y rσ y → A= → B = ηy − ηx

σx

emin

σx

⎛ rσ y ⎞ 2 2 2 2 2 σ xσ y + ⎜ σ σ σ σy =σ −2 = − r + r 2 ⎟ x y y σx ⎝ σx ⎠ 2 y

rσ y

2

→ emin = σ y2 (1 − r 2 ) 18/09/2008

René René Játiva Espinoza

El Principio de Ortogonalidad ™ A partir del criterio de minimización, puede

demostrarse que el error de estimación, y-(Ax+B), es ortogonal a los datos x. Este hecho se conoce como principio de ortogonalidad:

{

e = E ⎡⎣ y − ( Ax + B ) ⎤⎦

2

}

∂e = E 2 ⎡⎣ y − ( Ax + B ) ⎤⎦ ( − x ) = 0 ∂A

{

}

{

}

→ E ⎡⎣ y − ( Ax + B ) ⎤⎦ ( x ) = 0 18/09/2008

René René Játiva Espinoza

Estimación Lineal de Mínimos Cuadrados Homogénea ™ El problema consiste en determinar el valor de la

constante a, de forma que el error de mínimos cuadrados, e=E{(y-ax)2}, sea mínimo:

{

e = E ⎡⎣ y − ( ax ) ⎤⎦

2

}

∂e = E {2 [ y − ax ] ( x )} = 0 ∂a

E {xy} − aE {x

2

}=0→a=

Eˆ {y | x} = ax 18/09/2008

René René Játiva Espinoza

E{xy}

{ }

E x2

Ejercicios: Fabrega C5-1 ™ Las v.a, x e y tienen las función de densidad f(x,y).

Se quiere estimar y mediante la función lineal ax+b. Calcule a y b para que el error cuadrático sea mínimo y encuentre este error. ⎧⎪ x + y si x ∈ ( 0,1) ; y ∈ ( 0,1) f ( x, y ) = ⎨ de otra forma ⎪⎩0

σ xy a = 2 ; b = η y − aη x σx ηx =



∫ xf ( x ) dx; x

−∞ 18/09/2008

fx ( x) =





−∞

1

1 f ( x, y ) dy = ∫ ( x + y ) dy = x + 2 0

René René Játiva Espinoza

Ejercicios: Fabrega C5-1 ∞



1

1

−∞

−∞

0

0

∫ x ∫ f ( x, y ) dydx = ∫ x ∫ ( x + y ) dydx

ηx =

1

1 1 7 ⎛ 2 1 ⎞ → η x = ∫ ⎜ x + x ⎟ dx = + = 2 ⎠ 3 4 12 0⎝ ∞



−∞

−∞

ηy =

∫ y∫

1

1

7 f ( x, y ) dxdy = ∫ y ∫ ( x + y ) dxdy = 12 0 0 2

1

7⎞ ⎛ 1⎞ 11 ⎛ σ = ∫ ⎜ x − ⎟ ⎜ x + ⎟ dy = = σ y2 12 ⎠ ⎝ 2⎠ 144 0⎝ 2 x

σ xy =

∞ ∞

∫ ∫ ( x − η ) ( y − η ) f ( x, y ) dxdy x

y

−∞ −∞ 18/09/2008

René René Játiva Espinoza

Ejercicios: Fabrega C5-1 σ xy =

∞ ∞

∫ ∫ ( x − η ) ( y − η ) f ( x, y ) dxdy x

y

−∞ −∞ 1 1

1 1

0 0

0 0

σ xy = ∫ ∫ ( x − η x ) ( y − η y ) ( x + y ) dxdy = ∫ ∫ xy ( x + y ) dxdy − η xη y σ xy

1 1

1 1

49 49 2 2 = ∫ ∫ xy ( x + y ) dxdy − = ∫ ∫ ( x y + xy ) dxdy − 144 0 0 144 0 0

1 1 49 1 σ xy = + − =− 6 6 144 144 → σ xy = −1/144 18/09/2008

René René Játiva Espinoza

Ejercicios: Fabrega C5-1 σ xy a = 2 ; b = η y − aη x σx −1/144 1 7 7 →a= = −1/11 → b = η y + η x = + = 7 /11 11/144 11 12 132 emin

σ xy = σ (1 − r ) ; r = σ xσ y

→ emin

18/09/2008

2 y

2

11 ⎡ ⎛ −1/144 ⎞ = ⎢1 − ⎜ ⎟ 144 ⎢⎣ ⎝ 11/144 ⎠

2

⎤ ⎥ = 5 / 66 ⎥⎦

René René Játiva Espinoza

Ejercicios: Fabrega C5-2 ™ Dadas las v.a, x e y con función de densidad

conjunta fXY(x,y), calcule la curva de regresión de x sobre y: ⎧2 si 0 < x < y < 1 f xy ( x, y ) = ⎨ ⎩0 de otra forma ∞ ∞ f xy ( x, y ) E { x | y} = ∫ xf x|y = y ( x ) dx = ∫ x dx f ( y) −∞ −∞ f ( y) =





−∞

y

f xy ( x, y ) dx = ∫ 2dx = 2 y; 0 < y < 1 0

y

1 E { x | y} = ∫ x dx = y / 2 → xˆ = y / 2 y 0 18/09/2008

René René Játiva Espinoza

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.