Revisión de Procesos Estocásticos Regenerativos

June 15, 2017 | Autor: C. Martínez Rodrí... | Categoría: Stochastic processes, Renewal Processes, Regenerative Processes, Stationary Stochastic Processes
Share Embed


Descripción

Revisi´ on de Procesos de Renovaci´ on y Regenerativos Carlos E. Mart´ınez Rodr´ıguez Academia de Matem´aticas Academia de Modelaci´on Matem´atica Plantel Casa Libertad Universidad Aut´ onoma de la Ciudad de M´ exico Correo Electr´onico: [email protected] y [email protected] carlosmartinez.expresauacm.org December 9, 2015

Contents 1 Procesos Estoc´ asticos: Thorisson

2

2 Procesos Regenerativos

7

2.1

Procesos Regenerativos Sigman, Thorisson y Wolff [12] . . . . . . . . . . . . . . . .

7

2.2

Procesos Regenerativos Estacionarios - Stidham [14] . . . . . . . . . . . . . . . . .

9

3 Procesos de Renovaci´ on

10

3.1

Teorema Principal de Renovaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

3.2

Propiedades de los Procesos de Renovaci´on . . . . . . . . . . . . . . . . . . . . . .

12

3.3

Funci´ on de Renovaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21

4 Renewal and Regenerative Processes: Serfozo[11]

23

5 Ejemplos, Notas importantes

33

5.1

Procesos Regenerativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6 Resultados para Procesos de Salida

33 38

1

1

1

´ PROCESOS ESTOCASTICOS: THORISSON

2

Procesos Estoc´ asticos: Thorisson

Definici´ on 1.1. Un elemento aleatorio en un espacio medible (E, E) en un espacio de probabilidad (Ω, F, P) a (E, E), es decir, para A ∈ E, se tiene que {Y ∈ A} ∈ F, donde {Y ∈ A} := {w ∈ Ω : Y (w) ∈ A} =: Y −1 A. Nota 1.1. Tambi´en se dice que Y est´ a soportado por el espacio de probabilidad (Ω, F, P) y que Y es un mapeo medible de Ω en E, es decir, es F/E medible. Definici´ on 1.2. Para cada i ∈ I sea Pi una medida de probabilidad en un espacio medible (Ei , Ei ).  Q Q Se define el espacio producto ⊗i∈I (Ei , Ei ) := i∈I Ei , ⊗i∈I Ei , donde i∈I Ei es el producto cartesiano de los Ei ’s, y ⊗i∈I Ei es la σ-´ algebra producto, es decir, es la σ-´ algebra m´ as peque˜ na Q en i∈I Ei que hace al i-´esimo mapeo proyecci´ on en Ei medible para toda i ∈ I es la σ-´ algebra inducida por los mapeos proyecci´ on. ⊗i∈I Ei := σ {{y : yi ∈ A} : i ∈ I y A ∈ Ei } .   ˜ es una extensi´ ˜ F, ˜ P Definici´ on 1.3. Un espacio de probabilidad Ω, on de otro espacio de   ˜ soporta un elemento aleatorio ξ ∈ (Ω, F) que tienen a P como ˜ F, ˜ P probabilidad (Ω, F, P) si Ω, distribuci´ on. Teorema 1.1. Sea I un conjunto de ´ındices arbitrario. Para cada i ∈ I sea Pi una medida de probabilidad en un espacio medible (Ei , Ei ). Entonces existe una u ´nica medida de probabilidad ⊗i∈I Pi en ⊗i∈I (Ei , Ei ) tal que ! ⊗i∈I Pi

y∈

Y

Ei : yi ∈ Ai1 , . . . , yn ∈ Ain

= Pi1 (Ain ) · · · Pin (Ain )

i∈I

para todos los enteros n > 0, toda i1 , . . . , in ∈ I y todo Ai1 ∈ Ei1 , . . . , Ain ∈ Ein La medida ⊗i∈I Pi es llamada la medida producto y ⊗i∈I (Ei , Ei , Pi ) :=

Q

i∈I , Ei , ⊗i∈I Ei , ⊗i∈I Pi



,

es llamado espacio de probabilidad producto. Definici´ on 1.4. Un espacio medible (E, E) es Polaco si existe una m´etrica en E tal que E es completo, es decir cada sucesi´ on de Cauchy converge a un l´ımite en E, y separable, E tienen un subconjunto denso numerable, y tal que E es generado por conjuntos abiertos. Definici´ on 1.5. Dos espacios medibles (E, E) y (G, G) son Borel equivalentes isomorfos si existe una biyecci´ on f : E → G tal que f es E/G medible y su inversa f −1 es G/E medible. La biyecci´ on es una equivalencia de Borel. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

1

´ PROCESOS ESTOCASTICOS: THORISSON

3

Definici´ on 1.6. Un espacio medible (E, E) es un espacio est´ andar si es Borel equivalente a (G, G), donde G es un subconjunto de Borel de [0, 1] y G son los subconjuntos de Borel de G. Nota 1.2. Cualquier espacio Polaco es un espacio est´ andar. Definici´ on 1.7. Un proceso estoc´ astico con conjunto de ´ındices I y espacio de estados (E, E) es una familia Z = (Zs )s∈I donde Zs son elementos aleatorios definidos en un espacio de probabilidad com´ un (Ω, F, P) y todos toman valores en (E, E). Definici´ on 1.8. Un proceso estoc´ astico one-sided contiuous time (PEOSCT) es un proceso estoc´ astico con conjunto de ´ındices I = [0, ∞).   Sea E I , E I denota el espacio producto E I , E I := ⊗s∈I (E, E). Vamos a considerar Z como un  mapeo aleatorio, es decir, como un elemento aleatorio en E I , E I definido por Z (w) = (Zs (w))s∈I y w ∈ Ω. Nota 1.3. La distribuci´ on de un proceso estoc´ astico Z es la distribuci´ on de Z como un  elemento aleatorio en E I , E I . La distribuci´ on de Z esta determinada de manera u ´nica por las distribuciones finito dimensionales. Nota 1.4. En particular cuando Z toma valores reales, es decir, (E, E) = (R, B) las distribuciones finito dimensionales est´ an determinadas por las funciones de distribuci´ on finito dimensionales

P (Zt1 ≤ x1 , . . . , Ztn ≤ xn ) , x1 , . . . , xn ∈ R, t1 , . . . , tn ∈ I, n ≥ 1.

(1)

Nota 1.5. Para espacios polacos (E, E) el Teorema de Consistencia de Kolmogorov asegura que dada una colecci´ on de distribuciones finito dimensionales consistentes, siempre existe un proceso estoc´ astico que posee tales distribuciones finito dimensionales. Definici´ on 1.9. Las trayectorias de Z son las realizaciones Z (w) para w ∈ Ω del mapeo aleatorio Z. Nota 1.6. Algunas restricciones se imponen sobre las trayectorias, por ejemplo que sean continuas por la derecha, o continuas por la derecha con l´ımites por la izquierda, o de manera m´ as general, se pedir´ a que caigan en alg´ un subconjunto H de E I . En este caso es natural considerar a Z como  un elemento aleatorio que no est´ a en E I , E I sino en (H, H), donde H es la σ-´ algebra generada

Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

1

´ PROCESOS ESTOCASTICOS: THORISSON

4

por los mapeos proyecci´ on que toman a z ∈ H a zt ∈ E para t ∈ I. A H se le conoce como la traza de H en E I , es decir, n o H := E I ∩ H := A ∩ H : A ∈ E I .

(2)

Nota 1.7. Z tiene trayectorias con valores en H y cada Zt es un mapeo medible de (Ω, F) a (H, H). Cuando se considera un espacio de trayectorias en particular H, al espacio (H, H) se le llama el espacio de trayectorias de Z. Nota 1.8. La distribuci´ on del proceso estoc´ astico Z con espacio de trayectorias (H, H) es la distribuci´ on de Z como un elemento aleatorio en (H, H). La distribuci´ on, nuevemente, est´ a determinada de manera u ´nica por las distribuciones finito dimensionales. Definici´ on 1.10. Sea Z un PEOSCT con espacio de estados (E, E) y sea T un tiempo aleatorio en [0, ∞). Por ZT se entiende el mapeo con valores en E definido en Ω en la manera obvia: ZT (w) := ZT (w) (w) .w ∈ Ω. Definici´ on 1.11. Un PEOSCT Z es conjuntamente medible (CM) si el mapeo que toma (w, t) ∈ Ω × [0, ∞) a Zt (w) ∈ E es F ⊗ B [0, ∞) /E medible. Nota 1.9. Un PEOSCT-CM implica que el proceso es medible, dado que ZT es una composici´ on de dos mapeos continuos: el primero que toma w en (w, T (w)) es F/F ⊗B [0, ∞) medible, mientras que el segundo toma (w, T (w)) en ZT (w) (w) es F ⊗ B [0, ∞) /E medible. Definici´ on 1.12. Un PEOSCT con espacio de estados (H, H) es can´ onicamente conjuntamente medible (CCM) si el mapeo (z, t) ∈ H × [0, ∞) en Zt ∈ E es H ⊗ B [0, ∞) /E medible. Nota 1.10. Un PEOSCTCCM implica que el proceso es CM, dado que un PECCM Z es un mapeo de Ω × [0, ∞) a E, es la composici´ on de dos mapeos medibles: el primero, toma (w, t) en (Z (w) , t) es F ⊗ B [0, ∞) /H ⊗ B [0, ∞) medible, y el segundo que toma (Z (w) , t) en Zt (w) es H ⊗ B [0, ∞) /E medible. Por tanto CCM es una condici´ on m´ as fuerte que CM. Definici´ on 1.13. Un conjunto de trayectorias H de un PEOSCT Z, es internamente shiftinvariante (ISI) si n o (zt+s )s∈[0,∞) : z ∈ H = H, t ∈ [0, ∞) .

Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

1

´ PROCESOS ESTOCASTICOS: THORISSON

5

Definici´ on 1.14. Dado un PEOSCTISI, se define el mapeo-shift θt , t ∈ [0, ∞), de H a H por θt z = (zt+s )s∈[0,∞) , z ∈ H. Definici´ on 1.15. Se dice que un proceso Z es shift-medible (SM) si Z tiene un conjunto de trayectorias H que es ISI y adem´ as el mapeo que toma (z, t) ∈ H × [0, ∞) en θt z ∈ H es H ⊗ B [0, ∞) /H medible. Nota 1.11. Un proceso estoc´ astico con conjunto de trayectorias H ISI es shift-medible si y s´ olo si es CCM Nota 1.12.

• Dado el espacio polaco (E, E) se tiene el conjunto de trayectorias DE [0, ∞) que

es ISI, entonces cumpe con ser CCM. • Si G es abierto, podemos cubrirlo por bolas abiertas cuay cerradura este contenida en G, y como G es segundo numerable como subespacio de E, lo podemos cubrir por una cantidad numerable de bolas abiertas. Nota 1.13. Los procesos estoc´ asticos Z a tiempo discreto con espacio de estados polaco, tambi´en tiene un espacio de trayectorias polaco y por tanto tiene distribuciones condicionales regulares. Teorema 1.2. El producto numerable de espacios polacos es polaco. Definici´ on 1.16. Sea (Ω, F, P) espacio de probabilidad que soporta al proceso Z = (Zs )s∈[0,∞) y S = (Sk )∞ 0 donde Z es un PEOSCTM con espacio de estados (E, E) y espacio de trayectorias (H, H) y adem´ as S es una sucesi´ on de tiempos aleatorios one-sided que satisfacen la condici´ on 0 ≤ S0 < S1 < · · · → ∞. Considerando S como un mapeo medible de (Ω, F) al espacio sucesi´ on (L, L), donde n o {0,1,...} L = (sk )∞ : s0 < s1 < · · · → ∞ , 0 ∈ [0, ∞) donde L son los subconjuntos de Borel de L, es decir, L = L ∩ B {0,1,...} . As´ı el par (Z, S) es un mapeo medible de (Ω, F) en (H × L, H ⊗ L). El par H ⊗ L+ denotar´ a la clase de todas las funciones medibles de (H × L, H ⊗ L) en ([0, ∞) , B [0, ∞)). Definici´ on 1.17. Sea θt el mapeo-shift conjunto de H × L en H × L dado por ∞  θt (z, (sk )∞ 0 ) = θt z, snt− +k − t 0 donde nt− = inf {n ≥ 1 : sn ≥ t}. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

1

´ PROCESOS ESTOCASTICOS: THORISSON

6

Nota 1.14. Con la finalidad de poder realizar los shift’s sin complicaciones de medibilidad, se supondr´ a que Z es shit-medible, es decir, el conjunto de trayectorias H es invariante bajo shifts del tiempo y el mapeo que toma (z, t) ∈ H × [0, ∞) en zt ∈ E es H ⊗ B [0, ∞) /E medible. Definici´ on 1.18. Dado un proceso PEOSSM (Proceso Estoc´ astico One Side Shift Medible) Z, se dice regenerativo cl´ asico con tiempos de regeneraci´ on S si

 θSn (Z, S) = Z 0 , S 0 , n ≥ 0 y adem´ as θSn (Z, S) es independiente de ((Zs ) s ∈ [0, Sn ) , S0 , . . . , Sn ) Si lo anterior se cumple, al par (Z, S) se le llama regenerativo cl´ asico. Nota 1.15. Si el par (Z, S) es regenerativo cl´ asico, entonces las longitudes de los ciclos X1 , X2 , . . . , son i.i.d. e independientes de la longitud del retraso S0 , es decir, S es un proceso de renovaci´ on. Las longitudes de los ciclos tambi´en son llamados tiempos de inter-regeneraci´ on y tiempos de ocurrencia. Teorema 1.3. Sup´ ongase que el par (Z, S) es regenerativo cl´ asico con E [X1 ] < ∞. Entonces (Z ∗ , S ∗ ) en el teorema 2.1 es una versi´ on estacionaria de (Z, S). Adem´ as, si X1 es lattice con span d, entonces (Z ∗∗ , S ∗∗ ) en el teorema 2.2 es una versi´ on periodicamente estacionaria de (Z, S) con periodo d. Definici´ on 1.19. Una variable aleatoria X1 es spread out si existe una n ≥ 1 y una funci´ on R f ∈ B + tal que R f (x) dx > 0 con X2 , X3 , . . . , Xn copias i.i.d de X1 , Z P (X1 + · · · + Xn ∈ B) ≥

f (x) dx B

para B ∈ B. Definici´ on 1.20. Dado un proceso estoc´ astico Z se le llama wide-sense regenerative (WSR) con  tiempos de regeneraci´ on S si θSn (Z, S) = Z 0 , S 0 para n ≥ 0 en distribuci´ on y θSn (Z, S) es independiente de (S0 , S1 , . . . , Sn ) para n ≥ 0. Se dice que el par (Z, S) es WSR si lo anterior se cumple. Nota 1.16.

• El proceso de trayectorias (θs Z)s∈[0,∞) es WSR con tiempos de regeneraci´ on S

pero no es regenerativo cl´ asico.

Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

2

PROCESOS REGENERATIVOS

7

• Si Z es cualquier proceso estacionario y S es un proceso de renovaci´ on que es independiente de Z, entonces (Z, S) es WSR pero en general no es regenerativo cl´ asico Nota 1.17. Para cualquier proceso estoc´ astico Z, el proceso de trayectorias (θs Z)s∈[0,∞) es siempre un proceso de Markov. Teorema 1.4. Supongase que el par (Z, S) es WSR con E [X1 ] < ∞. Entonces (Z ∗ , S ∗ ) en el teorema 2.1 es una versi´ on estacionaria de (Z, S). Teorema 1.5. Supongase que (Z, S) es cycle-stationary con E [X1 ] < ∞. Sea U distribuida  uniformemente en [0, 1) e independiente de Z 0 , S 0 y sea P∗ la medida de probabilidad en (Ω, P) definida por X1 dP E [X1 ]   . Sea (Z ∗ , S ∗ ) con distribuci´ on P∗ θU X1 Z 0 , S 0 ∈ · . Entonces (Z ∗, S ∗ ) es estacionario, Z X1   ∗ ∗ 0 0 E [f (Z , S )] = E f θs Z , S ds /E [X1 ] dP∗ =

0

f ∈H⊗

L+ ,

and

S0∗

es continuo con funci´ on distribuci´ on G∞ definida por G∞ (x) :=

E [X1 ] ∧ x E [X1 ]

para x ≥ 0 y densidad P [X1 > x] /E [X1 ], con x ≥ 0. Teorema 1.6. Sea Z un Proceso Estoc´ astico un lado shift-medible one-sided shift-measurable stochastic process, (PEOSSM), y S0 y S1 tiempos aleatorios tales que 0 ≤ S0 < S1 y θS1 Z = θS0 Z en distribuci´ on.

(3)

Entonces el espacio de probabilidad subyacente (Ω, F, P) puede extenderse para soportar una sucesi´ on de tiempos aleatorios S tales que

2 2.1

 θSn (Z, S) = Z 0 , S 0 , n ≥ 0, en distribuci´ on,

(4)

(Z, S0 , S1 ) depende de (X2 , X3 , . . .) solamente a traves de θS1 Z.

(5)

Procesos Regenerativos Procesos Regenerativos Sigman, Thorisson y Wolff [12]

Definici´ on 2.1 (Definici´ on Cl´ asica). Un proceso estoc´ astico X = {X (t) : t ≥ 0} es llamado regenerativo is existe una variable aleatoria R1 > 0 tal que Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

2

PROCESOS REGENERATIVOS

8

i) {X (t + R1 ) : t ≥ 0} es independiente de {{X (t) : t < R1 } , } ii) {X (t + R1 ) : t ≥ 0} es estoc´ asticamente equivalente a {X (t) : t > 0} Llamamos a R1 tiempo de regeneraci´ on, y decimos que X se regenera en este punto. {X (t + R1 )} es regenerativo con tiempo de regeneraci´on R2 , independiente de R1 pero con la misma distribuci´ on que R1 . Procediendo de esta manera se obtiene una secuencia de variables aleatorias independientes e id´enticamente distribuidas {Rn } llamados longitudes de ciclo. Si definimos a Zk ≡ R1 + R2 + · · · + Rk , se tiene un proceso de renovaci´on llamado proceso de renovaci´on encajado para X. Nota 2.1. La existencia de un primer tiempo de regeneraci´ on, R1 , implica la existencia de una sucesi´ on completa de estos tiempos R1 , R2 . . . , que satisfacen la propiedad deseada [13]. Nota 2.2. Para la cola GI/GI/1 los usuarios arriban con tiempos tn y son atendidos con tiempos de servicio Sn , los tiempos de arribo forman un proceso de renovaci´ on con tiempos entre arribos independientes e identicamente distribuidos (i.i.d.)Tn = tn − tn−1 , adem´ as los tiempos de servicio son i.i.d. e independientes de los procesos de arribo. Por estable se entiende que ESn < ETn < ∞. Definici´ on 2.2. Para x fijo y para cada t ≥ 0, sea Ix (t) = 1 si X (t) ≤ x, Ix (t) = 0 en caso contrario, y def´ınanse los tiempos promedio

P (X∞

Z 1 ∞ X (u) du X = limt→∞ t 0 Z 1 ∞ ≤ x) = limt→∞ Ix (u) du, t 0

cuando estos l´ımites existan. Como consecuencia del teorema de Renovaci´on-Recompensa, se tiene que el primer l´ımite existe y es igual a la constante X =

E

hR

R1 0

i X (t) dt

E [R1 ]

,

suponiendo que ambas esperanzas son finitas. Nota 2.3. Funciones de procesos regenerativos son regenerativas, es decir, si X (t) es regenerativo y se define el proceso Y (t) por Y (t) = f (X (t)) para alguna funci´ on Borel medible f (·). Adem´ as Y es regenerativo con los mismos tiempos de renovaci´ on que X. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

2

PROCESOS REGENERATIVOS

9

En general, los tiempos de renovaci´ on, Zk de un proceso regenerativo no requieren ser tiempos de paro con respecto a la evoluci´ on de X (t). Nota 2.4. Una funci´ on de un proceso de Markov, usualmente no ser´ a un proceso de Markov, sin embargo ser´ a regenerativo si el proceso de Markov lo es. Nota 2.5. Un proceso regenerativo con media de la longitud de ciclo finita es llamado positivo recurrente. Nota 2.6.

a) Si el proceso regenerativo X es positivo recurrente y tiene trayectorias muestrales

no negativas, entonces la ecuaci´ on anterior es v´ alida. b) Si X es positivo recurrente regenerativo, podemos construir una u ´nica versi´ on estacionaria de este proceso, Xe = {Xe (t)}, donde Xe es un proceso estoc´ astico regenerativo y estrictamente estacionario, con distribuci´ on marginal distribuida como X∞

2.2

Procesos Regenerativos Estacionarios - Stidham [14]

Un proceso estoc´ astico a tiempo continuo {V (t) , t ≥ 0} es un proceso regenerativo si existe una sucesi´on de variables aleatorias independientes e id´enticamente distribuidas {X1 , X2 , . . .}, sucesi´ on de renovaci´on, tal que para cualquier conjunto de Borel A,

 P V (t) ∈ A|X1 + X2 + · · · + XR(t) = s, {V (τ ) , τ < s} = P {V (t − s) ∈ A|X1 > t − s} , para todo 0 ≤ s ≤ t, donde R (t) = max {X1 + X2 + · · · + Xj ≤ t} =n´ umero de renovaciones (puntos de regeneraci´ on) que ocurren en [0, t]. El intervalo [0, X1 ) es llamado primer ciclo de regeneraci´ on de {V (t) , t ≥ 0}, [X1 , X1 + X2 ) el segundo ciclo de regeneraci´ on, y as´ı sucesivamente. Sea X = X1 y sea F la funci´ on de distrbuci´on de X Definici´ on 2.3. Se define el proceso estacionario, {V ∗ (t) , t ≥ 0}, para {V (t) , t ≥ 0} por

P {V (t) ∈ A} =

1 E [X]



Z

P {V (t + x) ∈ A|X > x} (1 − F (x)) dx, 0

para todo t ≥ 0 y todo conjunto de Borel A. Definici´ on 2.4. Una distribuci´ on se dice que es aritm´etica si todos sus puntos de incremento son m´ ultiplos de la forma 0, λ, 2λ, . . . para alguna λ > 0 entera. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

3

´ PROCESOS DE RENOVACION

10

Definici´ on 2.5. Una modificaci´ on medible de un proceso {V (t) , t ≥ 0}, es una versi´ on de este, {V (t, w)} conjuntamente medible para t ≥ 0 y para w ∈ S, S espacio de estados para {V (t) , t ≥ 0}. Teorema 2.1. Sea {V (t) , t ≥} un proceso regenerativo no negativo con modificaci´ on medible. Sea E [X] < ∞. Entonces el proceso estacionario dado por la ecuaci´ on anterior est´ a bien definido y tiene funci´ on de distribuci´ on independiente de t, adem´ as i) E [V ∗ (0)] = ii) Si E [V ∗ (0)] < ∞, equivalentemente, si E Rt 0

0

i V (s) ds

E [X]

hR

V (s) ds → t

hR X

E

X 0

E

i V (s) ds < ∞,entonces

hR

X 0

V (s) ds

i

E [X]

con probabilidad 1 y en media, cuando t → ∞. Corolario 2.1. Sea {V (t) , t ≥ 0} un proceso regenerativo no negativo, con modificaci´ on medible. Si E < ∞, F es no-aritm´etica, y para todo x ≥ 0, P {V (t) ≤ x, C > x} es de variaci´ on acotada como funci´ on de t en cada intervalo finito [0, τ ], entonces V (t) converge en distribuci´ on cuando t→∞y EV =

E

RX 0

V (s) ds EX

Donde V tiene la distribuci´ on l´ımite de V (t) cuando t → ∞. Para el caso discreto se tienen resultados similares.

3

Procesos de Renovaci´ on

Definici´ on 3.1. Sean 0 ≤ T1 ≤ T2 ≤ . . . son tiempos aleatorios infinitos en los cuales ocurren ciertos eventos. El n´ umero de tiempos Tn en el intervalo [0, t) es

N (t) =

∞ X

11 (Tn ≤ t) ,

(6)

n=1

para t ≥ 0. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

3

´ PROCESOS DE RENOVACION

11

Si se consideran los puntos Tn como elementos de R+ , y N (t) es el n´ umero de puntos en R. El proceso denotado por {N (t) : t ≥ 0}, denotado por N (t), es un proceso puntual en R+ . Los Tn son los tiempos de ocurrencia, el proceso puntual N (t) es simple si su n´ umero de ocurrencias son distintas: 0 < T1 < T2 < . . . casi seguramente. Definici´ on 3.2. Un proceso puntual N (t) es un proceso de renovaci´ on si los tiempos de interocurrencia ξn = Tn − Tn−1 , para n ≥ 1, son independientes e identicamente distribuidos con distribuci´ on F , donde F (0) = 0 y T0 = 0. Los Tn son llamados tiempos de renovaci´ on, referente a la independencia o renovaci´ on de la informaci´ on estoc´ astica en estos tiempos. Los ξn son los tiempos de inter-renovaci´ on, y N (t) es el n´ umero de renovaciones en el intervalo [0, t) Nota 3.1. Para definir un proceso de renovaci´ on para cualquier contexto, solamente hay que especificar una distribuci´ on F , con F (0) = 0, para los tiempos de inter-renovaci´ on. La funci´ on F en turno degune las otra variables aleatorias. De manera formal, existe un espacio de probabilidad y una sucesi´ on de variables aleatorias ξ1 , ξ2 , . . . definidas en este con distribuci´ on F . Entonces las P∞ Pn otras cantidades son Tn = k=1 ξk y N (t) = n=1 11 (Tn ≤ t), donde Tn → ∞ casi seguramente por la Ley Fuerte de los Grandes Nmeros.

3.1

Teorema Principal de Renovaci´ on

Nota 3.2. Una funci´ on h : R+ → R es Directamente Riemann Integrable en los siguientes casos: a) h (t) ≥ 0 es decreciente y Riemann Integrable. b) h es continua excepto posiblemente en un conjunto de Lebesgue de medida 0, y |h (t) | ≤ b (t), donde b es DRI. Teorema 3.1 (Teorema Principal de Renovaci´on). Si F es no aritm´etica y h (t) es Directamente Riemann Integrable (DRI), entonces

1 limt→∞ U ? h = µ

Z h (s) ds. R+

Proposici´ on 3.1. Cualquier funci´ on H (t) acotada en intervalos finitos y que es 0 para t < 0 puede expresarse como H (t) = U ? h (t) , donde h (t) = H (t) − F ? H (t)

Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

3

´ PROCESOS DE RENOVACION

12

Definici´ on 3.3. Un proceso estoc´ astico X (t) es crudamente regenerativo en un tiempo aleatorio positivo T si E [X (T + t) |T ] = E [X (t)] , para t ≥ 0, y con las esperanzas anteriores finitas. Proposici´ on 3.2. Sup´ ongase que X (t) es un proceso crudamente regenerativo en T , que tiene distribuci´ on F . Si E [X (t)] es acotado en intervalos finitos, entonces E [X (t)] = U ? h (t) , donde h (t) = E [X (t) 11 (T > t)] . Teorema 3.2 (Regeneraci´ on Cruda). Sup´ ongase que X (t) es un proceso con valores positivo crudamente regenerativo en T , y def´ınase M = sup {|X (t) | : t ≤ T }. Si T es no aritm´etico y M y M T tienen media finita, entonces 1 limt→∞ E [X (t)] = µ

Z h (s) ds, R+

donde h (t) = E [X (t) 11 (T > t)].

3.2

Propiedades de los Procesos de Renovaci´ on

Los tiempos Tn est´ an relacionados con los conteos de N (t) por

{N (t) ≥ n} = {Tn ≤ t} TN (t) ≤

t

< TN (t)+1 ,

adem´as N (Tn ) = n, y

N (t) = max {n : Tn ≤ t} = min {n : Tn+1 > t} Por propiedades de la convoluci´ on se sabe que

P {Tn ≤ t} = F n? (t) que es la n-´esima convoluci´ on de F . Entonces

Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

3

´ PROCESOS DE RENOVACION

13

{N (t) ≥ n} = {Tn ≤ t} P {N (t) ≤ n} = 1 − F (n+1)? (t) Adem´as usando el hecho de que E [N (t)] =

E [N (t)] =

P∞

n=1 P

∞ X

{N (t) ≥ n} se tiene que

F n? (t)

n=1

  Proposici´ on 3.3. Para cada t ≥ 0, la funci´ on generadora de momentos E eαN (t) existe para alguna α en una vecindad del 0, y de aqu´ı que E [N (t)m ] < ∞, para m ≥ 1. Nota 3.3. Si el primer tiempo de renovaci´ on ξ1 no tiene la misma distribuci´ on que el resto de las ξn , para n ≥ 2, a N (t) se le llama Proceso de Renovaci´ on retardado, donde si ξ tiene distribuci´ on G, entonces el tiempo Tn de la n-´esima renovaci´ on tiene distribuci´ on G ? F (n−1)? (t) Teorema 3.3. Para una constante µ ≤ ∞ ( o variable aleatoria), las siguientes expresiones son equivalentes:

limn→∞ n−1 Tn = µ, c.s.

(7)

limt→∞ t−1 N (t) = 1/µ, c.s.

(8)

Es decir, Tn satisface la Ley Fuerte de los Grandes N´ umeros s´ı y s´olo s´ı N /t) la cumple. Corolario 3.1 (Ley Fuerte de los Grandes N´ umeros para Procesos de Renovaci´on). Si N (t) es un proceso de renovaci´ on cuyos tiempos de inter-renovaci´ on tienen media µ ≤ ∞, entonces t−1 N (t) → 1/µ, c.s. cuando t → ∞.

(9)

Considerar el proceso estoc´ astico de valores reales {Z (t) : t ≥ 0} en el mismo espacio de probabilidad que N (t) Definici´ on 3.4. Para el proceso {Z (t) : t ≥ 0} se define la fluctuaci´ on m´ axima de Z (t) en el intervalo (Tn−1 , Tn ]: Mn =

sup

|Z (t) − Z (Tn−1 ) |

Tn−1 t} Por propiedades de la convoluci´ on se sabe que

P {Tn ≤ t} = F n? (t) que es la n-´esima convoluci´ on de F . Entonces

{N (t) ≥ n} = {Tn ≤ t} P {N (t) ≤ n} = 1 − F (n+1)? (t) Adem´as usando el hecho de que E [N (t)] =

E [N (t)] =

P∞

n=1 P

∞ X

{N (t) ≥ n} se tiene que

F n? (t)

n=1

Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

3

´ PROCESOS DE RENOVACION

15

  Proposici´ on 3.4. Para cada t ≥ 0, la funci´ on generadora de momentos E eαN (t) existe para alguna α en una vecindad del 0, y de aqu´ı que E [N (t)m ] < ∞, para m ≥ 1. Nota 3.4. Si el primer tiempo de renovaci´ on ξ1 no tiene la misma distribuci´ on que el resto de las ξn , para n ≥ 2, a N (t) se le llama Proceso de Renovaci´ on retardado, donde si ξ tiene distribuci´ on G, entonces el tiempo Tn de la n-´esima renovaci´ on tiene distribuci´ on G ? F (n−1)? (t) Teorema 3.5. Para una constante µ ≤ ∞ ( o variable aleatoria), las siguientes expresiones son equivalentes:

limn→∞ n−1 Tn = µ, c.s.

(13)

limt→∞ t−1 N (t) = 1/µ, c.s.

(14)

Es decir, Tn satisface la Ley Fuerte de los Grandes N´ umeros s´ı y s´olo s´ı N /t) la cumple. Corolario 3.3 (Ley Fuerte de los Grandes N´ umeros para Procesos de Renovaci´on). Si N (t) es un proceso de renovaci´ on cuyos tiempos de inter-renovaci´ on tienen media µ ≤ ∞, entonces t−1 N (t) → 1/µ, c.s. cuando t → ∞.

(15)

Considerar el proceso estoc´ astico de valores reales {Z (t) : t ≥ 0} en el mismo espacio de probabilidad que N (t) Definici´ on 3.5. Para el proceso {Z (t) : t ≥ 0} se define la fluctuaci´ on m´ axima de Z (t) en el intervalo (Tn−1 , Tn ]: Mn =

sup

|Z (t) − Z (Tn−1 ) |

Tn−1 t} Por propiedades de la convoluci´ on se sabe que

P {Tn ≤ t} = F n? (t) que es la n-´esima convoluci´ on de F . Entonces

{N (t) ≥ n} = {Tn ≤ t} P {N (t) ≤ n} = 1 − F (n+1)? (t) Adem´as usando el hecho de que E [N (t)] =

E [N (t)] =

P∞

n=1 P

∞ X

{N (t) ≥ n} se tiene que

F n? (t)

n=1

  Proposici´ on 3.5. Para cada t ≥ 0, la funci´ on generadora de momentos E eαN (t) existe para alguna α en una vecindad del 0, y de aqu´ı que E [N (t)m ] < ∞, para m ≥ 1. Nota 3.5. Si el primer tiempo de renovaci´ on ξ1 no tiene la misma distribuci´ on que el resto de las ξn , para n ≥ 2, a N (t) se le llama Proceso de Renovaci´ on retardado, donde si ξ tiene distribuci´ on G, entonces el tiempo Tn de la n-´esima renovaci´ on tiene distribuci´ on G ? F (n−1)? (t) Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

3

´ PROCESOS DE RENOVACION

17

Teorema 3.7. Para una constante µ ≤ ∞ ( o variable aleatoria), las siguientes expresiones son equivalentes:

limn→∞ n−1 Tn = µ, c.s.

(19)

limt→∞ t−1 N (t) = 1/µ, c.s.

(20)

Es decir, Tn satisface la Ley Fuerte de los Grandes N´ umeros s´ı y s´olo s´ı N /t) la cumple. Corolario 3.5 (Ley Fuerte de los Grandes N´ umeros para Procesos de Renovaci´on). Si N (t) es un proceso de renovaci´ on cuyos tiempos de inter-renovaci´ on tienen media µ ≤ ∞, entonces t−1 N (t) → 1/µ, c.s. cuando t → ∞.

(21)

Considerar el proceso estoc´ astico de valores reales {Z (t) : t ≥ 0} en el mismo espacio de probabilidad que N (t) Definici´ on 3.6. Para el proceso {Z (t) : t ≥ 0} se define la fluctuaci´ on m´ axima de Z (t) en el intervalo (Tn−1 , Tn ]: Mn =

sup

|Z (t) − Z (Tn−1 ) |

Tn−1 t} Por propiedades de la convoluci´ on se sabe que

P {Tn ≤ t} = F n? (t) que es la n-´esima convoluci´ on de F . Entonces

{N (t) ≥ n} = {Tn ≤ t} P {N (t) ≤ n} = 1 − F (n+1)? (t) Adem´as usando el hecho de que E [N (t)] =

E [N (t)] =

P∞

n=1 P

∞ X

{N (t) ≥ n} se tiene que

F n? (t)

n=1

  Proposici´ on 3.6. Para cada t ≥ 0, la funci´ on generadora de momentos E eαN (t) existe para alguna α en una vecindad del 0, y de aqu´ı que E [N (t)m ] < ∞, para m ≥ 1. Nota 3.6. Si el primer tiempo de renovaci´ on ξ1 no tiene la misma distribuci´ on que el resto de las ξn , para n ≥ 2, a N (t) se le llama Proceso de Renovaci´ on retardado, donde si ξ tiene distribuci´ on G, entonces el tiempo Tn de la n-´esima renovaci´ on tiene distribuci´ on G ? F (n−1)? (t) Teorema 3.9. Para una constante µ ≤ ∞ ( o variable aleatoria), las siguientes expresiones son equivalentes:

Carlos E. Mart´ınez-R.

limn→∞ n−1 Tn = µ, c.s.

(25)

limt→∞ t−1 N (t) = 1/µ, c.s.

(26)

UACM-Casa Libertad

[email protected]

3

´ PROCESOS DE RENOVACION

19

Es decir, Tn satisface la Ley Fuerte de los Grandes N´ umeros s´ı y s´olo s´ı N /t) la cumple. Corolario 3.7 (Ley Fuerte de los Grandes N´ umeros para Procesos de Renovaci´on). Si N (t) es un proceso de renovaci´ on cuyos tiempos de inter-renovaci´ on tienen media µ ≤ ∞, entonces t−1 N (t) → 1/µ, c.s. cuando t → ∞.

(27)

Considerar el proceso estoc´ astico de valores reales {Z (t) : t ≥ 0} en el mismo espacio de probabilidad que N (t) Definici´ on 3.7. Para el proceso {Z (t) : t ≥ 0} se define la fluctuaci´ on m´ axima de Z (t) en el intervalo (Tn−1 , Tn ]: Mn =

sup

|Z (t) − Z (Tn−1 ) |

Tn−1 t} Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

3

´ PROCESOS DE RENOVACION

20

Por propiedades de la convoluci´ on se sabe que

P {Tn ≤ t} = F n? (t) que es la n-´esima convoluci´ on de F . Entonces

{N (t) ≥ n} = {Tn ≤ t} P {N (t) ≤ n} = 1 − F (n+1)? (t) Adem´as usando el hecho de que E [N (t)] =

E [N (t)] =

P∞

n=1 P

∞ X

{N (t) ≥ n} se tiene que

F n? (t)

n=1

  Proposici´ on 3.7. Para cada t ≥ 0, la funci´ on generadora de momentos E eαN (t) existe para alguna α en una vecindad del 0, y de aqu´ı que E [N (t)m ] < ∞, para m ≥ 1. Nota 3.7. Si el primer tiempo de renovaci´ on ξ1 no tiene la misma distribuci´ on que el resto de las ξn , para n ≥ 2, a N (t) se le llama Proceso de Renovaci´ on retardado, donde si ξ tiene distribuci´ on G, entonces el tiempo Tn de la n-´esima renovaci´ on tiene distribuci´ on G ? F (n−1)? (t) Teorema 3.11. Para una constante µ ≤ ∞ ( o variable aleatoria), las siguientes expresiones son equivalentes:

limn→∞ n−1 Tn = µ, c.s.

(31)

limt→∞ t−1 N (t) = 1/µ, c.s.

(32)

Es decir, Tn satisface la Ley Fuerte de los Grandes N´ umeros s´ı y s´olo s´ı N /t) la cumple. Corolario 3.9 (Ley Fuerte de los Grandes N´ umeros para Procesos de Renovaci´on). Si N (t) es un proceso de renovaci´ on cuyos tiempos de inter-renovaci´ on tienen media µ ≤ ∞, entonces t−1 N (t) → 1/µ, c.s. cuando t → ∞.

(33)

Considerar el proceso estoc´ astico de valores reales {Z (t) : t ≥ 0} en el mismo espacio de probabilidad que N (t) Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

3

´ PROCESOS DE RENOVACION

21

Definici´ on 3.8. Para el proceso {Z (t) : t ≥ 0} se define la fluctuaci´ on m´ axima de Z (t) en el intervalo (Tn−1 , Tn ]: Mn =

|Z (t) − Z (Tn−1 ) |

sup Tn−1 0, y es U (t) = n=0 f (t). Adem´ as P {N (t) > N (t−)} = 0, t ≥ 0. Definici´ on 3.11. La Transformada de Laplace-Stieljes de F est´ a dada por

Fˆ (α) =

Z

e−αt dF (t) , α ≥ 0.

R+

Entonces

ˆ (α) = U

∞ X

Fˆn? (α) =

n=0

∞ X n=0

Fˆ (α)n =

1 . 1 − Fˆ (α)

ˆ (α) y Fˆ (α) determina una a la otra de manera Proposici´ on 3.10. La Transformada de Laplace U ˆ (α) = u ´nica por la relaci´ on U

1 . 1−Fˆ (α)

Nota 3.8. Un proceso de renovaci´ on N (t) cuyos tiempos de inter-renovaci´ on tienen media finita, es un proceso Poisson con tasa λ si y s´ olo s´ı E [U (t)] = λt, para t ≥ 0. Teorema 3.14. Sea N (t) un proceso puntual simple con puntos de localizaci´ on Tn tal que η (t) = E [N ()] es finita para cada t. Entonces para cualquier funci´ on f : R+ → R,   Z N () X   E f (Tn ) = f (s) dη (s) , t ≥ 0, (0,t]

n=1

suponiendo que la integral exista. Adem´ as si X1 , X2 , . . . son variables aleatorias definidas en el mismo espacio de probabilidad que el proceso N (t) tal que E [Xn |Tn = s] = f (s), independiente de n. Entonces 

N (t)



X

Xn  =

E

n=1

Z f (s) dη (s) , t ≥ 0, (0,t]

suponiendo que la integral exista. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

4

RENEWAL AND REGENERATIVE PROCESSES: SERFOZO[?]

23

Corolario 3.11 (Identidad de Wald para Renovaciones). Para el proceso de renovaci´ on N (t),   E TN (t)+1 = µE [N (t) + 1] , t ≥ 0, Definici´ on 3.12. Sean 0 ≤ T1 ≤ T2 ≤ . . . son tiempos aleatorios infinitos en los cuales ocurren ciertos eventos. El n´ umero de tiempos Tn en el intervalo [0, t) es

N (t) =

∞ X

11 (Tn ≤ t) ,

(38)

n=1

para t ≥ 0. Si se consideran los puntos Tn como elementos de R+ , y N (t) es el n´ umero de puntos en R. El proceso denotado por {N (t) : t ≥ 0}, denotado por N (t), es un proceso puntual en R+ . Los Tn son los tiempos de ocurrencia, el proceso puntual N (t) es simple si su n´ umero de ocurrencias son distintas: 0 < T1 < T2 < . . . casi seguramente. Definici´ on 3.13. Un proceso puntual N (t) es un proceso de renovaci´ on si los tiempos de interocurrencia ξn = Tn − Tn−1 , para n ≥ 1, son independientes e identicamente distribuidos con distribuci´ on F , donde F (0) = 0 y T0 = 0. Los Tn son llamados tiempos de renovaci´ on, referente a la independencia o renovaci´ on de la informaci´ on estoc´ astica en estos tiempos. Los ξn son los tiempos de inter-renovaci´ on, y N (t) es el n´ umero de renovaciones en el intervalo [0, t) Nota 3.9. Para definir un proceso de renovaci´ on para cualquier contexto, solamente hay que especificar una distribuci´ on F , con F (0) = 0, para los tiempos de inter-renovaci´ on. La funci´ on F en turno degune las otra variables aleatorias. De manera formal, existe un espacio de probabilidad y una sucesi´ on de variables aleatorias ξ1 , ξ2 , . . . definidas en este con distribuci´ on F . Entonces las Pn P∞ otras cantidades son Tn = k=1 ξk y N (t) = n=1 11 (Tn ≤ t), donde Tn → ∞ casi seguramente por la Ley Fuerte de los Grandes Nmeros.

4

Renewal and Regenerative Processes: Serfozo[11]

Definici´ on 4.1. Sean 0 ≤ T1 ≤ T2 ≤ . . . son tiempos aleatorios infinitos en los cuales ocurren ciertos eventos. El n´ umero de tiempos Tn en el intervalo [0, t) es

N (t) =

∞ X

11 (Tn ≤ t) ,

(39)

n=1

para t ≥ 0. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

4

RENEWAL AND REGENERATIVE PROCESSES: SERFOZO[?]

24

Si se consideran los puntos Tn como elementos de R+ , y N (t) es el n´ umero de puntos en R. El proceso denotado por {N (t) : t ≥ 0}, denotado por N (t), es un proceso puntual en R+ . Los Tn son los tiempos de ocurrencia, el proceso puntual N (t) es simple si su n´ umero de ocurrencias son distintas: 0 < T1 < T2 < . . . casi seguramente. Definici´ on 4.2. Un proceso puntual N (t) es un proceso de renovaci´ on si los tiempos de interocurrencia ξn = Tn − Tn−1 , para n ≥ 1, son independientes e identicamente distribuidos con distribuci´ on F , donde F (0) = 0 y T0 = 0. Los Tn son llamados tiempos de renovaci´ on, referente a la independencia o renovaci´ on de la informaci´ on estoc´ astica en estos tiempos. Los ξn son los tiempos de inter-renovaci´ on, y N (t) es el n´ umero de renovaciones en el intervalo [0, t) Nota 4.1. Para definir un proceso de renovaci´ on para cualquier contexto, solamente hay que especificar una distribuci´ on F , con F (0) = 0, para los tiempos de inter-renovaci´ on. La funci´ on F en turno degune las otra variables aleatorias. De manera formal, existe un espacio de probabilidad y una sucesi´ on de variables aleatorias ξ1 , ξ2 , . . . definidas en este con distribuci´ on F . Entonces las P∞ Pn otras cantidades son Tn = k=1 ξk y N (t) = n=1 11 (Tn ≤ t), donde Tn → ∞ casi seguramente por la Ley Fuerte de los Grandes N´ umeros. Los tiempos Tn est´ an relacionados con los conteos de N (t) por

{N (t) ≥ n} = {Tn ≤ t} TN (t) ≤

t

< TN (t)+1 ,

adem´as N (Tn ) = n, y

N (t) = max {n : Tn ≤ t} = min {n : Tn+1 > t} Por propiedades de la convoluci´ on se sabe que

P {Tn ≤ t} = F n? (t) que es la n-´esima convoluci´ on de F . Entonces

{N (t) ≥ n} = {Tn ≤ t} P {N (t) ≤ n} = 1 − F (n+1)? (t) Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

4

RENEWAL AND REGENERATIVE PROCESSES: SERFOZO[?]

Adem´as usando el hecho de que E [N (t)] =

E [N (t)] =

P∞

n=1 P

∞ X

25

{N (t) ≥ n} se tiene que

F n? (t)

n=1

  Proposici´ on 4.1. Para cada t ≥ 0, la funci´ on generadora de momentos E eαN (t) existe para alguna α en una vecindad del 0, y de aqu´ı que E [N (t)m ] < ∞, para m ≥ 1. Ejemplo 4.1 (Proceso Poisson). Suponga que se tienen tiempos de inter-renovaci´ on i.i.d. del proceso de renovaci´ on N (t) tienen distribuci´ on exponencial F (t) = q − e−λt con tasa λ. Entonces N (t) es un proceso Poisson con tasa λ. Nota 4.2. Si el primer tiempo de renovaci´ on ξ1 no tiene la misma distribuci´ on que el resto de las ξn , para n ≥ 2, a N (t) se le llama Proceso de Renovaci´ on retardado, donde si ξ tiene distribuci´ on G, entonces el tiempo Tn de la n-´esima renovaci´ on tiene distribuci´ on G ? F (n−1)? (t) Teorema 4.1. Para una constante µ ≤ ∞ ( o variable aleatoria), las siguientes expresiones son equivalentes:

limn→∞ n−1 Tn = µ, c.s.

(40)

limt→∞ t−1 N (t) = 1/µ, c.s.

(41)

Es decir, Tn satisface la Ley Fuerte de los Grandes N´ umeros s´ı y s´olo s´ı N /t) la cumple. Corolario 4.1 (Ley Fuerte de los Grandes N´ umeros para Procesos de Renovaci´on). Si N (t) es un proceso de renovaci´ on cuyos tiempos de inter-renovaci´ on tienen media µ ≤ ∞, entonces t−1 N (t) → 1/µ, c.s. cuando t → ∞.

(42)

Considerar el proceso estoc´ astico de valores reales {Z (t) : t ≥ 0} en el mismo espacio de probabilidad que N (t) Definici´ on 4.3. Para el proceso {Z (t) : t ≥ 0} se define la fluctuaci´ on m´ axima de Z (t) en el intervalo (Tn−1 , Tn ]: Mn =

sup

|Z (t) − Z (Tn−1 ) |

Tn−1 0, y es U (t) = ∞ n=0 f P {N (t) > N (t−)} = 0, t ≥ 0. Definici´ on 4.5. La Transformada de Laplace-Stieljes de F est´ a dada por

Fˆ (α) =

Z

e−αt dF (t) , α ≥ 0.

R+

Entonces

ˆ (α) = U

∞ X

Fˆn? (α) =

n=0

∞ X n=0

Fˆ (α)n =

1 . 1 − Fˆ (α)

ˆ (α) y Fˆ (α) determina una a la otra de manera Proposici´ on 4.3. La Transformada de Laplace U ˆ (α) = u ´nica por la relaci´ on U Carlos E. Mart´ınez-R.

1 . 1−Fˆ (α)

UACM-Casa Libertad

[email protected]

4

RENEWAL AND REGENERATIVE PROCESSES: SERFOZO[?]

27

Nota 4.3. Un proceso de renovaci´ on N (t) cuyos tiempos de inter-renovaci´ on tienen media finita, es un proceso Poisson con tasa λ si y s´ olo s´ı E [U (t)] = λt, para t ≥ 0. Teorema 4.3. Sea N (t) un proceso puntual simple con puntos de localizaci´ on Tn tal que η (t) = E [N ()] es finita para cada t. Entonces para cualquier funci´ on f : R+ → R,   Z N () X   f (Tn ) = f (s) dη (s) , t ≥ 0, E (0,t]

n=1

suponiendo que la integral exista. Adem´ as si X1 , X2 , . . . son variables aleatorias definidas en el mismo espacio de probabilidad que el proceso N (t) tal que E [Xn |Tn = s] = f (s), independiente de n. Entonces N (t)



X

Xn  =

 E

Z f (s) dη (s) , t ≥ 0, (0,t]

n=1

suponiendo que la integral exista. Corolario 4.3 (Identidad de Wald para Renovaciones). Para el proceso de renovaci´ on N (t),   E TN (t)+1 = µE [N (t) + 1] , t ≥ 0, Definici´ on 4.6. Sea h (t) funci´ on de valores reales en R acotada en intervalos finitos e igual a cero para t < 0 La ecuaci´ on de renovaci´ on para h (t) y la distribuci´ on F es

Z H (t − s) dF (s) , t ≥ 0,

H (t) = h (t) +

(46)

[0,t]

donde H (t) es una funci´ on de valores reales. Esto es H = h + F ? H. Decimos que H (t) es soluci´ on de esta ecuaci´ on si satisface la ecuaci´ on, y es acotada en intervalos finitos e iguales a cero para t < 0. Proposici´ on 4.4. La funci´ on U ? h (t) es la u ´nica soluci´ on de la ecuaci´ on de renovaci´ on (47). Teorema 4.4 (Teorema Renovaci´ on Elemental). t−1 U (t) → 1/µ, cuando t → ∞. Sup´ongase que N (t) es un proceso de renovaci´on con distribuci´on F con media finita µ.

Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

4

RENEWAL AND REGENERATIVE PROCESSES: SERFOZO[?]

28

Definici´ on 4.7. La funci´ on de renovaci´ on asociada con la distribuci´ on F , del proceso N (t), es ∞ X

U (t) =

F n? (t) , t ≥ 0,

n=1

donde F 0? (t) = 11 (t ≥ 0). Proposici´ on 4.5. Sup´ ongase que la distribuci´ on de inter-renovaci´ on F tiene densidad f . P∞ n? 0 Entonces U (t) tambi´en tiene densidad, para t > 0, y es U (t) = n=0 f (t). Adem´ as P {N (t) > N (t−)} = 0, t ≥ 0. Definici´ on 4.8. La Transformada de Laplace-Stieljes de F est´ a dada por

Fˆ (α) =

Z

e−αt dF (t) , α ≥ 0.

R+

Entonces

ˆ (α) = U

∞ X

Fˆn? (α) =

n=0

∞ X n=0

Fˆ (α)n =

1 . 1 − Fˆ (α)

ˆ (α) y Fˆ (α) determina una a la otra de manera Proposici´ on 4.6. La Transformada de Laplace U ˆ (α) = u ´nica por la relaci´ on U

1 . 1−Fˆ (α)

Nota 4.4. Un proceso de renovaci´ on N (t) cuyos tiempos de inter-renovaci´ on tienen media finita, es un proceso Poisson con tasa λ si y s´ olo s´ı E [U (t)] = λt, para t ≥ 0. Teorema 4.5. Sea N (t) un proceso puntual simple con puntos de localizaci´ on Tn tal que η (t) = E [N ()] es finita para cada t. Entonces para cualquier funci´ on f : R+ → R,   Z N () X   E f (Tn ) = f (s) dη (s) , t ≥ 0, (0,t]

n=1

suponiendo que la integral exista. Adem´ as si X1 , X2 , . . . son variables aleatorias definidas en el mismo espacio de probabilidad que el proceso N (t) tal que E [Xn |Tn = s] = f (s), independiente de n. Entonces 

N (t)



X

Xn  =

E

n=1

Z f (s) dη (s) , t ≥ 0, (0,t]

suponiendo que la integral exista. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

4

RENEWAL AND REGENERATIVE PROCESSES: SERFOZO[?]

29

Corolario 4.4 (Identidad de Wald para Renovaciones). Para el proceso de renovaci´ on N (t),   E TN (t)+1 = µE [N (t) + 1] , t ≥ 0, Definici´ on 4.9. Sea h (t) funci´ on de valores reales en R acotada en intervalos finitos e igual a cero para t < 0 La ecuaci´ on de renovaci´ on para h (t) y la distribuci´ on F es

Z H (t − s) dF (s) , t ≥ 0,

H (t) = h (t) +

(47)

[0,t]

donde H (t) es una funci´ on de valores reales. Esto es H = h + F ? H. Decimos que H (t) es soluci´ on de esta ecuaci´ on si satisface la ecuaci´ on, y es acotada en intervalos finitos e iguales a cero para t < 0. Proposici´ on 4.7. La funci´ on U ? h (t) es la u ´nica soluci´ on de la ecuaci´ on de renovaci´ on (47). Teorema 4.6 (Teorema Renovaci´ on Elemental). t−1 U (t) → 1/µ, cuando t → ∞. Nota 4.5. Una funci´ on h : R+ → R es Directamente Riemann Integrable en los siguientes casos: a) h (t) ≥ 0 es decreciente y Riemann Integrable. b) h es continua excepto posiblemente en un conjunto de Lebesgue de medida 0, y |h (t) | ≤ b (t), donde b es DRI. Teorema 4.7 (Teorema Principal de Renovaci´on). Si F es no aritm´etica y h (t) es Directamente Riemann Integrable (DRI), entonces

1 limt→∞ U ? h = µ

Z h (s) ds. R+

Proposici´ on 4.8. Cualquier funci´ on H (t) acotada en intervalos finitos y que es 0 para t < 0 puede expresarse como H (t) = U ? h (t) , donde h (t) = H (t) − F ? H (t) Definici´ on 4.10. Un proceso estoc´ astico X (t) es crudamente regenerativo en un tiempo aleatorio positivo T si E [X (T + t) |T ] = E [X (t)] , para t ≥ 0, y con las esperanzas anteriores finitas. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

4

RENEWAL AND REGENERATIVE PROCESSES: SERFOZO[?]

30

Proposici´ on 4.9. Sup´ ongase que X (t) es un proceso crudamente regenerativo en T , que tiene distribuci´ on F . Si E [X (t)] es acotado en intervalos finitos, entonces E [X (t)] = U ? h (t) , donde h (t) = E [X (t) 11 (T > t)] . Teorema 4.8 (Regeneraci´ on Cruda). Sup´ ongase que X (t) es un proceso con valores positivo crudamente regenerativo en T , y def´ınase M = sup {|X (t) | : t ≤ T }. Si T es no aritm´etico y M y M T tienen media finita, entonces Z

1 limt→∞ E [X (t)] = µ

h (s) ds, R+

donde h (t) = E [X (t) 11 (T > t)]. Nota 4.6. Una funci´ on h : R+ → R es Directamente Riemann Integrable en los siguientes casos: a) h (t) ≥ 0 es decreciente y Riemann Integrable. b) h es continua excepto posiblemente en un conjunto de Lebesgue de medida 0, y |h (t) | ≤ b (t), donde b es DRI. Teorema 4.9 (Teorema Principal de Renovaci´on). Si F es no aritm´etica y h (t) es Directamente Riemann Integrable (DRI), entonces

1 limt→∞ U ? h = µ

Z h (s) ds. R+

Proposici´ on 4.10. Cualquier funci´ on H (t) acotada en intervalos finitos y que es 0 para t < 0 puede expresarse como H (t) = U ? h (t) , donde h (t) = H (t) − F ? H (t) Definici´ on 4.11. Un proceso estoc´ astico X (t) es crudamente regenerativo en un tiempo aleatorio positivo T si E [X (T + t) |T ] = E [X (t)] , para t ≥ 0, y con las esperanzas anteriores finitas. Proposici´ on 4.11. Sup´ ongase que X (t) es un proceso crudamente regenerativo en T , que tiene distribuci´ on F . Si E [X (t)] es acotado en intervalos finitos, entonces E [X (t)] = U ? h (t) , donde h (t) = E [X (t) 11 (T > t)] . Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

4

RENEWAL AND REGENERATIVE PROCESSES: SERFOZO[?]

31

Teorema 4.10 (Regeneraci´ on Cruda). Sup´ ongase que X (t) es un proceso con valores positivo crudamente regenerativo en T , y def´ınase M = sup {|X (t) | : t ≤ T }. Si T es no aritm´etico y M y M T tienen media finita, entonces 1 limt→∞ E [X (t)] = µ

Z h (s) ds, R+

donde h (t) = E [X (t) 11 (T > t)]. Definici´ on 4.12. Para el proceso {(N (t) , X (t)) : t ≥ 0}, sus trayectoria muestrales en el intervalo de tiempo [Tn−1 , Tn ) est´ an descritas por ζn = (ξn , {X (Tn−1 + t) : 0 ≤ t < ξn }) Este ζn es el n-´esimo segmento del proceso. El proceso es regenerativo sobre los tiempos Tn si sus segmentos ζn son independientes e id´enticamennte distribuidos. ˜ (t) con espacio de estados S˜ es regenerativo sobre Tn , entonces X (t) = Observaci´ on 4.1. Si X   ˜ (t) tambi´en es regenerativo sobre Tn , para cualquier funci´ f X on f : S˜ → S. Observaci´ on 4.2. Los procesos regenerativos son crudamente regenerativos, pero no al rev´es. Nota 4.7. Un proceso estoc´ astico a tiempo continuo o discreto es regenerativo si existe un proceso de renovaci´ on tal que los segmentos del proceso entre tiempos de renovaci´ on sucesivos son i.i.d., es decir, para {X (t) : t ≥ 0} proceso estoc´ astico a tiempo continuo con espacio de estados S, espacio m´etrico. Para {X (t) : t ≥ 0} Proceso Estoc´ astico a tiempo continuo con estado de espacios S, que es un espacio m´etrico, con trayectorias continuas por la derecha y con l´ımites por la izquierda c.s. Sea N (t) un proceso de renovaci´ on en R+ definido en el mismo espacio de probabilidad que X (t), con tiempos de renovaci´ on T y tiempos de inter-renovaci´on ξn = Tn − Tn−1 , con misma distribuci´ on F de media finita µ. Definici´ on 4.13. Para el proceso {(N (t) , X (t)) : t ≥ 0}, sus trayectoria muestrales en el intervalo de tiempo [Tn−1 , Tn ) est´ an descritas por ζn = (ξn , {X (Tn−1 + t) : 0 ≤ t < ξn }) Este ζn es el n-´esimo segmento del proceso. El proceso es regenerativo sobre los tiempos Tn si sus segmentos ζn son independientes e id´enticamennte distribuidos. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

4

RENEWAL AND REGENERATIVE PROCESSES: SERFOZO[?]

32

Nota 4.8. Un proceso regenerativo con media de la longitud de ciclo finita es llamado positivo recurrente. Teorema 4.11 (Procesos Regenerativos). Suponga que el proceso Definici´ on 4.14 (Renewal Process Trinity). Para un proceso de renovaci´ on N (t), los siguientes procesos proveen de informaci´ on sobre los tiempos de renovaci´ on. • A (t) = t − TN (t) , el tiempo de recurrencia hacia atr´ as al tiempo t, que es el tiempo desde la u ´ltima renovaci´ on para t. • B (t) = TN (t)+1 − t, el tiempo de recurrencia hacia adelante al tiempo t, residual del tiempo de renovaci´ on, que es el tiempo para la pr´ oxima renovaci´ on despu´es de t. • L (t) = ξN (t)+1 = A (t) + B (t), la longitud del intervalo de renovaci´ on que contiene a t. Nota 4.9. El proceso tridimensional (A (t) , B (t) , L (t)) es regenerativo sobre Tn , y por ende cada proceso lo es. Cada proceso A (t) y B (t) son procesos de MArkov a tiempo continuo con trayectorias continuas por partes en el espacio de estados R+ . Una expresi´ on conveniente para su distribuci´ on conjunta es, para 0 ≤ x < t, y ≥ 0 P {A (t) > x, B (t) > y} = P {N (t + y) − N ((t − x)) = 0}

(48)

Ejemplo 4.2 (Tiempos de recurrencia Poisson). Si N (t) es un proceso Poisson con tasa λ, entonces de la expresi´ on (48) se tiene que

P {A (t) > x, B (t) > y} = e−λ(x+y) , 0 ≤ x < t, y ≥ 0, que es la probabilidad Poisson de no renovaciones en un intervalo de longitud x + y. Nota 4.10. Una cadena de Markov erg´ odica tiene la propiedad de ser estacionaria si la distribucin de su estado al tiempo 0 es su distribuci´ on estacionaria. Definici´ on 4.15. Un proceso estoc´ astico a tiempo continuo {X (t) : t ≥ 0} en un espacio general es estacionario si sus distribuciones finito dimensionales son invariantes bajo cualquier traslado: para cada 0 ≤ s1 < s2 < · · · < sk y t ≥ 0, (X (s1 + t) , . . . , X (sk + t)) =d (X (s1 ) , . . . , X (sk )) . Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

5

EJEMPLOS, NOTAS IMPORTANTES

33

Nota 4.11. Un proceso de Markov es estacionario si X (t) =d X (0), t ≥ 0. Considerese el proceso N (t) =

P

n 11 (τn

≤ t) en R+ , con puntos 0 < τ1 < τ2 < · · · .

Proposici´ on 4.12. Si N es un proceso puntual estacionario y E [N (1)] < ∞, entonces E [N (t)] = tE [N (1)], t ≥ 0 Teorema 4.12. Los siguientes enunciados son equivalentes i) El proceso retardado de renovaci´ on N es estacionario. ii) EL proceso de tiempos de recurrencia hacia adelante B (t) es estacionario. iii) E [N (t)] = t/µ, iv) G (t) = Fe (t) =

1 µ

Rt 0

[1 − F (s)] ds

Cuando estos enunciados son ciertos, P {B (t) ≤ x} = Fe (x), para t, x ≥ 0. Nota 4.12. Una consecuencia del teorema anterior es que el Proceso Poisson es el u ´nico proceso sin retardo que es estacionario. Corolario 4.5. El proceso de renovaci´ on N (t) sin retardo, y cuyos tiempos de inter renonaci´ on tienen media finita, es estacionario si y s´ olo si es un proceso Poisson.

5

Ejemplos, Notas importantes

5.1

Procesos Regenerativos

˜ (t) con espacio de estados S˜ es regenerativo sobre Tn , entonces X (t) = Observaci´ on 5.1. Si X   ˜ (t) tambi´en es regenerativo sobre Tn , para cualquier funci´ f X on f : S˜ → S. Observaci´ on 5.2. Los procesos regenerativos son crudamente regenerativos, pero no al rev´es. Definici´ on 5.1 (Definici´ on Cl´ asica). Un proceso estoc´ astico X = {X (t) : t ≥ 0} es llamado regenerativo is existe una variable aleatoria R1 > 0 tal que i) {X (t + R1 ) : t ≥ 0} es independiente de {{X (t) : t < R1 } , } ii) {X (t + R1 ) : t ≥ 0} es estoc´ asticamente equivalente a {X (t) : t > 0} Llamamos a R1 tiempo de regeneraci´ on, y decimos que X se regenera en este punto. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

5

EJEMPLOS, NOTAS IMPORTANTES

34

{X (t + R1 )} es regenerativo con tiempo de regeneraci´on R2 , independiente de R1 pero con la misma distribuci´ on que R1 . Procediendo de esta manera se obtiene una secuencia de variables aleatorias independientes e id´enticamente distribuidas {Rn } llamados longitudes de ciclo. Si definimos a Zk ≡ R1 + R2 + · · · + Rk , se tiene un proceso de renovaci´on llamado proceso de renovaci´on encajado para X. Definici´ on 5.2. Para x fijo y para cada t ≥ 0, sea Ix (t) = 1 si X (t) ≤ x, Ix (t) = 0 en caso contrario, y def´ınanse los tiempos promedio

P (X∞

Z 1 ∞ X = limt→∞ X (u) du t 0 Z 1 ∞ Ix (u) du, ≤ x) = limt→∞ t 0

cuando estos l´ımites existan. Como consecuencia del teorema de Renovaci´on-Recompensa, se tiene que el primer l´ımite existe y es igual a la constante X =

E

hR

R1 0

i X (t) dt

E [R1 ]

,

suponiendo que ambas esperanzas son finitas. Nota 5.1.

a) Si el proceso regenerativo X es positivo recurrente y tiene trayectorias muestrales

no negativas, entonces la ecuaci´ on anterior es v´ alida. b) Si X es positivo recurrente regenerativo, podemos construir una u ´nica versi´ on estacionaria de este proceso, Xe = {Xe (t)}, donde Xe es un proceso estoc´ astico regenerativo y estrictamente estacionario, con distribuci´ on marginal distribuida como X∞ Para {X (t) : t ≥ 0} Proceso Estoc´ astico a tiempo continuo con estado de espacios S, que es un espacio m´etrico, con trayectorias continuas por la derecha y con l´ımites por la izquierda c.s. Sea N (t) un proceso de renovaci´ on en R+ definido en el mismo espacio de probabilidad que X (t), con tiempos de renovaci´ on T y tiempos de inter-renovaci´on ξn = Tn − Tn−1 , con misma distribuci´ on F de media finita µ. Definici´ on 5.3. Para el proceso {(N (t) , X (t)) : t ≥ 0}, sus trayectoria muestrales en el intervalo de tiempo [Tn−1 , Tn ) est´ an descritas por ζn = (ξn , {X (Tn−1 + t) : 0 ≤ t < ξn }) Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

5

EJEMPLOS, NOTAS IMPORTANTES

35

Este ζn es el n-´esimo segmento del proceso. El proceso es regenerativo sobre los tiempos Tn si sus segmentos ζn son independientes e id´enticamennte distribuidos. ˜ (t) con espacio de estados S˜ es regenerativo sobre Tn , entonces X (t) = Observaci´ on 5.3. Si X   ˜ (t) tambi´en es regenerativo sobre Tn , para cualquier funci´ f X on f : S˜ → S. Observaci´ on 5.4. Los procesos regenerativos son crudamente regenerativos, pero no al rev´es. Definici´ on 5.4 (Definici´ on Cl´ asica). Un proceso estoc´ astico X = {X (t) : t ≥ 0} es llamado regenerativo is existe una variable aleatoria R1 > 0 tal que i) {X (t + R1 ) : t ≥ 0} es independiente de {{X (t) : t < R1 } , } ii) {X (t + R1 ) : t ≥ 0} es estoc´ asticamente equivalente a {X (t) : t > 0} Llamamos a R1 tiempo de regeneraci´ on, y decimos que X se regenera en este punto. {X (t + R1 )} es regenerativo con tiempo de regeneraci´on R2 , independiente de R1 pero con la misma distribuci´ on que R1 . Procediendo de esta manera se obtiene una secuencia de variables aleatorias independientes e id´enticamente distribuidas {Rn } llamados longitudes de ciclo. Si definimos a Zk ≡ R1 + R2 + · · · + Rk , se tiene un proceso de renovaci´on llamado proceso de renovaci´on encajado para X. Nota 5.2. Un proceso regenerativo con media de la longitud de ciclo finita es llamado positivo recurrente. Definici´ on 5.5. Para x fijo y para cada t ≥ 0, sea Ix (t) = 1 si X (t) ≤ x, Ix (t) = 0 en caso contrario, y def´ınanse los tiempos promedio

P (X∞

Z 1 ∞ X = limt→∞ X (u) du t 0 Z ∞ 1 ≤ x) = limt→∞ Ix (u) du, t 0

cuando estos l´ımites existan. Como consecuencia del teorema de Renovaci´on-Recompensa, se tiene que el primer l´ımite existe y es igual a la constante X =

E

hR

R1 0

i X (t) dt

E [R1 ]

,

suponiendo que ambas esperanzas son finitas. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

5

EJEMPLOS, NOTAS IMPORTANTES

Nota 5.3.

36

a) Si el proceso regenerativo X es positivo recurrente y tiene trayectorias muestrales

no negativas, entonces la ecuaci´ on anterior es v´ alida. b) Si X es positivo recurrente regenerativo, podemos construir una u ´nica versi´ on estacionaria de este proceso, Xe = {Xe (t)}, donde Xe es un proceso estoc´ astico regenerativo y estrictamente estacionario, con distribuci´ on marginal distribuida como X∞ Un proceso estoc´ astico a tiempo continuo {V (t) , t ≥ 0} es un proceso regenerativo si existe una sucesi´on de variables aleatorias independientes e id´enticamente distribuidas {X1 , X2 , . . .}, sucesi´ on de renovaci´on, tal que para cualquier conjunto de Borel A,

 P V (t) ∈ A|X1 + X2 + · · · + XR(t) = s, {V (τ ) , τ < s} = P {V (t − s) ∈ A|X1 > t − s} , para todo 0 ≤ s ≤ t, donde R (t) = max {X1 + X2 + · · · + Xj ≤ t} =n´ umero de renovaciones (puntos de regeneraci´ on) que ocurren en [0, t]. El intervalo [0, X1 ) es llamado primer ciclo de regeneraci´ on de {V (t) , t ≥ 0}, [X1 , X1 + X2 ) el segundo ciclo de regeneraci´ on, y as´ı sucesivamente. Sea X = X1 y sea F la funci´ on de distrbuci´on de X Definici´ on 5.6. Se define el proceso estacionario, {V ∗ (t) , t ≥ 0}, para {V (t) , t ≥ 0} por

1 P {V (t) ∈ A} = E [X]



Z

P {V (t + x) ∈ A|X > x} (1 − F (x)) dx, 0

para todo t ≥ 0 y todo conjunto de Borel A. Definici´ on 5.7. Una distribuci´ on se dice que es aritm´etica si todos sus puntos de incremento son m´ ultiplos de la forma 0, λ, 2λ, . . . para alguna λ > 0 entera. Definici´ on 5.8. Una modificaci´ on medible de un proceso {V (t) , t ≥ 0}, es una versi´ on de este, {V (t, w)} conjuntamente medible para t ≥ 0 y para w ∈ S, S espacio de estados para {V (t) , t ≥ 0}. Teorema 5.1. Sea {V (t) , t ≥} un proceso regenerativo no negativo con modificaci´ on medible. Sea E [X] < ∞. Entonces el proceso estacionario dado por la ecuaci´ on anterior est´ a bien definido y tiene funci´ on de distribuci´ on independiente de t, adem´ as i) E [V ∗ (0)] =

Carlos E. Mart´ınez-R.

E

hR X 0

i V (s) ds

E [X]

UACM-Casa Libertad

[email protected]

5

EJEMPLOS, NOTAS IMPORTANTES

ii) Si E [V ∗ (0)] < ∞, equivalentemente, si E

37 hR

Rt

X 0

E 0 V (s) ds → t

i V (s) ds < ∞,entonces

hR

X 0

V (s) ds

i

E [X]

con probabilidad 1 y en media, cuando t → ∞. Un proceso estoc´ astico a tiempo continuo {V (t) , t ≥ 0} es un proceso regenerativo si existe una sucesi´on de variables aleatorias independientes e id´enticamente distribuidas {X1 , X2 , . . .}, sucesi´ on de renovaci´on, tal que para cualquier conjunto de Borel A,

 P V (t) ∈ A|X1 + X2 + · · · + XR(t) = s, {V (τ ) , τ < s} = P {V (t − s) ∈ A|X1 > t − s} , para todo 0 ≤ s ≤ t, donde R (t) = max {X1 + X2 + · · · + Xj ≤ t} =n´ umero de renovaciones (puntos de regeneraci´ on) que ocurren en [0, t]. El intervalo [0, X1 ) es llamado primer ciclo de regeneraci´ on de {V (t) , t ≥ 0}, [X1 , X1 + X2 ) el segundo ciclo de regeneraci´ on, y as´ı sucesivamente. Sea X = X1 y sea F la funci´ on de distrbuci´on de X Definici´ on 5.9. Se define el proceso estacionario, {V ∗ (t) , t ≥ 0}, para {V (t) , t ≥ 0} por

1 P {V (t) ∈ A} = E [X]



Z

P {V (t + x) ∈ A|X > x} (1 − F (x)) dx, 0

para todo t ≥ 0 y todo conjunto de Borel A. Definici´ on 5.10. Una distribuci´ on se dice que es aritm´etica si todos sus puntos de incremento son m´ ultiplos de la forma 0, λ, 2λ, . . . para alguna λ > 0 entera. Definici´ on 5.11. Una modificaci´ on medible de un proceso {V (t) , t ≥ 0}, es una versi´ on de este, {V (t, w)} conjuntamente medible para t ≥ 0 y para w ∈ S, S espacio de estados para {V (t) , t ≥ 0}. Teorema 5.2. Sea {V (t) , t ≥} un proceso regenerativo no negativo con modificaci´ on medible. Sea E [X] < ∞. Entonces el proceso estacionario dado por la ecuaci´ on anterior est´ a bien definido y tiene funci´ on de distribuci´ on independiente de t, adem´ as i) E [V ∗ (0)] =

Carlos E. Mart´ınez-R.

E

hR X 0

i V (s) ds

E [X]

UACM-Casa Libertad

[email protected]

6

RESULTADOS PARA PROCESOS DE SALIDA

ii) Si E [V ∗ (0)] < ∞, equivalentemente, si E Rt 0

hR

V (s) ds → t

X 0

E

38

i V (s) ds < ∞,entonces

hR

X 0

V (s) ds

i

E [X]

con probabilidad 1 y en media, cuando t → ∞.

6

Resultados para Procesos de Salida

En Sigman, Thorison y Wolff [13] prueban que para la existencia de un una sucesi´on infinita no decreciente de tiempos de regeneraci´ on τ1 ≤ τ2 ≤ · · · en los cuales el proceso se regenera, basta un tiempo de regeneraci´ on R1 , donde Rj = τj − τj−1 . Para tal efecto se requiere la existencia de un espacio de probabilidad (Ω, F, P), y proceso estoc´astico X = {X (t) : t ≥ 0} con espacio de estados (S, R), con R σ-´ algebra. Proposici´ on 6.1. Si existe una variable aleatoria no negativa R1 tal que θR1 X =D X, entonces (Ω, F, P) puede extenderse para soportar una sucesi´ on estacionaria de variables aleatorias R = {Rk : k ≥ 1}, tal que para k ≥ 1, θk (X, R) =D (X, R) . Adem´ as, para k ≥ 1, θk R es condicionalmente independiente de (X, R1 , . . . , Rk ), dado θτ k X. • Doob en 1953 demostr´ o que el estado estacionario de un proceso de partida en un sistema de espera M/G/∞, es Poisson con la misma tasa que el proceso de arribos. • Burke en 1968, fue el primero en demostrar que el estado estacionario de un proceso de salida de una cola M/M/s es un proceso Poisson. • Disney en 1973 obtuvo el siguiente resultado: Teorema 6.1. Para el sistema de espera M/G/1/L con disciplina FIFO, el proceso I es un proceso de renovaci´ on si y s´ olo si el proceso denominado longitud de la cola es estacionario y se cumple cualquiera de los siguientes casos: a) Los tiempos de servicio son identicamente cero; b) L = 0, para cualquier proceso de servicio S; c) L = 1 y G = D; Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

6

RESULTADOS PARA PROCESOS DE SALIDA

39

d) L = ∞ y G = M . En estos casos, respectivamente, las distribuciones de interpartida P {Tn+1 − Tn ≤ t} son a) 1 − e−λt , t ≥ 0; b) 1 − e−λt ∗ F (t), t ≥ 0; c) 1 − e−λt ∗ 11d (t), t ≥ 0; d) 1 − e−λt ∗ F (t), t ≥ 0. • Finch (1959) mostr´ o que para los sistemas M/G/1/L, con 1 ≤ L ≤ ∞ con distribuciones de servicio dos veces diferenciable, solamente el sistema M/M/1/∞ tiene proceso de salida de renovaci´ on estacionario. • King (1971) demostro que un sistema de colas estacionario M/G/1/1 tiene sus tiempos de interpartida sucesivas Dn y Dn+1 son independientes, si y s´olo si, G = D, en cuyo caso le proceso de salida es de renovaci´ on. • Disney (1973) demostr´ o que el u ´nico sistema estacionario M/G/1/L, que tiene proceso de salida de renovaci´ on son los sistemas M/M/1 y M/D/1/1. • El siguiente resultado es de Disney y Koning (1985) Teorema 6.2. En un sistema de espera M/G/s, el estado estacionario del proceso de salida es un proceso Poisson para cualquier distribuci´ on de los tiempos de servicio si el sistema tiene cualquiera de las siguientes cuatro propiedades. a) s = ∞ b) La disciplina de servicio es de procesador compartido. c) La disciplina de servicio es LCFS y preemptive resume, esto se cumple para L < ∞ d) G = M . • El siguiente resultado es de Alamatsaz (1983) Teorema 6.3. En cualquier sistema de colas GI/G/1/L con 1 ≤ L < ∞ y distribuci´ on de interarribos A y distribuci´ on de los tiempos de servicio B, tal que A (0) = 0, A (t) (1 − B (t)) > 0 para alguna t > 0 y B (t) para toda t > 0, es imposible que el proceso de salida estacionario sea de renovaci´ on. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

6

RESULTADOS PARA PROCESOS DE SALIDA

40

Estos resultados aparecen en Daley (1968) [5] para {Tn } intervalos de inter-arribo, {Dn } intervalos de inter-salida y {Sn } tiempos de servicio. • Si el proceso {Tn } es Poisson, el proceso {Dn } es no correlacionado si y s´olo si es un proceso Poisso, lo cual ocurre si y s´ olo si {Sn } son exponenciales negativas. • Si {Sn } son exponenciales negativas, {Dn } es un proceso de renovaci´on si y s´olo si es un proceso Poisson, lo cual ocurre si y s´olo si {Tn } es un proceso Poisson. • E (Dn ) = E (Tn ). • Para un sistema de visitas GI/M/1 se tiene el siguiente teorema: Teorema 6.4. En un sistema estacionario GI/M/1 los intervalos de interpartida tienen   h i = µ (µ + θ)−1 [δθ − µ (1 − δ) α (θ)] θ − µ (1 − δ)−1 E e−θDn h i α (θ) = E e−θT0  var (Dn ) = var (T0 ) − τ −1 − δ −1 2δ (E (S0 ))2 (1 − δ)−1 . Teorema 6.5. El proceso de salida de un sistema de colas estacionario GI/M/1 es un proceso de renovaci´ on si y s´ olo si el proceso de entrada es un proceso Poisson, en cuyo caso el proceso de salida es un proceso Poisson. Teorema 6.6. Los intervalos de interpartida {Dn } de un sistema M/G/1 estacionario son no correlacionados si y s´ olo si la distribuci´ on de los tiempos de servicio es exponencial negativa, es decir, el sistema es de tipo M/M/1.

Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

REFERENCES

41

References [1] Asmussen Soren, Applied Probability and Queues, John Wiley and Sons, 1987. [2] Dai Jean G., On positive Harris Recurrence of Multiclass Queueing Networks: A Unified Approach Via Fluid Limit Models, The Annals of Applied Probability, vol. 5, No. 1, 1995, pp. 49-77. [3] Dai Jim G. and Meyn Sean P., Stability and Convergence of Moments for Multiclass Queueing Networks via Fluid Limit Models, IEEE transactions on Automatic Control, vol. 40, No. 11, 1995, pp. 1889-1904. [4] Dai Jim G. and Weiss G., Stability and Inestability of Fluid Models for Reentrant Lines, Mathematics of Operation Research, vol. 21, no. 1, 1996, pp. 115-134. [5] D.J. Daley, The correlation structure of the output process of some single server queueing systems, The Annals of Mathematical Statistics, Vol. 39. No. 3, pp. 1007-1019, 1968. [6] D. Down, On the Stability of Polling Models with Multiple Servers, Journal of Applied Probability, Vol. 335, no. 4, pp. 925-935, 1998. [7] Kaspi H. and Mandelbaum A., Regenerative Closed Queueing Networks, Stochastics: An International Journal of Probability and Stochastic Processes, vol. 39, no. 4, 1992, pp. 239258. [8] Meyn S. P. and Tweedie R. L., Markov Chains and Stochastic Stability, 1993. [9] Meyn, S.P. and Down, D., Stability of Generalized Jackson Networks, The Annals of Applied Probability, 1994. [10] Vishnevskii V.M. and Semenova O.V., Mathematical Methods to Study the Polling Systems, Automation and Remote Control, vol. 67, no. 2, 2006, pp. 173-220. [11] Richard Serfozo, Basics of Applied Stochastic Processes, Springer-Verlag, 2009. [12] Karl Sigman and Ronald W. Wolff, A Review of Regenerative Processes, SIAM Review, Vol. 38, No. 2, pp. 269-288, 1993. [13] Karl Sigman, Hermann Thorisson and Ronald W. Wolff, A Note on the Existence of Regeneration Times, Journal of Applied Probability, vol. 31, pp. 1116-1122, 1994. Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

REFERENCES

42

[14] Shaler Stidham, Jr., Regenerative Processes in the theory ow queues, with applications to the alternating priority queue, Advances in Applied Probability, Vol. 4, no. 3, 1972,pp. 542-577.

Carlos E. Mart´ınez-R.

UACM-Casa Libertad

[email protected]

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.