Pengantar Model Probabilitas

June 16, 2017 | Autor: Yulia Kurniasih | Categoría: Mathematics, Statistics
Share Embed


Descripción

LAPORAN TUGAS PENGANTAR MODEL PROBABILITAS

Yogyakarta, 19 November 2015 Anggota

: -

Dosen Pengampu

Risqia Fadhilah Syahrir Dwi Resti Indah Puspitawati Yulia Kurniasih Achyar Ulul Amri Dwi Aji Widiantoro Indra Maulana Ikhsan

(15849) (15957) (16067) (16155) (16225) (16321)

: Dr. Gunardi, M.Si

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS GADJAH MADA YOGYAKARTA 2015

Example 3.26 Let U1, U2, ... be a sequence of independent uniform (0,1) random variables, and let N = min {n ≥ 2: Un > Un-1} and M = min {n ≥ 1: U1 + ... + Un > 1} That is, N is the index of the first uniform random variable that is larger than immediate predeccessor, and M is the number of uniform random variables we need sum exceed 1. Surprisingly, N and M have the same probability distribution, and their common mean is e!

Solution: It is easy to find the distribution of N. Since all n! possible orderings of U1, .... , Un are likely, we have P{N > n} = P{U1 > U2 > ... > Un} = 1 / n ! To show that P{M > n} = 1 / n !, we will use mathematical induction. However, to give ourselves a stronger result to use as the induction hypothesis, we will prove the stronger result that for 0 < x ≤ 1 ,P{M (x) > n} = 𝑥 𝑛 / n !, n ≥ 1, where M (x) = min {n ≥ 1: U1 + ... + Un > 1} is the minimum number of uniforms that need be summed to exceed x. To ptove that P{M (x) > n} = 𝑥 𝑛 / n !, note first that it is true for n=1 since P{M (x) > 1} = P{U1 ≤ x} = x So assume that for all 0 < x ≤ 1, P{M (x) > n} = 𝑥 𝑛 / n !. To determine P{M (x) > n+1}, condition on U1 to obtain : 1

P{M (x) > n+1} = ∫0 P{𝑀 (𝑥) > 𝑛 + 1|U1 = y} dy 𝑥

= ∫0 P{𝑀 (𝑥) > 𝑛 + 1|U1 = y} dy 𝑥

= ∫0 P{𝑀 (𝑥 − 𝑦) > 𝑛} dy 𝑥 (𝑥−𝑦)𝑛

= ∫0

𝑛!

𝑥 𝑢𝑛

= ∫0

𝑛!

dy

by the induction hpothesis

dy

𝑋 𝑛+1

= (𝑛+1)! where the third equality of the preceding follows from the fact that given U1 = y, M(x) is distributed as 1 plus the number of uniforms that need be summed to exceed x−y. Thus, the induction is complete and we have shown that for 0 < x ≤ 1, n ≥ 1, P{M (x) > n} = 𝑥 𝑛 / n !

Letting x = 1 shows that N and M have the same distribution. Finally, we have that ∞ E[M] = E[N] = ∑∞ 𝑛=0 P{𝑁 > 𝑛} = ∑𝑛=0 1/n! = e

Permasalahan 3.2.6 Di sini bisa kita definisikan bahwa U1 , U2 , ... adalah deret dari variabel random yang saling independen dan berdistribusi uniform (0, 1), dan definisikan bahwa N = min{ n ≥ 2: Un > Un-1 } (persamaan 1)

Arti dari persamaan 1 ini adalah : N adalah sebuah indeks dari variabel random berdistribusi uniform pertama di mana Un > Un-1 , dengan n ≥ 2 yaitu indeks untuk variabel random uniform yang nilainya lebih besar daripada variabel random tepat satu sebelumnya. n ≥ 2 karena dimulai dari pengecekan apakah U2 > U1 dan seterusnya. Jika n ≥ 1 , maka tidak bisa kita lakukan pengecekan dari U1 > U0 karena nilai U0 tidak ada. Penjelasan lebih lanjut mengenai persamaan 1 : Ketika U2 > U1 maka proses berhenti dan didapatkan bahwa nilai N adalah 2. Namun, ketika U2 < U1 maka proses masih berjalan sampai Un di mana Un > Un-1 , maka nilai N adalah n. M = min{n ≥ 1: U1 + U2 + .... + Un > 1 } (persamaan 2)

Arti dari persamaan 2 ini adalah : M adalah jumlah variabel random berdistribusi uniform yang kita butuhkan untuk mencapai nilai 1 yaitu jika dituliskan adalah sebagai berikut : U1 + U2 + .... + Un > 1 *Nilai M = n Penjelasan lebih lanjut mengenai persamaan 2 : Ketika U1 > 1 maka proses berhenti dan didapatkan bahwa nilai M adalah 1. Ketika U1 = 1 maka proses dilanjutkan ke U2 , dan jika didapatkan U1 + U2 > 1 maka proses berhenti dan didapatkan bahwa nilai M adalah 2. Ketika U1 < 1 maka proses dilanjutkan ke U2 , dan jika didapatkan U1 + U2 < 1 maka proses dilanjutkan sampai ke U1 + ..... +Un dimana jumlahan Ui , i = 1,2,...,n bernilai lebih dari 1 sehingga didapatkan bahwa nilai M adalah n. Berlaku universal untuk U1, U2 , ... , Un sampai didapatkan jumlahan dari Ui , i = 1,2,...,n bernilai lebih dari 1.

Ternyata, N dan M memiliki distribusi peluang yang sama dan nilai ekspektasi atau nilai harapan mereka adalah e . Pembuktian 3.2.6 Untuk menemukan distribusi peluang dari N , tidaklah susah karena terdapat sebanyak n! kemungkinan susunan (urutan) dari U1 , U2 , .... , Un (teorema 1)

Penjelasan teorema 1: Terdapat U1 , U2 , U3 . Maka n = 3 sehingga didapatkan 3! susunan yaitu sebanyak 6 susunan, dan jika dijabarkan akan menjadi : 1. 2. 3. 4. 5. 6.

U1 , U2 , U3 U1 , U3 , U2 U2, U1 , U3 U2 , U3 , U1 U3 , U1 , U2 U3 , U2 , U1

Sehingga untuk mendapatkan susunan U1 , U2 , U3 𝟏

𝟏

𝟏

Peluangnya adalah 𝟔 = 𝟑! = 𝒏! (poin A.a)

Kini kita kembali mencari distribusi peluang dari N yaitu jika dijabarkan : 𝟏

P{ N > n } = P { U1 > U2 > ..... > Un } = 𝒏! (persamaan 3)

Mengapa P{ N > n } = P { U1 > U2 > ..... > Un } ? Karena jika U1 > U2 maka proses belum berhenti karena hukum Un > Un-1 belum berlaku sehingga N>2. Jika U2 > U3 maka proses belum berhenti karena hukum Un > Un-1 belum berlaku sehingga N > 3. Dan proses itu berlanjut hingga ke U1 > .... > Un yaitu : Jika Un-1 > Un maka proses belum berhenti karena hukum Un > Un-1 belum berlaku sehingga N > n. SEHINGGA TERBUKTI BAHWA :

P{ N > n } = P { U1 > U2 > ..... > Un } Untuk 𝟏

P { U1 > U2 > ..... > Un } = 𝒏! Alasannya sudah dijelaskan pada poin A.a Selanjutnya, untuk menunjukkan bahwa P{M > n} =

1 𝑛!

, kita akan menggunakan induksi

matematika. Namun bagaimanapun, kita perlu memperkuat keyakinan kita pada ketepatan induksi matematika maka kita akan menggunakan pembuktian untuk 0 < x ≤ 1. P{ M(x) > n ) =

𝑥𝑛 𝑛!

, n ≥ 1 , dimana :

M (x) = min{n ≥ 1: U1 + U2 + .... + Un > x } adalah jumlah minimum variabel random yang dibutuhkan untuk memperoleh x . P{ M(x) > n ) = P{n ≥ 1: U1 + U2 + .... + Un ≤ x } =

𝑥𝑛 𝑛!

(poin A.b)

Penjelasan tambahan mengenai poin A.b : 





Ketika U1 ≤ x maka bisa kita simpulkan bahwa nilai M(x) > 1 , dan untuk memperoleh Ui > x maka proses perlu dilanjutkan hingga U1 + U2 + ... + Un hingga didapatkan U1 + U2 + ... + Ui > x Ketika U1 + U2 ≤ x maka bisa kita simpulkan bahwa nilai M(x) > 2 , dan untuk memperoleh Ui > x maka proses perlu dilanjutkan hingga U1 + U2 + ... + Un hingga didapatkan U1 + U2 + ... + Ui > x Hingga Ketika U1 + U2 + ... + Un ≤ x maka bisa kita simpulkan bahwa nilai M(x) > n , dan untuk memperoleh Ui > x maka proses perlu dilanjutkan hingga U1 + U2 + ... + Un hingga didapatkan U1 + U2 + ... + Ui > x

Untuk membuktikan bahwa P{ M(x) > n ) =

𝑥𝑛 𝑛!

, kita perlu mencatat bahwa hal itu benar

untuk n = 1 (Basik Induksi) yaitu : 𝒙

P{ M(x) > 1 } = P { U1 ≤ x } = 𝟏! = x Langkah Induksi : Jadi asumsikan untuk semua x dimana 0 < x ≤ 1 , P{ M(x) > n ) =

𝑥𝑛 𝑛!

(Langkah 1)

Untuk menjabarkan P{ M(x) > n+1 ) , dengan bersyarat U1 untuk memperoleh :

1

P{M (x) > n+1} = ∫0 P{𝑀 (𝑥) > 𝑛 + 1|U1 = y} dy 𝑥

= ∫0 P{𝑀 (𝑥) > 𝑛 + 1|U1 = y} dy 𝑥

= ∫0 P{𝑀 (𝑥 − 𝑦) > 𝑛} dy 𝑥 (𝑥−𝑦)𝑛

= ∫0

𝑛!

𝑥 𝑢𝑛

= ∫0

𝑛!

dy

(dari langkah 1)

dy

𝑋 𝑛+1

= (𝑛+1)! dimana ditunjukkan bahwa dari penyelesaian di atas bahwa diberikan nilai U1 = y, M(x) didistribusikan sebagai satu ditambahkan dengan jumlah variabel random uniform yang dibutuhkan untuk memperoleh nilai x – y . Sehingga induksi matematika telah selesai dilakukan dan kita telah menunjukkan bahwa untuk 0 < x ≤ 1 , n ≥ 1 : P{ M(x) > n ) =

𝑥𝑛 𝑛!

Jika kita mengambil x = 1, maka bisa kita menunjukkan bahwa P{ M(1) > n ) =

1𝑛 𝑛!

1

= 𝑛!

*karena untuk berapapun nilai n, 1n tetap bernilai 1, sehingga didapatkan 1

P{ M > n ) = 𝑛! Dari persamaan 3, kita dapatkan pula bahwa : 𝟏

P{ N > n } = 𝒏! Sehingga, bisa kita lihat bahwa P{ M > n ) = P{ N > n }

TERBUKTI BAHWA M dan N mempunyai distribusi peluang yang sama. Akhirnya, bisa kita hitung nilai ekspektasi dari M dan N bahwa : ∞ E[M] = E[N] = ∑∞ 𝑛=0 P{𝑁 > 𝑛} = ∑𝑛=0 1/n! = e

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.