在概率論一般通識課程中,會碰到幾種常見的隨機變數,有些含義簡單,有些定義晦澀,但你也許並不清楚它們描繪了一個什麼場景,以及它們之間的隱含聯繫。

所以這次主要介紹幾種基礎的隨機變數:伯努利隨機變數,二項隨機變數,幾何隨機變數,泊松隨機變數,指數隨機變數,並將它們形成的場景用一個簡單例子串聯起來。涉及到一些證明會在文中嚴格給出,但並不艱澀難懂。

1、最簡單的隨機變數——伯努利隨機變數

伯努利隨機變數是常見且基礎的離散型隨機變數,很多人認識它是通過硬幣拋擲實驗而熟悉的,為了串聯整篇文章,今天這裡並不打算用這個例子,而是用一個到達的例子來描述:

假設有這麼一個服務中心,我們知道在第 i 個單位時間中,有一個客戶到達的概率是 p ,由於這個單位時間足夠小,因此有兩個及以上客戶到達的概率可以忽略不計,所以有0個客戶達到的概率就是 1-p ,那麼在第 i 個單位時間,到達的客戶數量 X_i 就是一個伯努利隨機變數。

伯努利隨機變數的分布列如下:

P(X_i=1)=p

P(X_i=0)=1-p

期望和方差如下:

E[X] = sum_{}^{}{x*p_X(x)} = 1*p+0*(1-p)=p

var(X) = E[(X-E(x))^2] = sum_{}^{}{(x-E(X))^2*p_X(x)} = p(1-p)

2、 n 段時間中有 S個客戶到達的隨機變數——二項隨機變數

一個例子:

接上個伯努利實驗的例子:當我們觀察了 n 段時間,發現有 S 個客戶到達了服務中心,那麼這個數量 S 就是一個二項分布的隨機變數,所以你可以認為二項隨機是獨立重複多次伯努利試驗中成功的次數。

二項隨機變數的分布列如下:

p_S(s) = P(S=s) = (^n_s)p^s(1-p)^{n-s} s=0,1,2....,n

那麼如何計算二項隨機變數的期望和方差呢:

直接用期望和方差的公式計算看上去有點複雜,我們這裡利用二項隨機變數與伯努利隨機變數的關係對其進行求解。

二項隨機變數既然可以看成是獨立重複多次伯努利試驗中成功的次數,那麼我們可以認為 n 段時間代表了 n 次伯努利實驗,他們對應的隨機變數分別是 X_1.X_2...X_n ,若隨機變數取1代表了有一個客戶到達,取0代表了沒有客戶到達,那麼對應的二項隨機變數就可以表示成:

S = X_1+X_2+...+X_n

那麼期望可以求解:

E[S] = E[X_1+X_2+...+X_n] = E[X_1]+E[X_2]+...+E[X_n=nE[X] = np

由於 X 之間是獨立的隨機變數,因此:

var(S) = var(X_1+X_2+...+X_n) = var(X_1)+var(X_2)+...+var(X_n) = np(1-p)

3、直到有一個客戶到達的時刻 T ——幾何隨機變數

一個例子:

接第一個例子,在客戶服務中心,我們進行觀察,直到第一個客戶到達,此時的時刻為 T ,這個時刻,也就是耗費的時間段為一個幾何隨機變數,注意幾何隨機變數在這裡的單位是時間數量,而不像伯努利或者二項隨機變數那樣,是客戶數量。

幾何隨機變數的分布列:

p_T(t) = p(1-p)^{t-1} t=1,2....

幾何隨機變數的期望和方差:

直接用公式求解幾何隨機變數的期望和方差也是一件很複雜的事,所以這裡我們利用一個全期望定理進行求解。

假設事件 A_1=left{ T=1 
ight}=left{ 第一段時間就有客戶來 
ight}

A_2 = left{ T>1<br />
ight} = left{ 代表第一段時間沒有客戶來<br />
ight}

那麼容易知道 E[T|T=1] =1 ,即已經知道 A_1 成立的條件下,那麼 P(T=1)=1 ,所以期望也就是1。

如果第一次失敗了,意味著我們浪費了一次機會,我們必須重新開始,因此 E[T|T>1]=1+E[T]

那麼由全期望定理可知:

E(T) = P(T=1)E[T|T=1]+P(T>1)E[T|T>1]=p+(1-P)(1+E[T])

由此可得: E(T)=frac{1}{p}

同理:

E[T^2|T=1]=1,E[T^2|T>1] = E[(1+T)^2] = 1+2E[T]+E[T^2]

所以, E[T^2] = frac{2}{p^2}-frac{1}{p}

所以: var(T) = E[T^2]-(E[T])^2 = frac{1-p}{p^2}

4、一段時間內的客戶到達數S——泊松隨機變數

泊松隨機變數與二項分布有著一定聯繫,換句話說,在一定條件下,二者會互相接近,來看一個簡單的證明:

二項分布: p_S(S) = frac{n!}{(n-s)!s!}p^s(1-p)^{n-s}

lambda = np ,則 p = lambda/n ,代入上式:

p_S(s) = frac{n(n-1)...(n-s+1)}{s!}*frac{lambda^s}{n^s}*(1-frac{lambda}{n})^{n-s}

=frac{n}{n}*frac{n-1}{n}....frac{n-s+1}{n}*frac{lambda^s}{s!}*(1-frac{lambda}{n})^{n-s}

固定 s ,令 n->infty ,上式中前面部分每一項都會趨於1,另:

(1-frac{lambda}{n})->e^{-lambda}

所以對於固定的 s ,當 n->infty 時,我們有:

p_S(s) ->e^{-lambda}frac{lambda^s}{s!}

上面只是單純的從公式上由二項分布對泊松分布進行了逼近,但其實並不直觀,現在仍然來看一個例子:

先考慮一個固定長度為 	au 的時間區間,將它分成 	au/delta 個小區間,所以每個小區間的長度為 deltadelta 是一個非常小的區間,因此在這個小區間內有兩個或多個客戶到達的概率是非常小的,可以忽略不計,另外我們假設不同區間段的達到事件是相互獨立的。更進一步的,在每個小區間內有一個客戶到達的概率大致是 lambdadelta (由前面可知 lambda = np ,所以 lambda 代表了單位時間客戶的到達數,如每小時5人到達,而 delta 是一個時間單位,並且這段時間僅能容納一個人到達,所以 lambdadelta 就代表了這段時間客戶到來的概率),因此沒有到達的概率是 1-lambdadelta 。我們可以將這些小區間看成一個個獨立的伯努利事件,並且 delta 越小,這個近似就會越精確,因為只能容納一個人的到來。

我們定義 P(s,	au) = P(在時間段長度為	au的時間內有s個到達) 接上面的例子:在時間 	au 到達 s 個人的概率 P(s,	au) 近似的等於以每次實驗成功概率為 p= lambdadelta ,進行 n = 	au/delta 次獨立的伯努利試驗,而成功 s 次的(二項)概率,保持 	au 不變,令 delta 趨向於0,那麼相應的時間段數 n 就會趨向於無窮大,而乘積 np = lambda	au 是保持不變的,在上面的證明中,我們已經證明了在這種情況下二項分布趨近的概率: P(s,	au) = e^{-lambda	au}frac{(lambda	au)^s}{s!}

相應的,我們可以較容易的得到泊松分布的期望和方差:

E[S] = np=lambda

var(s) = np(1-p)=lambda

4、連續時間上的首次到達時間 T ——指數隨機變數

一個例子:

接上面泊松分布的例子,我們假設起始時間為0,則當 T>t 時,意味著在 [0,t] 的時間下,沒有一個人到達,所以我們有分布函數:

F_T(t) = P(T<=t) = 1-P(T>t) = 1-P(0,t)=1-e^{-lambda t}

其中 P(0,t) 就是泊松分布中在 t 時間內沒有一次到達的概率。

T 的分布函數求導可得概率密度函數:

f_T(t) = lambda e^{-lambda t}

其期望和方差利用積分即可求得:

E(T)=1/lambda

var(T)=1/lambda^2

5、總結

所以我們可以看到伯努利隨機變數、二項隨機變數和泊松隨機變數都是關於客戶到達數量的隨機變數,幾何隨機變數和指數隨機變數是關於客戶到達時間的隨機變數。

二項隨機變數是多個獨立伯努利隨機變數的加總,當我們將時間無限切分時,泊松隨機變數是二項隨機變數的極限,指數隨機變數是幾何隨機變數的極限。

其實上面的例子代表了兩種隨機過程,當到達時間是離散時,則是伯努利隨機過程,當到達時間是連續時,則是泊松隨機過程,他們都是由一連串良好定義的事件組成的:


推薦閱讀:
相关文章