随机变量的数学期望
【引入】
一射手进行打靶练习,规定射入区域 $e_2$ 得2分,射入区域 $e_1$ 得1分,脱靶,即射入区域 $e_0$ ,得0分。
射手一次射击得分数 $X$ 是一随机变量。设 $X$ 的分布律为 $P{ X=k} =p_k,k=1,2,…$
现在射击 $N$ 次,其中得0分的有 $a_0$ 次,得1分的有 $a_1$ 次,得2分的有 $a_2$ 次,$a_0+a_1+a_2=N$ 。
他射击 $N$ 次得分的总和为 $a_0 imes 0+a_1 imes 1+a_2 imes 2$ 。
于是平均一次射击的得分数为
$$frac{总分}{总次数}=frac{a_0 imes 0+a_1 imes 1+a_2 imes 2}{N}=0frac{a_0}{N}+1frac{a_1}{N}+2frac{a_2}{N}=sum_{k=0}^{2}kfrac{a_k}{N}$$
这里,$a_k/N$是事件 ${X=k}$ 的频率。
在第五章将会讲到,当 $N$ 很大时,$a_k/N$ 在一定意义下接近于事件${ X=k}$的概率 $p_k$ 。
就是说,在试验次数很大时,随机变量 $X$ 的观察值的算术平均 $sumlimits_{k=0}^{2}kfrac{a_k}{N}$ 在一定意义下接近于 $sumlimits_{k=0}^{2}kp_k$ ,
我们称 $sumlimits_{k=0}^{2}kp_k$ 为随机变量 $X$ 的数学期望或均值,一般有以下的定义。
【定义】
设离散性随机变量 $X$ 的分布律为 $P{ X=x_k} =p_k,k=1,2,…$ 若级数 $sumlimits_{k=1}^{infty}x_kp_k$ 绝对收敛,则称级数 $sumlimits_{k=1}^{infty}x_kp_k$ 的和为随机变量 $X$ 的数学期望,记为 $E(X)$ 。
即:
$$E(X)=sum_{k=1}^{infty}x_kp_k ag{1.1}$$
设连续型随机变量 $X$ 的概率密度为 $f(x)$ ,若积分 $int_{-infty}^{infty}xf(x)dx$ 绝对收敛,则称积分 $int_{-infty}^{infty}xf(x)dx$ 的值为随机变量 $X$ 的数学期望,记为 $E(X)$ 。
即:
$$E(X)= int_{-infty}^{infty}xf(x)dx ag{1.2}$$
数学期望简称期望,又称为均值。
数学期望 $E(X)$ 完全由随机变量 $X$ 的概率分布所确定。
若 $X$ 服从某一分布,也称 $E(X)$ 是这一分布的数学期望。
【例1】
【例2】
【例3】
【例4】
【例5】
【例6】泊松分布
设$Xsim pi (lambda)$ ,求 $E(X)$ 。
解:$X$ 的分布律为
$$P{ X=k} =frac{lambda ^ke^{-lambda}}{k!},k=0,1,2,…,lambda >0$$
$X$ 的数学期望为
$$E(X)=sum_{k=0}^{infty}kfrac{lambda ^ke^{-lambda}}{k!}=lambda e^{-lambda}sum_{k=1}^{infty}frac{lambda ^{k-1}}{(k-1)!}=lambda e^{-lambda}·e^lambda=lambda$$
即 $E(X)=lambda$
【例7】均匀分布
设 $Xsim U(a,b)$ ,求 $E(X)$ 。
解:$X$ 的概率密度为
$$f(x)=egin{cases}frac{1}{b-a},& extrm{a<x<b}\ 0,& extrm{其他}end{cases}$$
$X$ 的数学期望为:
$$E(X)=int_{-infty}^{infty}xf(x)dx=int_{a}^{b}frac{x}{b-a}dx=frac{a+b}{2}$$
即:数学期望位于区间 $(a,b)$ 的中点。
一个随机变量的函数的数学期望
例如:飞机机翼受到压力 $W=kV^2$ ( $V$ 是风速,$k>0$ 是常数)的作用,需要求 $W$ 的数学期望,这里 $W$ 是随机变量 $V$ 的函数。
这时,可以通过下面的定理来求 $W$ 的数学期望。
【定理】设 $Y$ 是随机变量 $X$ 的函数:$Y=g(X)$ ( $g$ 是连续函数)
$(i)$ 如果 $X$ 是离散型随机变量,它的分布律为 $P{ X=x_k} =p_k,k=1,2,…$,若 $sumlimits_{k=1}^{infty}g(x_k)p_k$ 绝对收敛,则有
$$E(Y)=E[g(X)]=sum_{k=1}^{infty}g(x_k)p_k ag{1.3}$$
$(ii)$ 如果 $X$ 是连续型随机变量,它的概率密度为 $f(x)$ ,若 $int_{-infty}^{infty}g(x)f(x)dx$ 绝对收敛,则有
$$E(Y)=E[g(X)]=int_{-infty}^{infty}g(x)f(x)dx ag{1.4}$$
定理的重要意义在于当我们求 $E(Y)$ 时,不必算出 $Y$ 的分布律或概率密度,而只需要利用 $X$ 的分布律或概率密度就可以了。
定理的证明超出了本书的范围,我们只对下述特殊情况加以证明。
证:(省略,日后再补)
两个或两个以上随机变量的函数的数学期望
例如,设 $Z$ 是随机变量 $X,Y$ 的函数 $Z=g(X,Y)$ ( $g$ 是连续函数),那么,$Z$ 是一个一维随机变量。
若二维随机变量 $(X,Y)$ 的概率密度为 $f(x,y)$ ,则有
$$E(Z)=E[g(X,Y)]=int_{-infty}^{infty}g(x,y)f(x,y)dxdy ag{1.5}$$
这里设上式右边的积分绝对收敛。
又若 $(X,Y)$ 为离散型随机变量,其分布律为 $P{ X=x_i,Y=y_i} =p_{ij},i,j=1,2,…$,则有
$$E(Z)=E[g(X,Y)]=sum_{j=1}^{infty}sum_{i=1}^{infty}g(x_i,y_j)p_{ij} ag{1.6}$$
这里设上式右边的级数绝对收敛。
【例8】
【例9】
【例10】
【例11】
数学期望的重要性质
1.设 $C$ 是常数,则有 $E(C)=C$ 。
证:
2.设 $X$ 是一随机变量,$C$ 是常数,则有 $E(CX)=CE(X)$
证:
3.设 $X,Y$ 是两个随机变量,则有 $E(X+Y)=E(X)+E(Y)$
这一性质可以推广到任意有限个随机变量之和的情况。
证:
4.设 $X,Y$ 是相互独立的随机变量,则有 $E(XY)=E(X)E(Y)$
这一性质可以推广到任意有限个相互独立的随机变量之积的情况。
证:
【例12】
【例13】