• 数字特征:数学期望(均值)


    随机变量的数学期望

    【引入】

     一射手进行打靶练习,规定射入区域 $e_2$ 得2分,射入区域 $e_1$ 得1分,脱靶,即射入区域 $e_0$ ,得0分。

    射手一次射击得分数 $X$ 是一随机变量。设 $X$ 的分布律为 $P{ X=k} =p_k,k=1,2,…$

    现在射击 $N$ 次,其中得0分的有 $a_0$ 次,得1分的有 $a_1$ 次,得2分的有 $a_2$ 次,$a_0+a_1+a_2=N$ 。

    他射击 $N$ 次得分的总和为 $a_0 imes 0+a_1 imes 1+a_2 imes 2$ 。

    于是平均一次射击的得分数为

    $$frac{总分}{总次数}=frac{a_0 imes 0+a_1 imes 1+a_2 imes 2}{N}=0frac{a_0}{N}+1frac{a_1}{N}+2frac{a_2}{N}=sum_{k=0}^{2}kfrac{a_k}{N}$$

    这里,$a_k/N$是事件 ${X=k}$ 的频率。

    在第五章将会讲到,当 $N$ 很大时,$a_k/N$ 在一定意义下接近于事件${ X=k}$的概率 $p_k$ 。

    就是说,在试验次数很大时,随机变量 $X$ 的观察值的算术平均 $sumlimits_{k=0}^{2}kfrac{a_k}{N}$ 在一定意义下接近于 $sumlimits_{k=0}^{2}kp_k$ ,

    我们称 $sumlimits_{k=0}^{2}kp_k$ 为随机变量 $X$ 的数学期望或均值,一般有以下的定义。

    【定义】

    设离散性随机变量 $X$ 的分布律为 $P{ X=x_k} =p_k,k=1,2,…$ 若级数 $sumlimits_{k=1}^{infty}x_kp_k$ 绝对收敛,则称级数 $sumlimits_{k=1}^{infty}x_kp_k$ 的和为随机变量 $X$ 的数学期望,记为 $E(X)$ 。

    即:

    $$E(X)=sum_{k=1}^{infty}x_kp_k ag{1.1}$$

    设连续型随机变量 $X$ 的概率密度为 $f(x)$ ,若积分 $int_{-infty}^{infty}xf(x)dx$ 绝对收敛,则称积分 $int_{-infty}^{infty}xf(x)dx$ 的值为随机变量 $X$ 的数学期望,记为 $E(X)$ 。

    即:

    $$E(X)= int_{-infty}^{infty}xf(x)dx ag{1.2}$$

    数学期望简称期望,又称为均值。

    数学期望 $E(X)$ 完全由随机变量 $X$ 的概率分布所确定。

    若 $X$ 服从某一分布,也称 $E(X)$ 是这一分布的数学期望。

    【例1】

    【例2】

    【例3】

    【例4】

    【例5】

    【例6】泊松分布

    设$Xsim pi (lambda)$ ,求 $E(X)$ 。

    解:$X$ 的分布律为

    $$P{ X=k} =frac{lambda ^ke^{-lambda}}{k!},k=0,1,2,…,lambda >0$$

    $X$ 的数学期望为

    $$E(X)=sum_{k=0}^{infty}kfrac{lambda ^ke^{-lambda}}{k!}=lambda e^{-lambda}sum_{k=1}^{infty}frac{lambda ^{k-1}}{(k-1)!}=lambda e^{-lambda}·e^lambda=lambda$$

    即 $E(X)=lambda$

    【例7】均匀分布

    设 $Xsim U(a,b)$ ,求 $E(X)$ 。

    解:$X$ 的概率密度为

    $$f(x)=egin{cases}frac{1}{b-a},& extrm{a<x<b}\ 0,& extrm{其他}end{cases}$$

    $X$ 的数学期望为:

    $$E(X)=int_{-infty}^{infty}xf(x)dx=int_{a}^{b}frac{x}{b-a}dx=frac{a+b}{2}$$

    即:数学期望位于区间 $(a,b)$ 的中点。


    一个随机变量的函数的数学期望

    例如:飞机机翼受到压力 $W=kV^2$ ( $V$ 是风速,$k>0$ 是常数)的作用,需要求 $W$ 的数学期望,这里 $W$ 是随机变量 $V$ 的函数。

    这时,可以通过下面的定理来求 $W$ 的数学期望。

    【定理】设 $Y$ 是随机变量 $X$ 的函数:$Y=g(X)$ ( $g$ 是连续函数)

    $(i)$ 如果 $X$ 是离散型随机变量,它的分布律为 $P{ X=x_k} =p_k,k=1,2,…$,若 $sumlimits_{k=1}^{infty}g(x_k)p_k$ 绝对收敛,则有

    $$E(Y)=E[g(X)]=sum_{k=1}^{infty}g(x_k)p_k ag{1.3}$$

    $(ii)$ 如果 $X$ 是连续型随机变量,它的概率密度为 $f(x)$ ,若 $int_{-infty}^{infty}g(x)f(x)dx$ 绝对收敛,则有

    $$E(Y)=E[g(X)]=int_{-infty}^{infty}g(x)f(x)dx ag{1.4}$$

    定理的重要意义在于当我们求 $E(Y)$ 时,不必算出 $Y$ 的分布律或概率密度,而只需要利用 $X$ 的分布律或概率密度就可以了。

    定理的证明超出了本书的范围,我们只对下述特殊情况加以证明。

    证:(省略,日后再补)


    两个或两个以上随机变量的函数的数学期望

    例如,设 $Z$ 是随机变量 $X,Y$ 的函数 $Z=g(X,Y)$ ( $g$ 是连续函数),那么,$Z$ 是一个一维随机变量。

    若二维随机变量 $(X,Y)$ 的概率密度为 $f(x,y)$ ,则有

    $$E(Z)=E[g(X,Y)]=int_{-infty}^{infty}g(x,y)f(x,y)dxdy ag{1.5}$$

    这里设上式右边的积分绝对收敛。

    又若 $(X,Y)$ 为离散型随机变量,其分布律为 $P{ X=x_i,Y=y_i} =p_{ij},i,j=1,2,…$,则有

    $$E(Z)=E[g(X,Y)]=sum_{j=1}^{infty}sum_{i=1}^{infty}g(x_i,y_j)p_{ij} ag{1.6}$$

    这里设上式右边的级数绝对收敛。

    【例8】

    【例9】

    【例10】

    【例11】


     数学期望的重要性质

    1.设 $C$ 是常数,则有 $E(C)=C$ 。

    证:

    2.设 $X$ 是一随机变量,$C$ 是常数,则有 $E(CX)=CE(X)$

    证:

    3.设 $X,Y$ 是两个随机变量,则有 $E(X+Y)=E(X)+E(Y)$

    这一性质可以推广到任意有限个随机变量之和的情况。

    证:

    4.设 $X,Y$ 是相互独立的随机变量,则有 $E(XY)=E(X)E(Y)$

    这一性质可以推广到任意有限个相互独立的随机变量之积的情况。

    证:

    【例12】

    【例13】

  • 相关阅读:
    Java集合(容器)学习
    Java中最基本的集合接口:初识Collection
    Java中的Overload和Override有什么区别
    Java程序国际化学习代码一
    Java中的io流学习(了解四大基类和基本步骤)
    忘记电脑连过的WiFi的密码了,但又想知道,该怎么办?
    你真的理解了for循环吗?反正我是没有
    Java中的“==操作符”和equals方法有什么区别
    Java中final、finally、finalize有什么区别?
    Thread--线程工作万花筒
  • 原文地址:https://www.cnblogs.com/ForTech/p/8602744.html
Copyright © 2020-2023  润新知