概率期望
感谢gzy学长
先说几个基础概念
(本人是这样理解的)
随机现象 : 有概率出现的现象,比如明天会下雨
必然现象 : 一定会出现的现象,比如acioi天下第一帅太阳会从东边升起
样本空间 :是一个集合,一般用S表示,包括全部能够出现的现象
元素 :一般用e来表示,某个能够出现的现象,(e in S)
随机事件 : 和元素意义差不多都是S里面的,一般用A表示,包含多个元素
集合运算 :(全集为S)
1. (Aigcup B) :A与B里面的元素至少一个发生就可以
2. (Aigcap B) :发生的元素在A中也在B中,还可以表示为(A·B),(AB)
3. (A-B) : 属于A但是并不属于B的,也就是A和B中,A独有的
4. (overline{AB}):({e otin A igcap B})
P(A):事件A发生的概率
随机变量:有多种可能的取值变量,一般设为X
概率怎么求
随机时间A发生的概率怎么求呢?
随机时间A发生的概率先用P(A)表示出来
A里面可能包含多个元素,只要A里面的元素中有一个发生了,那么就是A发生了,随意A发生的概率就是A中所有的元素发生的概率和,即为:
概率的性质
1.(1 ge P(A) ge 0)
因为一件事最低的概率就是不发生,也就是0,所以概率最低就是0,最高是一定发生,所以概率最高就是1
2.(sumlimits_{ein S}P(e) = 1)
全集S中的每一件事的概率加起来一定是1,因为不管发生S中的任意一件事,都在S里面,所以S的概率就是100%,也就是1,里面的每一个元素发生的概率都是这个100%里面的一部分
3.(P(igcuplimits_{i = 1}^{infty}A_i) = sumlimits_{i-1}^{infty}P(A_i))
((A_i)两两互斥)
很显然,只是一个先后顺序的转换,可以看成是今天你打算做n道菜,等于号前面的就是你先把n道菜做完再一起吃,等于号后面就可以看成你做完一道菜就吃一道菜。
古典概型
如果每一个元素出现的概率均等的话,那S里面任意一个元素出现的概率就是S的大小分之1
还是上面的那个条件,每一个元素出现的概率均等,那么A集合出现的概率就是A集合中的元素个数除以S集合中的元素个数
再说几个基础概念
独立事件:互不影响,满足(P(A*B) = P(A) * P(B))
E(X):表示X事件发生的期望
对于独立事件:(E(A imes B) = E(A) imes E(B))
随机变量的期望值
对于随机变量X,有公式:
什么意思呢?
假设每一个随机变量x都有自己的值,(X_i)对应的随机变量值就是i,那么这个数的期望值就是(X_i)这个随机变量出现的概率乘以他的值,即为上面的公式
随机变量小例题
求2次骰子投掷出的点数和的期望值
只需要枚举两个骰子投掷出的点数,他们的期望值就是这个情况出现的几率乘以这个点数和
(E(X_1 + X_2) = sumlimits_{i=1}^6sumlimits_{j=1}^6P(X=i)P(X=j)(i+j))
期望的线性性
证明:
(再次感谢gyh小学妹,感谢gzy学长)
(下面是分布来介绍的,如果觉得自己可以,看后面完整连贯无解释版的)
(E(X+Y)=sumlimits_{i=1}sumlimits_{j=1}P(X=i)P(X=j)(i+j))
(=sumlimits_{i=1}sumlimits_{j=1}(i imes P(X=i) imes P(X=j)+j imes P(X=i) imes P(X=j)))
(=sumlimits_{i=1}i imes P(X=i) imes P(X=j) + sumlimits_{j=1}j imes P(X=i) imes P(X=j)))
因为
(E(X) = sumlimits_{i=1}P(X=i) imes i)
(E(Y) = sumlimits_{i=j}P(Y=j) imes j)
所以上面没有完成的式子
(=E(X) imes P(X=j) + E(Y) imes P(Y = i))
这个时候有用到了一开始的
(sumlimits_{ein S}P(e) = 1)
而(P(X=i))的意思就是S集合里面的全部数的概率加起来
(P(Y=j))等同,这两个都和(sumlimits_{ein S}P(e))的意思一样,所以都等于1
所以再一次继续没完成的式子:
(=E(X) imes 1 + E(Y) imes 1)
(=E(X) + E(Y))
完整连贯无解释版
(E(X+Y)=sumlimits_{i=1}sumlimits_{j=1}P(X=i)P(X=j)(i+j))
(=sumlimits_{i=1}sumlimits_{j=1}(i imes P(X=i) imes P(X=j)+j imes >P(X=i) imes P(X=j)))
(=sumlimits_{i=1}i imes P(X=i) imes P(X=j) + sumlimits_{j=1}j imes >P(X=i) imes P(X=j)))
(=E(X) imes P(X=j) + E(Y) imes P(Y = i))
(=E(X) imes 1 + E(Y) imes 1)
(=E(X) + E(Y))
期望步数
期望步数我也不知道到底有没有这么一个定义,是我自己理解的
指的是期望第一次发生
概率为P的时间期望(dfrac {1}{p})次后发生
对于离散变量X
对于离散变量X,(P(X=k)=P(Xle k) - P(Xle{k-1}))
期望的线性性小例题
n个随机变量X[1……n],每个随机变量都是从1-S中随机一个整数求Max(X[1……n])的期望
Max(X[1……n])指的是这一段数中最大的数
(E(Max(X[1……n])) = sumlimits_{i=1}^SP(Max(X[1……n]) = i) imes i)
(=sumlimits_{i=1}^S[P(Mle i) - P(Mle {i-1})] imes i)
(=sumlimits_{i=1}^S[(dfrac{i}{S})^n - (dfrac{i-1}{S})^n] imes i)
先解释一下第一步,为什么出来了(P(Mle i) - P(Mle {i-1})),这就用到了前缀和的思想了,(P(Mle i) - P(Mle {i-1}) = P(M=i))这很显然就是正确的,所以原式到第一步没有问题,但是这样做有什么意义呢?
不着急,且看第二步
这样看一下,(P(Mle i))的概率,先看(P(Mle i)),就是每一个数都是小于等于i的情况那么一位是小于等于i的概率就是(dfrac{i}{S}),所以n位都小于等于i的概率就是((dfrac{i}{S})^n),同理((dfrac{i-1}{S})^n)也可以求出来了。
(P(Max(X[1……n]) = i))是很难求的,但是进行完第一步之后就很好算了,这就是第一二步的意义所在了。
例题摘选
(名字是我自己取的不喜勿喷)
1. 凑齐整数
每次随机一个[1,n]的整数,问期望几次能够凑齐所有的整数
令:(A_i)表示凑完了(i-1)个数,凑第(i)的期望步数
一共有(n)个数,凑完了(i-1)个,那就还有(n-(i-1))个数,即(n-i+1)个数没有出现,所以第(i)个位置出现一个之前没有出现过的数的概率就是(dfrac{n-i+1}{n}),所以期望步数就是(dfrac{1}{p}),等于(dfrac{n}{n-i+1})
式子:
2.当老大的概率
随机一个长度为n的排列P,求P[1……i]中P[i]是最大数的概率
只有两种可能P是最大数,P不是最大数,所以概率就是(dfrac{1}{2})
.........
很无语,虽然这么思考百分之99都是错误的,但是用在这里刚好合适,等价的思想,嗯。
3.谁在前面谁在后面
随机一个长度为n的排列P,求i在j后面的概率
嗯,又是和上面一样只有两种可能i在j前面和i在j后面,所以可能性又是
(dfrac{1}{2}),等价的思想。
不过想要严格证明一下也是可以的:
n个数里面取2个数,剩下的直接拍序,组合的方式是(n-2)的阶乘种,然后总的方案数是n!种,所以概率就是n个数里面取2个数的方案乘以(n-2)!再除以n!,不过单纯的取2个数有i在j前面也有i在j后面的可能,各占一半的概率,所以再除以2就是最后的结果了。