概率
公式:
(A∩B=∅→P(A∪B)=P(A)+P(B))
没什么好说的.
两个集合无交集,那么他们的并集发生的概率就是两个事件发生概率的和.
如果两个集合之间有交集,利用容斥.
(A∩B ≠ ∅ → P(A∪B) = P(A) + P(B) - P(A∩B))
条件概率
(P(A|B)=dfrac {P(A∩B)}{P(B)})
百度百科对条件概率的解释:条件概率
就是在事件B中事件A发生的概率.
全概率
[∀B_i,B_j∈Ω,B_i∩B_j=∅$$ $$⋃B_i=Ω
]
对于任意的两个B集合.他们的交集都为空集.
且他们的并集为全集.
那么就有
全概率公式:
[P(A)=sum_{i}P(A|B_i)∗P(B_i)
]
贝叶斯公式
[P(A|B)=dfrac {P(B|A)*P(A)}{P(B)}
]
套用全概率公式:
[P(B_i | A) = dfrac {P(A|B_i) * PB_i}{sum_{j=1}^{n}P(B_i|B_j)*P(B_j)}
]
独立事件
判断事件是否为独立事件((A∩B = ∅))
(P(A∩B) = P(A) * P(B))
期望
参见百度百科
本人拙见:发生事件的概率乘以价值.
学术语言:在概率论和统计学中,个离散型随机变量的期望值是试验中每次可能结果的概率乘以起结果的总和.
信息学竞赛中的题目,大多数都是求离散型随机变量的数学期望.如果X是一个离散型随机变量,输出值为(x_1,x_2...)和输出值所对的概率(p_1,p_2...)(概率和为1)那么期望值$$E(x)=sum_ip_ix_i$$
性质:
设C为一个常量
(E(C) = C)
(E(C X) = C * E(X))
(E(X+Y)=E(X) + E(Y))(和的期望等于期望的和)
线性性质:对于任意的随机变量X,Y和常量a,b.有(E(a*X+b*Y) = a*E(X) + b*E(Y))
当随机变量(X,Y)独立时.(E(XY) = E(X)*E(Y))
期望的线性性是始终成立的,无论两随机变量是否成立.
全期望公式
咕咕.
后序补充
关于平均值和期望是否可以混用.
引用知乎橘士奇的一句话
期望是对未来的预期,均值是对过去的总结。
参考资料:
1.概率与期望学习笔记 - remoon
2.百度百科