概率初步
概述¶
本文介绍一些概率论的基础概念。
为了简单起见,本文中提到的所有集合都默认是 有限集。如想了解更一般的理论,请阅读任何一本大学概率论课本,或者期待本文的后续更新(如果有这回事的话)。
事件¶
单位事件、事件空间、随机事件¶
在一次随机试验
也就是说,进行一次随机试验
一个 随机事件 是事件空间
事件的计算¶
因为事件在一定程度上是以集合的含义定义的,因此可以把事件当作集合来对待。
和事件:相当于 并集。若干个事件中只要其中之一发生,就算发生了它们的和事件。
积事件:相当于 交集。若干个事件必须全部发生,才算发生了它们的积事件。
概率¶
定义¶
古典定义¶
如果一个试验满足两条:
- 试验只有有限个基本结果;
- 试验的每个基本结果出现的可能性是一样的;
这样的试验便是古典试验。 对于古典试验中的事件
统计定义¶
如果在一定条件下,进行了
公理化定义¶
设
-
非负性:对于一个事件
A P(A)\in [0,1] -
规范性:事件空间的概率值为
1 P(S)=1 -
可加性:若
A\cap B=\varnothing P(A\cup B) = P(A)+P(B)
由
计算¶
- 广义加法公式: 对任意两个事件
A,B P(A \cup B)=P(A)+P(B)-P(A\cap B) - 条件概率: 记
P(B|A) A B P(B|A)=\dfrac{P(AB)}{P(A)} P(AB) A B - 乘法公式:
P(AB)=P(A)\cdot P(B|A)=P(B)\cdot P(A|B) - 全概率公式:若事件
A_1,A_2,\ldots,A_n \forall i,j, A_i\cap A_j=\varnothing \displaystyle \sum_{i=1}^n A_i=1 \displaystyle P(B)=\sum_{i=1}^n P(A_i)P(B|A_i) - 贝叶斯定理:
\displaystyle P(B_i|A)=\frac{P(B_i)P(A|B_i)}{\displaystyle \sum_{j=1}^n P(B_j)P(A|B_j)}
随机变量¶
直观地说,一个随机变量,是一个取值由随机事件决定的变量。
如果基于概率的公理化定义,那么一个随机变量——形式化地说——是一个从样本空间
由此可以看到,“随机变量
独立性¶
直观地说,我们认为两个东西独立,当它们在某种意义上互不影响。例如,一个人出生的年月日和他的性别,这两件事是独立的;但一个人出生的年月日和他现在的头发总量,这两件事就不是独立的,因为一个人往往年纪越大头发越少。
数学中的独立性与这种直观理解大体相似,但不尽相同。
随机事件的独立性¶
我们称两个事件
我们称若干个事件
由此可见,若干事件 两两独立 和 互相独立 是不同的概念。请注意这一点。
随机变量的独立性¶
以下用
我们称两个随机变量
我们称若干个随机变量
由此可见,若干随机变量 两两独立 和 互相独立 是不同的概念。请注意这一点。
期望¶
定义¶
如果一个随机变量的取值个数有限(比如一个表示骰子示数的随机变量),或可能的取值可以一一列举出来(比如取值范围为全体正整数),则它称为 离散型随机变量。
形式化地说,一个随机变量被称为离散型随机变量,当它的值域大小 有限 或者为 可列无穷大。
一个离散型随机变量
其中
请读者自行验证连等式中的第二个等号。
连续型随机变量的期望
如果一个随机变量的取值不可列(比如值域为
性质¶
- 全期望公式:
E(Y)=\sum\limits_{\alpha \in I(X)} P(X=\alpha)E(Y|(X=\alpha)) X,Y E(Y|A) A Y - 期望的线性性: 对于任意两个随机变量
X,Y E(X+Y)=E(X)+E(Y) - 乘积的期望: 当两个随机变量
X,Y E(XY)=E(X)E(Y)
例题¶
NOIP2016 换教室(概率期望 DP)
build本页面最近更新:,更新历史
edit发现错误?想一起完善? 在 GitHub 上编辑此页!
people本页面贡献者:OI-wiki
copyright本页面的全部内容在 CC BY-SA 4.0 和 SATA 协议之条款下提供,附加条款亦可能应用