Skip to content

第2章:概率论基础

概率论是人工智能和机器学习中不可或缺的数学工具,它为处理不确定性和随机性提供了理论基础。本章将介绍概率论的基本概念和原理,为后续的统计学习和机器学习算法打下基础。

2.1 随机事件和概率

随机事件和概率是概率论和统计学中的基本概念,它们用于描述和量化不确定性和随机性。

2.1.1 随机事件(Random Event)

  1. 定义:随机事件是实验或观察中可能发生也可能不发生的结果。在概率论中,随机事件被表示为样本空间的子集。

  2. 样本空间:样本空间是实验或观察中所有可能结果的集合。例如,掷一个骰子的样本空间是 {1,2,3,4,5,6}

  3. 事件的类型

    • 必然事件:一定会发生的事件,即样本空间本身。
    • 不可能事件:一定不会发生的事件,即空集。
    • 简单事件:由单个结果组成的事件。
    • 复合事件:由多个结果组成的事件。

2.1.2 概率(Probability)

  1. 定义:概率是度量随机事件发生可能性的数值,取值范围在 0 和 1 之间,包括 0 和 1。概率为 0 的事件是不可能事件,概率为 1 的事件是必然事件。

  2. 概率的公理

    • 非负性:对于任意事件 A,有 P(A)0
    • 归一性:必然事件的概率为 1,即 P(Ω)=1,其中 Ω 是样本空间。
    • 可加性:对于任意两个互斥事件 AB,有 P(AB)=P(A)+P(B)
  3. 概率的计算

    • 古典概率:如果样本空间中的所有结果都是等可能的,那么事件 A 的概率为 P(A)=|A||Ω|,其中 |A| 是事件 A 中的结果数,|Ω| 是样本空间中的结果数。
    • 几何概率:在连续样本空间中,事件的概率可以通过几何度量(如长度、面积、体积)来计算。
    • 频率概率:事件的概率可以通过大量重复实验中事件发生的频率来估计。

2.1.3 随机事件和概率的关系

随机事件和概率是密切相关的概念。随机事件描述了实验或观察中可能发生的结果,而概率则量化了这些事件发生的可能性。通过概率,我们可以对随机事件进行分析和预测。

2.2 条件概率和贝叶斯定理

条件概率和贝叶斯定理是概率论中的两个重要概念,它们用于描述在给定某些信息的情况下事件发生的概率。

2.2.1 条件概率(Conditional Probability)

  1. 定义:条件概率是指在事件 B 发生的条件下,事件 A 发生的概率,记作 P(A|B)。条件概率的公式为:
P(A|B)=P(AB)P(B)

其中 P(AB) 是事件 A 和事件 B 同时发生的概率,P(B) 是事件 B 发生的概率。

  1. 性质
    • 条件概率满足概率的公理,即非负性、归一性和可加性。
    • 如果 AB 是独立事件,那么 P(A|B)=P(A)

2.2.2 贝叶斯定理(Bayes' Theorem)

定义:贝叶斯定理是关于条件概率的一个重要公式,它描述了在给定相关证据或数据的情况下,某个假设的概率。贝叶斯定理的公式为:

P(H|E)=P(E|H)P(H)P(E)

其中 P(H|E) 是在证据 E 出现的条件下假设 H 成立的概率,P(E|H) 是在假设 H 成立的条件下证据 E 出现的概率,P(H) 是假设 H 的先验概率,P(E) 是证据 E 出现的总概率。

贝叶斯定理在机器学习中用于分类、聚类和参数估计。

2.2.3 条件概率和贝叶斯定理的关系

条件概率是贝叶斯定理的基础。贝叶斯定理通过条件概率和先验概率来计算后验概率,即在给定证据的情况下假设成立的概率。贝叶斯定理可以看作是条件概率的扩展,它考虑了先验知识和新证据的结合。

2.2.4 例子

假设有一种疾病,其在人群中的发病率是 1%(即 P(疾病)=0.01)。有一种检测方法,其在患者身上的阳性检出率是 99%(即 P(阳性|疾病)=0.99),在健康人身上的阴性检出率是 95%(即 P(阴性|健康)=0.95)。现在,我们想知道在检测结果为阳性的情况下,一个人患有该疾病的概率(即 P(疾病|阳性))。

首先,我们计算 P(阳性)

P(阳性)=P(阳性|疾病)P(疾病)+P(阳性|健康)P(健康)=0.99×0.01+0.05×0.99=0.0594

然后,我们使用贝叶斯定理计算 P(疾病|阳性)

P(疾病|阳性)=P(阳性|疾病)P(疾病)P(阳性)=0.99×0.010.05940.1667

因此,在检测结果为阳性的情况下,一个人患有该疾病的概率约为 16.67%。

条件概率和贝叶斯定理是概率论中的重要工具,它们在理论和应用中都具有重要的地位。

2.3 随机变量和概率分布

随机变量和概率分布是概率论和统计学中的基本概念,它们用于描述和分析随机现象。

2.3.1 随机变量(Random Variable)

  1. 定义:随机变量是一个函数,它将随机事件的结果映射到实数轴上的一个数值。随机变量可以是离散的或连续的。

  2. 离散随机变量:取值为可数个离散点的随机变量,例如掷骰子的结果。

  3. 连续随机变量:取值为一个区间或多个区间的随机变量,例如人的身高或体重。

2.3.2 概率分布(Probability Distribution)

  1. 定义:概率分布描述了随机变量取各个可能值的概率。概率分布可以是离散的或连续的,与随机变量的类型相对应。

  2. 离散概率分布:离散随机变量的概率分布,通常用概率质量函数(Probability Mass Function, PMF)表示。PMF P(X=x) 给出了随机变量 X 取值为 x 的概率。

  3. 连续概率分布:连续随机变量的概率分布,通常用概率密度函数(Probability Density Function, PDF)表示。PDF f(x) 描述了随机变量 X 在点 x 附近的概率密度,而 X 落在区间 [a,b] 内的概率由 f(x) 在该区间上的积分给出。

2.3.3 常见的概率分布

  1. 伯努利分布(Bernoulli Distribution):描述了只有两个可能结果的随机变量的概率分布,例如抛硬币。

  2. 二项分布(Binomial Distribution):描述了在固定次数的独立伯努利试验中成功次数的概率分布。

  3. 泊松分布(Poisson Distribution):描述了在固定时间或空间内随机事件发生次数的概率分布,例如电话呼叫次数。

  4. 均匀分布(Uniform Distribution):描述了在某个区间内所有值出现概率相等的连续随机变量的概率分布。

  5. 正态分布(Normal Distribution):描述了自然现象中常见的对称钟形分布,例如人的身高或体重。

2.3.4 随机变量和概率分布的关系

随机变量是随机事件的数值表示,而概率分布描述了随机变量取各个可能值的概率。随机变量和概率分布共同构成了随机现象的数学模型。

2.4 期望值和方差

期望值(Expected Value)和方差(Variance)是概率论和统计学中描述随机变量的两个基本概念,它们分别表示随机变量的中心趋势和离散程度。

2.4.1 期望值(Expected Value)

  1. 定义:随机变量 X 的期望值 E(X)X 所有可能取值的加权平均,其中权重是 X 取每个值的概率。

  2. 离散随机变量的期望值

E(X)=ixiP(X=xi)

其中 xiX 的所有可能取值,P(X=xi)X 取值为 xi 的概率。

  1. 连续随机变量的期望值
E(X)=xf(x)dx

其中 f(x)X 的概率密度函数。

2.4.2 方差(Variance)

  1. 定义:随机变量 X 的方差 Var(X)X 与其期望值之差的平方的期望值,它衡量了 X 的取值围绕期望值的离散程度。

  2. 方差的计算公式

Var(X)=E[(XE(X))2]

这个公式可以展开为:

Var(X)=E(X2)[E(X)]2

其中 E(X2)X 的平方的期望值。

2.4.3 期望值和方差的性质

  1. 期望值的线性性质

    • E(aX+b)=aE(X)+b,其中 ab 是常数。
    • E(X+Y)=E(X)+E(Y),其中 XY 是随机变量。
  2. 方差的性质

    • Var(aX+b)=a2Var(X),其中 ab 是常数。
    • 如果 XY 是独立的随机变量,那么 Var(X+Y)=Var(X)+Var(Y)

2.5 大数定律和中心极限定理

2.5.1 大数定律(Law of Large Numbers)

大数定律是概率论与数理统计的基本定理之一,它描述了在随机试验中,每次的试验结果可能不同,但当进行大量的重复试验后,试验结果几乎总是趋近于某个确定的值。用统计学语言来说,就是随机变量序列的均值收敛于某一个常数。

大数定律有几种不同的形式,包括:

  1. 切比雪夫大数定律:涉及随机变量序列的均值收敛于期望值。
  2. 伯努利大数定律:特别适用于伯努利试验,描述了事件频率依概率收敛于其发生的概率。
  3. 辛钦大数定律:适用于独立同分布随机变量序列的算术平均值依概率收敛到分布的数学期望。

2.5.2 中心极限定理(Central Limit Theorem)

中心极限定理是概率论中最著名的结果之一,它说明在一定条件下,大量独立随机变量的平均数是以正态分布为极限的。这个定理提供了计算独立随机变量之和的近似概率的简单方法,并且解释了为什么很多自然群体的经验频率呈现出钟形(即正态)曲线这一事实。

中心极限定理的主要内容包括:

  1. 独立同分布随机变量序列之和的分布逼近于正态分布:描述了独立同分布随机变量序列之和的分布近似于正态分布。
  2. 样本均值的分布:当样本量足够大时,这些样本的均值分布将接近于正态分布,即使原始数据的分布本身不是正态分布。

中心极限定理和大数定律的联系与区别:

  • 共同点:都是用来描述独立同分布的随机变量的和的渐进表现。
  • 区别:大数定律关注的是样本均值的收敛性,即样本均值是否趋近于总体均值;而中心极限定理关注的是样本均值的分布形态,即样本均值在样本本身不服从正态分布时,是否呈现出正态分布特性。此外,大数定律的前提条件较弱,只需要期望存在;中心极限定理的成立条件较强,需要方差存在。

2.6 马尔可夫链

马尔可夫链(Markov Chain)是概率论和统计学中的一种随机过程,它描述了一个系统在不同状态之间转移的概率。马尔可夫链的特点是,下一个状态的概率分布只依赖于当前状态,而与之前的状态无关,这种性质被称为“无记忆性”或“马尔可夫性质”。

2.6.1 马尔可夫链的基本概念

  1. 状态空间:马尔可夫链的所有可能状态的集合,可以是有限的或无限的。

  2. 转移概率:从一个状态转移到另一个状态的概率。转移概率通常用一个矩阵表示,称为转移概率矩阵。

  3. 初始分布:系统在初始时刻的状态分布。

2.6.2 马尔可夫链的类型

  1. 离散时间马尔可夫链:状态转移发生在离散的时间点上。

  2. 连续时间马尔可夫链:状态转移可以在任何时间发生,通常用转移率矩阵来描述。

2.6.3 马尔可夫链的性质

  1. 无记忆性:下一个状态的概率分布只依赖于当前状态,与之前的状态无关。

  2. 平稳分布:如果存在一个状态分布,使得在转移概率的作用下保持不变,那么这个分布称为平稳分布。

  3. 遍历性:如果一个马尔可夫链在足够长的时间内,能够以相同的概率访问所有状态,那么这个链是遍历的。

2.6.4 马尔可夫链的应用

  • 在机器学习中的应用:隐马尔可夫模型(HMM)和条件随机场(CRF)。

2.7 结论

概率论提供了描述和分析随机现象的数学工具,对于理解和应用机器学习算法至关重要。本章介绍了随机事件、条件概率、随机变量、概率分布、期望值、方差以及大数定律和中心极限定理等基本概念和定理。掌握这些基础知识有助于深入理解机器学习中的统计方法和模型。