Skip to content

第4章:逻辑回归

逻辑回归是机器学习中用于分类问题的一种基本算法,尤其在二分类问题中应用广泛。尽管名为“回归”,逻辑回归实际上是一种分类算法,因其输出值表示类别的概率而得名。本章将详细介绍逻辑回归的基本原理、模型训练和应用。

4.1 逻辑回归模型

4.1.1 模型介绍

逻辑回归模型通过使用逻辑函数(如Sigmoid函数)将线性回归的输出映射到0和1之间,从而预测一个二分类问题的概率。

4.1.2 Sigmoid函数

  • 定义:Sigmoid函数是一个将任意值映射到(0,1)区间的函数,常用于二分类问题中将线性输出转换为概率。
  • 公式σ(z)=11+ez

4.1.3 模型表示

  • 线性组合:模型的输入特征与权重的线性组合。
  • 概率预测:通过Sigmoid函数将线性组合转换为概率。

4.2 模型训练

4.2.1 代价函数

  • 定义:代价函数衡量模型预测与实际标签之间的差异。
  • 对数似然:逻辑回归通常使用对数似然函数作为代价函数,因为它具有良好的数学性质和直观的解释。

4.2.2 梯度下降

  • 目的:通过梯度下降算法最小化代价函数,找到最优的模型参数。
  • 迭代更新:模型参数通过迭代更新,直到收敛。

4.2.3 正则化

  • 目的:防止模型过拟合,提高模型的泛化能力。
  • L1和L2正则化:通过在代价函数中添加正则化项来惩罚大的权重值。

4.3 多分类问题

4.3.1 一对多(One-vs-All)

  • 方法:为每个类别训练一个二分类器,将每个类别与其他所有类别进行比较。
  • 输出:选择具有最高概率输出的类别作为预测结果。

4.3.2 softmax回归

  • 定义:softmax函数是Sigmoid函数的多分类版本,可以将输出映射到多个类别的概率分布。
  • 公式softmax(z)i=ezijezj

4.4 模型评估

4.4.1 性能指标

  • 准确率:正确分类的样本比例。
  • 精确率和召回率:针对每个类别的性能评估。
  • F1分数:精确率和召回率的调和平均值。

4.4.2 交叉验证

  • 目的:评估模型的泛化能力,减少过拟合的风险。
  • k折交叉验证:将数据集分成k个子集,轮流使用其中一个子集作为测试集,其余作为训练集。

4.5 逻辑回归的优缺点

4.5.1 优点

  • 模型简单:易于理解和实现。
  • 计算效率高:适合大规模数据集。

4.5.2 缺点

  • 非线性问题:对于非线性问题,需要进行特征工程或使用更复杂的模型。
  • 对特征缩放敏感:对输入特征的尺度敏感,可能需要特征归一化。

4.6 本章小结

逻辑回归作为一种线性模型,虽然简单,但在许多实际问题中表现出色。本章详细介绍了逻辑回归的基本原理、模型训练过程、多分类问题的解决方案以及模型评估方法。理解这些内容对于应用逻辑回归解决实际分类问题至关重要。