Skip to content

第2章:网络操作与计算

在深度学习中,网络操作与计算是构建和训练神经网络的基础。本章将详细介绍神经网络中的前向传播、反向传播以及相关的数学运算。

2.1 神经网络的前向传播

2.1.1 前向传播的定义

前向传播是数据在神经网络中从输入层经过隐藏层最终到达输出层的过程。这个过程决定了网络的输出。

2.1.2 前向传播的计算

在前向传播过程中,每个神经元的输出是其输入的加权和加上偏置,再通过激活函数处理的结果。数学上,对于第l 层的第j 个神经元,其输出ajl 可以表示为: ajl=fl(iwijlail1+bjl) 其中,wijl 是从第l1 层到第l 层的权重,bjl 是偏置项,fl 是激活函数。

2.2 神经网络的反向传播

2.2.1 反向传播的定义

反向传播是神经网络训练过程中的一个关键步骤,用于计算损失函数关于网络参数的梯度。

2.2.2 反向传播的计算

反向传播通过链式法则计算每个参数的梯度,并更新参数以最小化损失函数。对于第l 层的权重wijl,其梯度可以表示为: Lwijl=Lajlajlzjlzjlwijl 其中,L 是损失函数,zjl 是第l 层的第j 个神经元的加权输入。

2.3 激活函数

2.3.1 激活函数的作用

激活函数引入非线性,使得神经网络能够学习和模拟复杂的函数。

2.3.2 常见的激活函数

  • Sigmoid函数f(x)=11+ex
  • Tanh函数f(x)=exexex+ex
  • ReLU函数f(x)=max(0,x)

2.4 参数更新

2.4.1 梯度下降

梯度下降是优化算法的核心,用于更新网络参数以最小化损失函数。

2.4.2 参数更新规则

参数更新规则可以表示为: wijl=wijlηLwijl 其中,η 是学习率。

2.5 损失函数

2.5.1 损失函数的作用

损失函数衡量模型预测值与实际值之间的差异,是模型训练中优化的目标。

2.5.2 常见的损失函数

  • 均方误差L=12i(yiy^i)2
  • 交叉熵损失L=iyilog(y^i)

2.6 本章小结

本章介绍了神经网络中的基本操作和计算,包括前向传播、反向传播、激活函数、参数更新和损失函数。这些概念和计算是理解和实现深度学习算法的基础。