本节课学习均方误差损失函数和梯度下降算法的具体实现,并介绍了机器学习中损失函数、梯度下降、前向传播和反向传播的概念。
- 残差的问题(正负抵消)
- 均方误差(MSE)的优势
- 损失函数的作用:量化预测与真实的差距
- 什么是梯度?
- 梯度下降的几何直观
- 学习率的选择
- 局部最小值 vs 全局最小值
- 前向传播:计算预测值和损失
- 反向传播:计算梯度并更新参数
- 链式法则在神经网络中的应用
# Jupyter Notebook 版本
jupyter notebook tutorial.ipynb
# Python 脚本版本
python tutorial.pyLoss = (1/n) * Σ(y_pred - y_true)²
w = w - α * ∂Loss/∂w
其中 α 是学习率
- 实现绝对值误差(MAE),对比 MSE 的效果
- 绘制损失函数随迭代次数的变化曲线
- 尝试不同的优化器(如动量梯度下降)
- 可视化梯度下降在参数空间的轨迹
梯度下降就像是下山:站在山顶(高损失),沿着最陡的方向(负梯度)一步步走(学习率步长),最终到达山脚(最小损失)。
Previous ← 01-linear-model | Next → 03-activation