趋近智
在了解了导数作为瞬时变化率之后,我们现在转向一个重要应用:使用它们来找出函数中的最优点。这个被称为优化的过程,是许多机器学习 (machine learning)模型从数据中学习的一个重要途径。
在本章中,你将学习导数如何用于定位函数的最小值或最大值,这通常是通过找出导数为零 () 的点来实现的。我们将考察机器学习中的成本函数(或损失函数 (loss function)),它们衡量模型表现如何,并理解为什么最小化这些函数是目标。你将了解到梯度下降 (gradient descent),这是一种用于迭代最小化成本函数的基本算法。我们将解释导数如何提供梯度下降所需的“方向”,并通过可视化这个过程来帮助你建立直观理解。
3.1 寻找最大值和最小值点
3.2 优化:为什么最小化或最大化?
3.3 机器学习中的代价函数
3.4 目标:最小化成本函数
3.5 梯度下降简介
3.6 导数如何指导梯度下降
3.7 梯度下降的可视化