本文共 2030 字,大约阅读时间需要 6 分钟。
一、机器学习方法:拟合预测曲线
我们可以使用机器学习来挖掘它们之间的关系(见下图的「最佳拟合预测曲线」),即给定一个不属于数据点的特征值,我们可以准确地预测出输出(特征值和预测线的交点)。
选择一个模型
(1)模型种类
1、线性模型
2、指数模型
为了使用机器学习来做预测,我们需要选择一个能够拟合收集到的数据的最佳模型。
我们可以选择一个线性(直线)模型,并通过改变其陡度/梯度和位置对其进行调整,从而匹配数据点。
我们也可以选择一个指数(曲线)模型,并通过改变其曲率(curvature)和位置对其进行调整,从而匹配同一数据点集。
(2)成本函数
为了比较哪个模型拟合得更严密,数学上我们将最佳拟合定义为一个需要被最小化的成本函数。 成本函数的一个简单样例是每个数据点所代表的实际输出与预测输出之间偏差的绝对值总和(实际结果到最佳拟合曲线的垂直投影)。用图表表示,成本函数被描述为下表中蓝色线段的长度和。
注意:更准确地说,成本函数往往是实际输出和预测输出之间的方差,因为差值有时是负数;这也称为最小二乘法。
(3)线性模型简介
线性模型的数学表示是:y=w*x+b
通过使用许多个 W、b 的值,最终我们可以找到一个最佳拟合线性模型,能够将成本函数降到最小。
问题来了:除了随机尝试不同的值,有没有一个更好的方法来快速找到 W、b 的值?
(4)梯度下降
二、基础数学知识
1、微分(求导)
2、梯度 gradient(多元函数分别求偏导,有方向)
梯度的意义
3、梯度下降算法
4、梯度下降算法的实例
(1)单变量函数的梯度下降
(1.2)梯度下降的迭代计算过程
经过四次的运算,也就是走了四步,基本就抵达了函数的最低点,也就是山底
(2)多变量函数的梯度下降
现在要通过梯度下降法计算这个函数的最小值。我们通过观察就能发现最小值其实就是 (0,0)点。但是接下来,我们会从梯度下降算法开始一步步计算到这个最小值!
(2.1)梯度下降的迭代计算过程
经过100次迭代后,已经基本靠近函数的最小值点(0,0)
七、梯度下降仅能得到局部最优解
TODO:使用梯度下降法最小化成本函数以得到最优的W和b
转载地址:http://xffr.baihongyu.com/