6.2 回归任务
最后更新于
这有帮助吗?
最后更新于
这有帮助吗?
线性回归的任务:
输入:N个独立同分布(i.i.d)的训练样本,
目标函数:
损失函数:
期望风险:
最小均方误差在分类上属于判别函数
当是线性函数,则最优化问题为:
也就是最小化经验风险,在这里即为最小二乘/均方误差
对于上述最优化问题,采用梯度下降法进行更新,梯度为
对于批梯度下降法(BGD),更新规则为:
优点
一次迭代是对所有样本进行计算,此时利用矩阵进行操作,实现了并行
由全数据集确定的方向能够更好地代表样本总体,从而更准确地朝向极值所在的方向。当目标函数为凸函数时,BGD一定能够得到全局最优
缺点
当样本数目N很大时,每迭代一步都需要对所有样本计算,训练过程会很慢
对于批梯度下降的缺点,随机梯度下降采用了不同的更新规则:
也可以写作:
区别在于,随机梯度下降(SGD)每次迭代仅针对一个样本进行,而不像BGD每次对所有样本进行训练
利用非线性基进行线性回归的思路就是对非线性基进行线性组合:
多项式基函数
高斯函数
Sigmoid函数
最优化问题:
梯度:
闭式解:
其中,
最大似然估计在分类上属于判别式模型
似然函数:
对数似然函数:
结论:在高斯噪声模型下,最大化似然相当于最小化平方误差之和
最小二乘法实际上是在假设误差项满足高斯分布且独立同分布情况下,使似然性最大化。
最大化后验概率在分类上属于生成式模型
采用正则项的LMS问题:
闭式解
似然函数
接下来假设参数的先验概率为多变量高斯分布:
这是因为根据贝叶斯公式,需要求似然与先验的联合分布,因此先验必须与似然同分布才能继续求解,则根据贝叶斯公式:
后验概率依然是高斯分布,对其取对数得:
因此,最大化后验等同于最小化带有正则项的平方和误差
MLE是判别式模型,其先验为一常数
MAP是产生式模型
MLE是频率学派的想法,MAP是贝叶斯学派的想法
更多的数据会使得MLE拟合更好,但容易出现过拟合
这里为学习率
假设y是具有加性高斯噪声的确定函数给出的标量,即,是均值为0,方差为的高斯噪声
训练数据:,
其中,