10.1 基本概念

10.1.1 常见的学习方式

一、归纳学习与直推式学习

  • 归纳学习(Inductive learning):能够处理全新的数据

    • 给定训练数据集D={(x1,y1),,(xL,yL)}D=\{(\boldsymbol x_1, y_1),\dots,(\boldsymbol x_L,yL)\}无标注数据DU={xL+1,xL+U}D_U=\{\boldsymbol x_{L+1},\dots\boldsymbol x_{L+U}\}ULU\gg L

    • 学习一个函数ff用于预测新来的测试数据的标签

  • 直推式学习(Transductive learning):只能处理见过的数据,对于新的数据需要重新训练模型

    • 给定训练数据集D={(x1,y1),,(xL,yL)}D=\{(\boldsymbol x_1, y_1),\dots,(\boldsymbol x_L,yL)\}无标注数据DU={xL+1,xL+U}D_U=\{\boldsymbol x_{L+1},\dots\boldsymbol x_{L+U}\}ULU\gg L

    • 可以没有显式的学习函数,关心的是在DUD_U上的预测

二、半监督学习

  • 通用想法:同时利用有标签数据和无标记数据进行训练

  • 半监督分类/回归

    • 给定训练数据集D={(x1,y1),,(xL,yL)}D=\{(\boldsymbol x_1, y_1),\dots,(\boldsymbol x_L,yL)\},无标注数据DU={xL+1,xL+U}D_U=\{\boldsymbol x_{L+1},\dots\boldsymbol x_{L+U}\}ULU\gg L

    • 目标:学习一个分类器ff,比只用标记数据训练效果更好

  • 半监督聚类/降维

    • 给定标注数据{xi}i=1N\{\boldsymbol x_i\}_{i=1}^N

    • 目的:聚类或降维

    • 限制

      • 两个点必须在一个簇,或两个点一定不在一个簇

      • 两个点降维后必须接近

10.1.2 几种假设

一、平滑假设

半监督学习的平滑假设:如果高密度空间中两个点x1,x2\boldsymbol x_1,\boldsymbol x_2距离较近,则对应的输出y1,y2y_1,y_2也应该接近

监督学习的平滑假设:如果空间中两个点x1,x2\boldsymbol x_1,\boldsymbol x_2距离较近,那么对应到输出y1,y2y_1,y_2也应该接近

最后更新于

这有帮助吗?