📔
国科大模式识别与机器学习笔记 2023
  • 课程概况
  • 第一章 概述
    • 1.1 概述
  • 第二章 生成式分类器
    • 2.1 模式识别与机器学习的目标
    • 2.2 正态分布模式的贝叶斯分类器
    • 2.3 均值向量和协方差矩阵的参数估计
    • 附 第二章作业
  • 第三章 判别式分类器
    • 3.1 判别式分类器与生成式分类器
    • 3.2 线性判别函数
    • 3.3 广义线性判别函数
    • 3.4 Fisher线性判别
    • 3.5 感知器算法
    • 3.6 可训练的确定性分类器的迭代算法
    • 3.7 势函数法
    • 3.8 决策树
    • 附 第三章作业
  • 第四章 特征选择和提取
    • 4.1 模式类别可分性的测度
    • 4.2 特征选择
    • 4.3 离散K-L变换
    • 附 第四章作业
  • 第五章 统计机器学习
    • 5.1 机器学习简介
    • 5.2 统计机器学习
  • 第六章 有监督学习
    • 6.1 有监督学习
    • 6.2 回归任务
    • 6.3 分类问题
    • 附 第六章作业
  • 第七章 支持向量机
    • 7.1 线性支持向量机
    • 7.2 核支持向量机
    • 7.3 序列最小优化算法
    • 附 第七章作业
  • 第八章 聚类
    • 8.1 基本概念
    • 8.2 经典聚类算法
    • 附 第八章作业
  • 第九章 降维
    • 9.1 基本概念
    • 9.2 维度选择
    • 9.3 维度抽取
  • 第十章 半监督学习
    • 10.1 基本概念
    • 10.2 半监督学习算法
  • 第十一章 概率图模型
    • 11.1 PGM简介
    • 11.2 有向图模型(贝叶斯网络)
    • 11.3 无向图模型(马尔科夫随机场)
    • 11.4 学习和推断
    • 11.5 典型概率图模型
    • 附 第十一章作业
  • 第十二章 集成学习
    • 12.1 简介
    • 12.2 Bagging
    • 12.3 Boosting
    • 附 第十二章作业
由 GitBook 提供支持
在本页
  • 10.1.1 常见的学习方式
  • 一、归纳学习与直推式学习
  • 二、半监督学习
  • 10.1.2 几种假设
  • 一、平滑假设

这有帮助吗?

在GitHub上编辑
  1. 第十章 半监督学习

10.1 基本概念

上一页9.3 维度抽取下一页10.2 半监督学习算法

最后更新于1年前

这有帮助吗?

10.1.1 常见的学习方式

一、归纳学习与直推式学习

  • 归纳学习(Inductive learning):能够处理全新的数据

    • 给定训练数据集D={(x1,y1),…,(xL,yL)}D=\{(\boldsymbol x_1, y_1),\dots,(\boldsymbol x_L,yL)\}D={(x1​,y1​),…,(xL​,yL)},无标注数据DU={xL+1,…xL+U}D_U=\{\boldsymbol x_{L+1},\dots\boldsymbol x_{L+U}\}DU​={xL+1​,…xL+U​}(U≫LU\gg LU≫L)

    • 学习一个函数fff用于预测新来的测试数据的标签

  • 直推式学习(Transductive learning):只能处理见过的数据,对于新的数据需要重新训练模型

    • 给定训练数据集D={(x1,y1),…,(xL,yL)}D=\{(\boldsymbol x_1, y_1),\dots,(\boldsymbol x_L,yL)\}D={(x1​,y1​),…,(xL​,yL)},无标注数据DU={xL+1,…xL+U}D_U=\{\boldsymbol x_{L+1},\dots\boldsymbol x_{L+U}\}DU​={xL+1​,…xL+U​}(U≫LU\gg LU≫L)

    • 可以没有显式的学习函数,关心的是在DUD_UDU​上的预测

二、半监督学习

  • 通用想法:同时利用有标签数据和无标记数据进行训练

  • 半监督分类/回归

    • 给定训练数据集D={(x1,y1),…,(xL,yL)}D=\{(\boldsymbol x_1, y_1),\dots,(\boldsymbol x_L,yL)\}D={(x1​,y1​),…,(xL​,yL)},无标注数据DU={xL+1,…xL+U}D_U=\{\boldsymbol x_{L+1},\dots\boldsymbol x_{L+U}\}DU​={xL+1​,…xL+U​}(U≫LU\gg LU≫L)

    • 目标:学习一个分类器fff,比只用标记数据训练效果更好

  • 半监督聚类/降维

    • 给定标注数据{xi}i=1N\{\boldsymbol x_i\}_{i=1}^N{xi​}i=1N​

    • 目的:聚类或降维

    • 限制

      • 两个点必须在一个簇,或两个点一定不在一个簇

      • 两个点降维后必须接近

10.1.2 几种假设

一、平滑假设

半监督学习的平滑假设:如果高密度空间中两个点x1,x2\boldsymbol x_1,\boldsymbol x_2x1​,x2​距离较近,则对应的输出y1,y2y_1,y_2y1​,y2​也应该接近

监督学习的平滑假设:如果空间中两个点x1,x2\boldsymbol x_1,\boldsymbol x_2x1​,x2​距离较近,那么对应到输出y1,y2y_1,y_2y1​,y2​也应该接近