📔
国科大模式识别与机器学习笔记 2023
  • 课程概况
  • 第一章 概述
    • 1.1 概述
  • 第二章 生成式分类器
    • 2.1 模式识别与机器学习的目标
    • 2.2 正态分布模式的贝叶斯分类器
    • 2.3 均值向量和协方差矩阵的参数估计
    • 附 第二章作业
  • 第三章 判别式分类器
    • 3.1 判别式分类器与生成式分类器
    • 3.2 线性判别函数
    • 3.3 广义线性判别函数
    • 3.4 Fisher线性判别
    • 3.5 感知器算法
    • 3.6 可训练的确定性分类器的迭代算法
    • 3.7 势函数法
    • 3.8 决策树
    • 附 第三章作业
  • 第四章 特征选择和提取
    • 4.1 模式类别可分性的测度
    • 4.2 特征选择
    • 4.3 离散K-L变换
    • 附 第四章作业
  • 第五章 统计机器学习
    • 5.1 机器学习简介
    • 5.2 统计机器学习
  • 第六章 有监督学习
    • 6.1 有监督学习
    • 6.2 回归任务
    • 6.3 分类问题
    • 附 第六章作业
  • 第七章 支持向量机
    • 7.1 线性支持向量机
    • 7.2 核支持向量机
    • 7.3 序列最小优化算法
    • 附 第七章作业
  • 第八章 聚类
    • 8.1 基本概念
    • 8.2 经典聚类算法
    • 附 第八章作业
  • 第九章 降维
    • 9.1 基本概念
    • 9.2 维度选择
    • 9.3 维度抽取
  • 第十章 半监督学习
    • 10.1 基本概念
    • 10.2 半监督学习算法
  • 第十一章 概率图模型
    • 11.1 PGM简介
    • 11.2 有向图模型(贝叶斯网络)
    • 11.3 无向图模型(马尔科夫随机场)
    • 11.4 学习和推断
    • 11.5 典型概率图模型
    • 附 第十一章作业
  • 第十二章 集成学习
    • 12.1 简介
    • 12.2 Bagging
    • 12.3 Boosting
    • 附 第十二章作业
由 GitBook 提供支持
在本页
  • 11.5.1 隐马尔科夫模型(HMM)
  • 一、HMM的结构
  • 二、HMM的表示

这有帮助吗?

在GitHub上编辑
  1. 第十一章 概率图模型

11.5 典型概率图模型

上一页11.4 学习和推断下一页附 第十一章作业

最后更新于1年前

这有帮助吗?

11.5.1 隐马尔科夫模型(HMM)

一、HMM的结构

  • 状态节点:顶层节点表示隐含变量 yty_tyt​

  • 输出节点:底层节点表示观测变量xtx_txt​

这里定义xtjx_t^jxtj​表示观测变量在t时刻取j的概率,隐含变量同理

二、HMM的表示

假设隐含变量yty_tyt​的取值范围为状态空间{s1,…,sN}\{s_1,\dots,s_N\}{s1​,…,sN​},观测变量xtx_txt​的取值范围为{o1,…,oM}\{o_1,\dots,o_M\}{o1​,…,oM​},则有:

  • 初始状态分布:隐含变量的初始概率分布

π=(π1,…,πN),πi=P(y1i=1)\boldsymbol \pi =(\pi_1,\dots,\pi_N),\quad\pi_i=P(y_1^i=1)π=(π1​,…,πN​),πi​=P(y1i​=1)
  • 状态转移矩阵:大小为N2N^2N2

A=(a11⋯a1j⋯a1N⋮⋱⋮⋮ai1⋯aij⋯aiN⋮⋮⋱⋮aN1⋯aNj⋯aNN)\boldsymbol A = \begin{pmatrix} a_{11} & \cdots & a_{1j} & \cdots &a_{1N}\\ \vdots & \ddots & \vdots & &\vdots\\ a_{i1} & \cdots & a_{ij} &\cdots & a_{iN}\\ \vdots & & \vdots & \ddots &\vdots\\ a_{N1} & \cdots & a_{Nj} & \cdots &a_{NN} \end{pmatrix}A=​a11​⋮ai1​⋮aN1​​⋯⋱⋯⋯​a1j​⋮aij​⋮aNj​​⋯⋯⋱⋯​a1N​⋮aiN​⋮aNN​​​

其中

aij=P(yt+1j∣yti=1),1≤i≤N,1≤j≤Na_{ij} = P(y_{t+1}^j\mid y_t^i=1),\quad 1\leq i\leq N,1\leq j\leq Naij​=P(yt+1j​∣yti​=1),1≤i≤N,1≤j≤N

表示t+1时刻从状态i变为状态j的概率

  • 发射概率矩阵:大小为N×MN\times MN×M

B=(b11⋯b1j⋯b1M⋮⋱⋮⋮bi1⋯bij⋯biM⋮⋮⋱⋮bN1⋯bNj⋯bNM)\boldsymbol B = \begin{pmatrix} b_{11} & \cdots & b_{1j} & \cdots & b_{1M}\\ \vdots & \ddots & \vdots & &\vdots\\ b_{i1} & \cdots & b_{ij} &\cdots & b_{iM}\\ \vdots & & \vdots & \ddots &\vdots\\ b_{N1} & \cdots & b_{Nj} & \cdots & b_{NM} \end{pmatrix}B=​b11​⋮bi1​⋮bN1​​⋯⋱⋯⋯​b1j​⋮bij​⋮bNj​​⋯⋯⋱⋯​b1M​⋮biM​⋮bNM​​​

其中

bij=P(xtj=1∣yti=1),1≤i≤N,1≤j≤Mb_{ij}=P(x_t^j=1\mid y_t^i=1),\quad 1\leq i\leq N,1\leq j\leq Mbij​=P(xtj​=1∣yti​=1),1≤i≤N,1≤j≤M

表示若t时刻隐含变量处于i状态,观测到变量为j状态的概率

因此,对于(x,y)=(x0,x1,…,xT,y0,y1…,yT)(\boldsymbol{x,y})=(x_0,x_1,\dots,x_T,y_0,y_1\dots,y_T)(x,y)=(x0​,x1​,…,xT​,y0​,y1​…,yT​)的联合概率,可以表示为:

p(x,y)=p(y1)∏t=1T−1p(yt+1∣yt)∏t=1Tp(xt∣yt)\color{orange} p(x,y) = \color{green}p(y_1)\color{blue}\prod_{t=1}^{T-1}p(y_{t+1}\mid y_t)\color{red}\prod_{t=1}^Tp(x_t\mid y_t)p(x,y)=p(y1​)t=1∏T−1​p(yt+1​∣yt​)t=1∏T​p(xt​∣yt​)