4.3 离散K-L变换
最后更新于
这有帮助吗?
最后更新于
这有帮助吗?
前面讨论的特征选择是在一定准则下,从n个特征中选出k个来反映原有模式
这种简单删掉某n-k个特征的做法并不十分理想,因为一般来说,原来的n个数据各自在不同程度上反映了识别对象的某些特征,简单地删去某些特征可能会丢失较多的有用信息
如果将原来的特征做正交变换,获得的每个数据都是原来n个数据的线性组合,然后从新的数据中选出少数几个,使其尽可能多地反映各类模式之间的差异,而这些特征间又尽可能相互独立,则比单纯的选择方法更灵活、更有效
K-L变换(Karhunen-Loeve变换)就是一种适用于任意概率密度函数的正交变换
设有一连续的随机实函数,,则可用已知的正交函数集的线性组合展开,即:
其中为展开式的随即系数,为一连续的正交函数,满足:
其中,为的共轭复数形式
写成向量形式,则有:
则自相关矩阵可以写成:
总结而言,计算l K-L展开式系数可以分为以下三步:
K-L展开式用于特征选择相当于一种线性变换
则产生的误差为:
从而
因此
由此可以看出,特征值越小,误差也越小
若首先采用前面的m个特征向量,便可使变换误差最小。此时的变换矩阵为:
K-L变换是在均方误差最小的意义下获得数据压缩(降维)的最佳变换,且不受模式分布的限制。对于一种类别的模式特征提取,它不存在特征分类问题,只是实现用低维的m个特征来表示原来高维的n个特征,使其误差最小,亦即使其整个模式分布结构尽可能保持不变。
通过K-L变换能获得互不相关的新特征。若采用较大特征值对应的特征向量组成变换矩阵,则能对应地保留原模式中方差最大的特征成分,所以K-L变换起到了减小相关性、突出差异性的效果。在此情况下, K-L变换也称为主成分变换(PCA变换)。
需要指出的是,采用K-L变换作为模式分类的特征提取时,要特别注意保留不同类别的模式分类鉴别信息,仅单纯考虑尽可能代表原来模式的主成分,有时并不一定有利于分类的鉴别。
给定两类模式,其分布如图所示,试用K-L变换实现一维的特征提取(假定两类模式出现的概率相等)
这符合K-L变换进行特征压缩的最佳条件。
上面的例子中可以看到
将上式写成离散的正交函数形式,使得连续随机函数和连续正交函数在区间内被等间隔采样为n个离散点,即:
则可以对公式取n项近似,并写成离散展开形式:
其中,为展开式中的随即系数的向量形式,为一矩阵,即:
可以看出,本质上是一个正交变换矩阵,它将变换成。
如果对c种模式类别做离散正交展开,则对每一模式可分别写成:,其中矩阵取决于所选用的正交函数
对各个模式类别,正交函数都是相同的,但其展开系数向量则因类别的不同模式分布而异
K-L展开式的根本性质是将随机向量x展开为另一组正交向量的线性和,且其展开式系数(即系数向量a的各个分量)具有不同的性质。
设随机向量x的总体自相关矩阵为,由:
将带入自相关矩阵,可得:
要求系数向量的各个不同分量应独立,即应使满足如下关系:
写成矩阵形式,应使:,其中为对角形矩阵,其互相关成分均为0,即:
由于中各个向量都相互归一正交,因此有:
其中,向量对应为:
可以看出,是x的自相关矩阵R的特征值,是对应的特征向量。因为R是实对称矩阵,其不同特征值对应的特征向量应正交,即:
带入式,K-L展开式的系数为:
求随机向量x的自相关矩阵:
求R的特征值和特征向量,得到矩阵
求展开式系数:
若从n个特征向量中取出m个组成变换矩阵,即:
此时,是一个n*m维矩阵,x是n维向量,经过变换,即得到降维为m的新向量
问题:选取变换矩阵,使得降维后的新向量在最小均方差条件下接近原来的向量x
对于,现在仅仅取m项,对略去的系数项用预先选定的常数b代替,此时对x的估计值为:
此时的均方差为:
要使得最小,则对b的选择应满足:
因此,,即对省略掉的a中的分量,应使用它们的数学期望来代替,此时的误差为:
其中,为x的协方差矩阵
设为的第j个特征值,是与对应的特征向量,则:
由于是一个正交阵,因此有:
从K-L展开式的性质和按最小均方差的准则来选择特征,应使。由于,故应使。基于这一条件,在将整体模式进行K-L变换之前,应先将其均值作为新坐标轴的原点,采用协方差矩阵C或自相关矩阵R来计算特征值。如果,则只能得到“次最佳”的结果。
将K-L展开式系数(亦即变换后的特征)用表示,写成向量形式:。此时变换矩阵用m个特征向量组成。为使误差最小,不采用的特征向量,其对应的特征值应尽可能小。因此,将特征值按大小次序标号,即
给定N个样本,利用KL变换将其降至m维的步骤:
计算样本均值:
平移样本:
计算的自相关矩阵:
求协方差矩阵的特征向量,取最大的m个特征值对应的m个特征向量构成变换矩阵
由于,故:
解特征值方程,求R的特征值:,求解对应的特征向量,得到:
取较大的特征值对应的变换向量作为变换矩阵,由得到变换后的一维模式特征为: