wwfl.net
当前位置:首页 >> kl变换 >>

kl变换

在模式识别和图像处理中一个主要的问题就是降维,在实际模式识别问题中,我们选择的特征经常彼此相关,在识别这些特征时,数量很多,大部分都是无用的。如果我们能减少特征的数量,即减少特征空间的维数,那么我们将以更少的存储和计算复杂度获...

可见,要实现KLT,首先要从信号求出其协方差矩阵Ф,再由Ф求出正交矩阵Q。Ф的求法与自相关矩阵求法类似。

(1)去相关特性K-L变换是变换后的矢量信号Y的分量互不相关。(2)能量集中性所谓能量集中性,是指对N维矢量信号进行K-L变换后,最大的方差见集中在前M个低次分量之中(M

K-L变换的一般步骤是:1、读入图像、形成数据矩阵(每个样本为1*64) 2、标准化数据 3、求协方差矩阵 4、计算协方差矩阵的特征根及特征向量 5、选出最大10个特征值对应的特征向量构成变换矩阵 6、求每个样本在特征空间的表示

KL变换在线性变换中能量集中效率最高 KL变换用于: DIP: 图像压缩,可以使得图像压缩后均方误差最小 -- 最优描述 模式识别:用于降维,希望在特征数减少后仍然保持类别可分离性 -- 最优区分 KL变换目的: 寻找n*n的正交矩阵A,使得A对X的变换结。

这是可以的,但要有数据,请把数据发过来,我给你写个程序。

你不是都已经说清楚流程了 不知道你需要啥帮助的。 yale数据不知道存的是什么特征, pca降维到2维的话,这样的特征空间描述度足以区分不同人脸吗,我没用过,只是单纯的疑问 Fisher分类器没用过,印象中好像和pca,lda也是有一定关系的

网站首页 | 网站地图
All rights reserved Powered by www.wwfl.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com