文献标识码:A
DOI:10.16157/j.issn.0258-7998.2015.09.042
中文引用格式:杜静,蔡震震,蒋鹏,等. 一种新的特征评价方法及在高铁故障中的应用[J].电子技术应用,2015,41(9):153-156.
英文引用格式:Du Jing,Cai Zhenzhen,Jiang Peng,et al. A new feature evaluation algorithm and its application in fault of high-speed railway[J].Application of Electronic Technique,2015,41(9):153-156.
0 引言
特征选择是指从原始特征集中删除冗余的、无关的的特征,选取含有最多识别信息的特征子集[1-3]。目前特征评价准则面临两大问题:一是定义新的单一特征评价准则;另一个是如何融合不同单一特征评价准则解决特征之间的冗余和冲突。
为解决第一个问题,许多学者提出一系列单一特征评价准则,如Mahalanobis Distance、Fuzzy Entropy等。特征选择方法主要分为两种方式:Filter model和Wrapper model[4]。单一特征评价准则存在许多不足之处,如单一特征评价准则不能全面反映特征的特性,普适性较差。
为解决第二个问题,YAN W提出了一种新的多准则特征排序方法(MCFR)[5]。为综合运用单一评价准则,YAN W等提出了融合方法:基于Borda count方法的特征排序融合方法。YANG F提出一种基于多准则特征排序的递归特性消除算法(MCF-RFE)[6]。
多准则特征评估方法的核心问题是融合规则问题。D-S证据理论不仅能很好地把握问题的未知性和不确定性,而且提供了一个非常有用的合成公式,使得融合多个证据源提供的信息成为可能[7-8]。Murphy提出首先将待融合n条证据进行算数平均,然后对平均后的证据利用D-S规则组合n-1次,该方法可以得到好的收敛效果[9]。因此,为了提高多准则特征评价的有效性,基于Murphy改进的D-S理论和证据冲突理论,本文提出一种新的多准则特征评估方法(MCFE-DSEC)。
实验部分将MCFE-DSEC与4种单一评价准则(Fisher′s ratio、Fuzzy Entropy、Representation Entropy(RE)、MD)及多准则特征评估方法(Borda Count)的分类准确率进行对比,实验结果表明,MCFE-DSEC方法得出的分类准确率优于上述方法,同时也说明采用D-S理论作为融合规则能够有效地降低融合过程中的冲突,得到更可靠的排序结果。
1 特征评价准则
目前,研究者们已提出许多特征评价准则。显然,没有必要把所有的单一特征评价准则融合,而且这种做法也是不切实际的[10]。本文采用Mahalanobis Distance(MD)、Fisher′s ratio、Fuzzy Entropy和Representation Entropy(RE)4种方法。Fuzzy Entropy和 Representation Entropy是基于信息论的过滤式特征评价方法,Mahalanobis Distance(MD)和Fisher′s ratio属于包裹式特征评价方法。下面将简要介绍这4种方法。
1.1 Representation Entropy(RE)
设j(j=1,…,d)表示d维特征集合的协方差矩阵的特征值,将特征值标准化:
1.2 Fisher′s ratio
Fisher′s ratio[12]对每一个特征计算其类间均值的方差与类内平均方差的比值,根据比值的大小判断特征j对分类作用的大小。
c类中特征j的方差。FR越大,对分类起的作用越大。
1.3 Fuzzy Entropy
模糊熵的定义很多,De Luca和Termini考虑到模糊集合的概念在克劳德·艾尔伍德·香农(Claud Elwood Shannon)概率熵的基础上提出模糊熵的公式如下[13]:
1.4 Mahalanobis Distance,MD
设i和j分别表示第i类和第j类内所有样本的均值向量(行向量),表示特征集合的协方差矩阵。Mahalanobis Distance计算方法如下[5]:
对于含两类以上的数据集,MD可表示为:
MD越大表示该特征集合含有的信息越多。
2 基于D-S理论的多准则特征评估方法
2.1 D-S证据理论
首先定义一个空间,称为辨识框架,由一些互斥且穷举的元素组成。对于问题域中任何命题A,都应包含于2?兹。定义映射m:2X→[0,1],为基本概率赋值函数,则相应的D-S融合规则为[14-15]:
其中,表示各证据之间的冲突系数。
D-S证据理论虽然有很多优点,但在组合高冲突的证据时会出现违背常理的组合结果。针对这一问题,国内外研究人员提出众多改进方法。Murphy提出一种对证据源求算术平均的改进算法,该方法简单有效,因此本文将该方法作为融合规则。
2.2 基于D-S理论的多准则特征评估方法
MCFE-DSEC的原理如图1所示,给定一个特征集,首先根据每一个单一评价准则得到相应的得分向量,每个特征的得分大小代表该特征的重要程度;然后,对每个得分向量归一化作为分数证据向量;根据融合规则将分数证据向量融合得到综合得分向量;最后,对综合得分向量排序得到特征的综合排序。
下面将详细介绍MCFE-DSEC方法的融合规则。设识别框架?专={F1,F2,…,FM}包含M个互不相容的元素,Fi表示第i个特征。假设有N个单一特征评价准则,si表示由第i(1≤i≤N)个准则得到的得分向量,对si归一化:
由融合准则得到统一的得分向量[e(F1),e(F1),…,e(FM)]。得分向量中的元素降序排列,得到特征的综合排序。
3 实验与分析
为了验证本文算法的有效性和优越性,对高速列车的实测故障数据进行,本文分别采用多准则MCFE-DSEC、Borda Count和3种单一评价准则(Fuzzy Entropy、 Fisher′s ratio、RE)对特征进行评价,每次去掉一个冗余特征,并用剩余的特征子集进行分类,就可得到各个特征空间的分类准确率,并将上述5种方法各个特征空间的分类准确率对比。
3.1 实验设计
为了验证MCFE-DSEC方法在高铁故障诊断中的有效性,应用MCFE-DSEC方法对某型高速列车实测数据进行了仿真验证。对高速列车4种工况(正常、横向减振器失效、抗蛇行减振器失效、空簧失气)的数据分别提取小波系数均值、方差以及快速傅里叶变换的均值、方差得到8维特征,每种工况有20组样本,共80组样本。从4种工况中分别选取一组样本作为训练样本,剩下的76组数据作为测试样本。
3.2 实验结果分析
图2~图6表示不同速度下6种特征评价方法在各个特征空间内的准确率对比,表1为不同速度下6种特征评价方法在各个特征空间内的准确率的平均值以及原特征空间的分类准确率。由图2~图6和表1可得:与其他方法相比, MCFE-DSEC方法对5种速度下各个空间都有较高的分类准确率,在去除冗余特征的过程中分类准确率呈现先增长后下降的趋势,不仅如此,各个特征空间的分类准确率平均值也是6种方法中最高的。而其他方法只能对某一速度下的特征作出有效的评价,但是对其他速度下的特征不适用。如Borda Count方法,只对速度140 km/h、220 km/h有较好的评价结果,但对其他速度不适用;Fisher′s ratio方法只对速度200 km/h、220 km/h有较好的评价,但准确率低于MCFE-DSEC方法,而对其他速度的评价结果很差。MCFE-DSEC方法在140 km/h速度下与原特征空间相比分类准确率提高了22.04%,在160 km/h速度下与原特征空间相比分类准确率提高了8.63%。以上说明MCFE-DSEC方法能够更好的对特征作出评价,且具有普适性。
4 结束语
基于多准则特征评估方法和改进的D-S证据理论各自的优点,本文提出一种新的特征选择方法MCFE-DSEC。实验部分以高速列车故障数据为研究对象进行了验证。实验结果证明了该方法可以有效地对各个特征做出评价,剔除冗余特征,降低分类器的复杂度,有效地提高高速列车多种故障分类的准确度。
参考文献
[1] SUN X,LIU Y,XU M,et al.Feature selection using dynamicweights for classification[J].Knowledge-Based Systems,2013(37):541-549.
[2] SONG Q,NI J,WANG G.A fast clustering-based feature subset selection algorithm for high-dimensional data[J].Knowledge and Data Engineering,IEEE Transactions on,2013,25(1):1-14.
[3] YU L,LIU H.Efficient feature selection via analysis of relevance and redundancy[J].The Journal of Machine Learning Research,2004(5):1205-1224.
[4] AHMAD F K,NORWAWI N M,DERIS S,et al.A review of feature selection techniques via gene expression profiles[C].Information Technology,2008.ITSim 2008.International Symposium on.IEEE,2008,2:1-7.
[5] YAN W.Fusion in multi-criterion feature ranking[C].Information Fusion,2007 10th International Conference on.IEEE,2007:1-6.
[6] YANG F,MAO K Z.Robust feature selection for microarraydata based on multicriterion fusion[J].IEEE/ACM Transactions on Computational Biology and Bioinformatics(TCBB),2011,8(4):1080-1092.
[7] 孙全,叶秀清,顾伟康.一种新的基于证据理论的合成公式[J].电子学报,2000,28(8):117-119.
[8] 李弼程,钱曾波.一种有效的证据理论合成公式[J].数据采集与处理,2002,17(1):33-36.
[9] MURPHY C K.Combining belief functions when evidence conflicts[J].Decision support systems,2000,29(1):1-9.
[10] ZHU J,FEI Z.Feature selection for high-dimensional and small-sized data based on multi-criterion fusion[J].Journalof Convergence Information Technology,2012,7(19):203.
[11] MITRA P,MURTHY C A,PAL S K.Unsupervised feature selection using feature similarity[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(3):301-312.
[12] ZABIDI A,MANSOR W,KHUAN L Y,et al.The effect ofF-ratio in the classification of asphyxiated infant cries using multilayer perceptron Neural Network[C].Biomedical Engineering and Sciences(IECBES),2010 IEEE EMBS Conference on.IEEE,2010:126-129.
[13] LUUKKA P.Feature selection using fuzzy entropy measureswith similarity classifier[J].Expert Systems with Applica-tions,2011,38(4):4600-4607.
[14] DEMPSTER A P.Upper and lower probabilities induced by a multivalued mapping[J].The Annals of Mathematical Statistics,1967(2):325-339.
[15] SHAFER G.A mathematical theory of evidence[M].Princeton:Princeton university press,1976.