kaiyun官方注册
您所在的位置: 首页> 嵌入式技术> 设计应用> 针对弱标记的多标记数据集成学习分类方法
针对弱标记的多标记数据集成学习分类方法
来源:微型机与应用2012年第13期
李凤英,李 宏,李 培
中南大学 信息科学与工程学院,湖南 长沙 410083
摘要:提出一种针对弱标记的多标记数据集成学习分类方法,它通过采用基于相似性成对约束投影的方法来处理数据,更好地利用了弱标记样本的特征,从而提高了分类性能。
Abstract:
Key words :

摘 要:提出一种针对弱标记的多标记数据集成学习分类方法,它通过采用基于相似性成对约束投影的方法来处理数据,更好地利用了弱标记样本的特征,从而提高了分类性能。
关键词:分类;多标记数据;集成学习;弱标记数据

 数据挖掘技术随着现代技术的飞速发展变得越来越重要了。分类是数据挖掘中的一个重要研究领域,目前分类算法有很多,经典的有决策树、贝叶斯模型、支持向量机等。在很多现实生活的分类问题中,一个样本往往同时属于多个不同的类别,比如:一幅画同时拥有“素描”、“人物”、“运动”等多个标记。多标记学习就是一种针对多标记样本进行学习的重要技术。对多标记数据进行正确的分类已成为近年来机器学习和数据挖掘中的热点研究方向。
 以往多标记学习的研究是在训练样本标记完整的情况下进行的。但是,在现实生活应用中,多数样本的标记不是完整的,而且为每个样本提供完整的标记非常困难。在此,一个弱标记样本包含其对应所有标记中的部分标记。现有的多数多标记学习方法,由于不能对这种弱标记样本进行有效地学习,可能会给训练集引入大量的噪声。为了有效地利用这些弱标记样本进行学习,本文提出一种针对弱标记的多标记数据集成学习分类方法。
1 研究现状
 目前,对多标记数据分类做了很多研究。最典型的多标记算法是ML-KNN算法。该算法是对已有K近邻算法的改进。传统的K近邻算法是基于向量的空间距离来选取近邻,但有的分类处理中要用到向量的夹角,所以广凯和潘金贵提出一种基于向量夹角的K近邻多标记分类算法。Sapozhnikova等人提出了使用ART(Adaptive Resonance Theory)神经网络的方法解决多标记分类问题。段震等人提出了基于覆盖的多标记学习方法等。但是,目前针对弱标记数据的多标记分类方法比较少。孔祥南等人提出了一种针对弱标记的直推式多标记分类方法。直推式学习是利用未标记数据学习的主流技术之一。
 集成学习是近年来机器学习领域中研究热点之一。经典的两个集成算法是Bagging和Boosting。张燕平等人提出了一种新的决策树选择性集成学习方法,杨长盛等人提出了基于成对差异性度量的选择性集成方法等。目前的集成学习研究集中于传统的单标记学习,此前Zhang等人已在单标记分类中引入成对约束建立基分类器,李平在多标记分类中引入了软成对约束建立基分类器。受此启发,本文在针对弱标记数据分类中引入了基于相似性成对约束投影的多标记集成学习方法。
2 多标记集成学习算法
2.1 算法的引入

 集成学习方法可以提高总体的分类准确率,但针对弱标记的多标记集成学习算法几乎没有。本文首次将集成学习引入到针对弱标记的多标记学习中。此前,李平首次将集成学习引入到多标记分类中。软成对约束指的是:若两个样本的标记相同数大于等于预先设定的阈值,则将样本放到M集合中,否则放到C中[1]。但是,当样本的标记不是完整的时候,这个方法容易导致本该放到M集合中的样本对却放到了C中。因此,本文针对这个问题提出了基于相似性成对约束投影的多标记集成学习方法RPCME。
2.2 基于相似性成对约束投影
 本文研究的重点是针对弱标记样本[2]如何在多标记集成学习中合理有效地利用弱标记数据提供的成对约束信息并建立强健的集成分类器。本文的基于相似性成对约束定义为:若给定的两个数据样本的相似度大于等于预先设定的阈值,则将样本放到M集合中,否则放到C中。相似度通过式(1)计算:

 分别计算集合C和M的散度矩阵,这两个矩阵是用成对约束信息生成的。该算法通过散度矩阵计算投影矩阵,然后通过投影矩阵将原数据映射到新的数据空间[3]。
2.3 权重更新策略
 由于本文的基分类器是稳定的MLKNN算法,所以采用的方法是:各训练样本的初始权重均设置为1,而当迭代训练个体分类器时[4],上一轮中被误分的样本将增加权重,如(1+r),r为权重因子。这种方法较为简单,且能保障个体分类器的差异性。差异性是集成学习中的重要概念,基分类器差异性的大小直接影响分类器的性能。因此,为了提高分类器的差异性[5],在每次的训练过程中,权重因子都要更新为不同的值。
2.4 多标记数据基分类器的集成
 对于多个不同的基分类器组成的多标记集成分类器,通常用以下两种方法对基分类器进行集成:多数投票和加权投票。本文采用的方法是选择性多数投票方法。即在集成基分类器时,为了提高分类精度,要丢弃一些准确率比较低的分类器。本文设置准确率的阈值为0.7,即基分类器的准确率大于0.7时参加集成,否则不参加集成,然后采用多数投票的方法。
2.5 RPCME算法描述
 RPCME算法首先采用基于相似性成对约束投影建立基分类器,然后对训练样本进行分类,对错误分类的数据样本增加权重,最后对多标记集成分类器进行组合。


 从表1可以看出,EPCMSE算法在3个性能指标下都优于SPACME算法,在正确率和F1下优于MLKNN算法,只在汉明距离这个指标下的性能略低于MLKNN。总体来看EPCMSE算法的性能优于其他两个算法。
从图1得知EPCMSE算法较SPACME受基分类器大小的影响小,图1(a)、(b)、(c)分别是在汉明距离、正确率和F1度性能指标下三种算法的性能曲线。从中可知EPCMSE总体性能比其他两种算法的性能好。SPACME在大小不同的基分类器下,性能变化较大。当L=9时,EPCMSE性能达到了最好,但运行时间较长。当L=5时,EPCMSE性能也比较好,且时间较短。

 从图2可知EPCMSE算法较SPACME受阈值的影响小。图2(a)、(b)、(c)分别表示在汉明距离、正确率和F1度性能指标下三种算法的性能曲线。从中可知EPCMSE算法的总体性能比SPACME和ML-KNN算法的性能好。当阈值等于0.5的时候,EPCMSE算法达到了最好。
 本文针对多标记学习任务中仅能获得弱标记数据的情况,提出了一种针对弱标记的多标记集成学习方法EPCMSE。从实验结果中可知,通过相似性成对约束投影建立基分类器,在场景图像分类任务中,该方法在弱标记情况下,具有良好的健壮性,获得较好的分类性能。在少量的弱标记数据的情况下,如何进一步提高分类性能,将需要更多的研究。
参考文献
[1] 李平.多标记分类中的半监督降维和集成学习[D].长沙:中南大学,2010.
[2] 孔祥南,黎铭,姜远,等.一种针对弱标记的直推式多标记分类方法[J].计算机研究与发展,2010,47(8):1392-1399.
[3] ZHANG D Q, CHEN S C, ZHOU Z H, et al. Constraint projections for ensemble learning[C]. In: Proceedings of the 23rd AAAI Conference on Artificial Intelligence (AAAI’08), Chicago, 2008.
[4] VANESSA G V, JERONIMO A G, AN1IBAL F V. Committees of Adaboost ensembles with modified emphasis functions[J]. Neurocomputing, 2010, 73: 1289-1292.
[5] 张宏达,王晓丹,等.分类器集成差异性研究[J].系统工程与电子技术,2009,31(12):3007-3012.

此内容为AET网站原创,未经授权禁止转载。
Baidu
map