会议专题

代价敏感的k近邻方法

在机器学习和数据挖掘领域中,分类器通常设计为最小化测试样本的错误率,然而这只有在所有错误具有相同的错误分类代价时才有意义.在现实问题中,不同情况下的错误往往具有不同的代价,分类器应该设计为最小化总体错误分类代价.实现了一种基于示例加权的代价敏感k近邻方法,通过对不同类别的样本赋予不同的权值来获得代价敏感学习能力,其中样本的权值和其所在类别的错误分类代价成正比.实验结果表明,该方法在两类问题上能显著降低总体代价。

机器学习 代价敏感学习 k近邻 示例加权 数据挖掘 分类代价

刘胥影 周志华

南京大学计算机软件新技术国家重点实验室,南京,210093

国内会议

2005第一届中国分类技术与应用研讨会(CSCA)

北京

中文

23-27

2005-09-23(万方平台首次上网日期,不代表论文的发表时间)