会议专题

概率意义下近似正确理论的改进

在机器学习领域,学习问题正变的越来越流行、重要。一个学习算法的好坏,可以通过概率意义下近似正确理论来评价。然而,概率意义下近似正确理论对期望风险的上界的估计却不够精确。本文提出了对概率意义下近似正确理论的一些改进,通过把定理条件变弱可得到原定理同样的结论,或者在同样条件下,再给出决策集的VC维,则可得到更理想的结论。

概率意义 近似正确理论 期望风险 机器学习

王恒友 陈德刚

华北电力大学数理学院,北京,102206

国内会议

华北电力大学第五届研究生学术交流年会

北京

中文

1-5

2007-12-24(万方平台首次上网日期,不代表论文的发表时间)