聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽聽 首页聽|聽简介聽|聽编委会聽|聽征稿简则聽|聽英文刊聽|聽稿件流程聽|聽致读者聽|聽下载区聽|聽常见问题说明
网络泛化能力与随机扩展训练集
Generalization of networks and random expanded training sets
摘要点击聽聽160聽聽全文点击聽聽71聽聽投稿时间:2001-11-28聽聽最后修改时间:2002-7-1
查看全文聽聽查看/发表评论聽聽下载PDF阅读器
DOI编号聽聽
聽聽2002,19(6):963-966
中文关键词聽聽前馈神经网络聽聽泛化能力聽聽最大局部熵密度函数聽聽Chebyshev不等式
英文关键词聽聽feed forward neural networks聽聽generalization聽聽locally most entropic probability density function聽聽Chebyshev inequality
基金项目聽聽
学科分类代码聽聽
作者单位E-mail
杨慧中江南大学 通信与控制工程学院, 江苏 无锡 214036yanghuizhong@163.com
卢鹏飞江南大学 通信与控制工程学院, 江苏 无锡 214036
张素贞华东理工大学 自动化研究所, 上海 200237
陶振麟华东理工大学 自动化研究所, 上海 200237
中文摘要
聽聽聽聽聽聽针对神经网络的过拟合和泛化能力差的问题, 研究了样本数据的输入输出混合概率密度函数的局部最大熵密度估计, 提出了运用Chebyshev不等式的样本参数按类分批自校正方法, 以此估计拉伸样本集, 得到新的随机扩充训练集. 使估计质量更高, 效果更好. 仿真结果证明用这种方法训练的前馈神经网络具有较好的泛化性能.
英文摘要
聽聽聽聽聽聽Aiming at the problems of over-fitting and generalization for neural networks, the locally most entropic colored Gaussian joint input-output probability density function (PDF) estimate is studied, and a new method by means of Chebyshev inequality is proposed to self-revise respectively according to every cluster. In terms of the method, a random expanded training set is obtained. The simulation results illustrate that generalization of feed forward neural networks using the expanded training sets is greatly improved.
 
  聽聽聽聽聽聽聽聽聽 您是第253278位访问者  

主办单位:华南理工大学 中国科学院数学与系统科学研究院聽聽聽聽聽 单位地址:广州市天河区五山路381号

服务热线:020-87111464聽聽 传真:020-87111464聽聽 邮编:510640 聽聽Email: aukzllyy@scut.edu.cn
 

聽聽聽聽本系统由北京勤云科技发展有限公司设计