神经网络关于训练集数据量越大,效果越好的误解

以前一直想不通为何训练集为何一直须要越大越好?一般来讲,训练喂的数据越多,预测应该越好吧。最好,用交叉验证确认一下也有可能训练样本量大,数据特征较多,但网络层次太少,特征训练不充分,预测结果变差,这样才对啊。随着慢慢的学习,数据量越大效果越好,这前提是网络提取特征能力不能太差,效果的好坏是有多方面因素的。多方面因素我还没理解透每一方面具体的体现。若有不正确的,还望指教。嘻嘻,学无止境啊。web
相关文章
相关标签/搜索