关于神经网络训练总结和思考

       以前一直在无脑训练神经网络,定义好参数,网络,启动Session,feed给Graph,而后就是无休止的等待,有时候运气好,数据自己有很好的区分度,模型天然很快收敛,loss直线降低。可是当数据中混淆数据占比较大时,模型不免不会受到很大的干扰,简单来讲就是,在当前batch_size下,你告诉模型向下走,下一个batch_size你告诉模型向上走。因此模型也蒙蔽,你丫的是要向上仍是要
相关文章
相关标签/搜索