神经网络中的反向传播----Back Propagation

说到神经网络,你们看到这个图应该不陌生:html     这是典型的三层神经网络的基本构成,Layer L1是输入层,Layer L2是隐含层,Layer L3是隐含层,咱们如今手里有一堆数据{x1,x2,x3,...,xn},输出也是一堆数据{y1,y2,y3,...,yn},如今要他们在隐含层作某种变换,让你把数据灌进去后获得你指望的输出。若是你但愿你的输出和原始输入同样,那么就是最多见的自编
相关文章
相关标签/搜索