神经网络:请不要开始就让我sigmoid(wTx),谢谢!

神经网络:请不要开始就让我sigmoid(wTx),谢谢! 引子 学习机器学习,翻阅了一些神经网络的文章,上来就是sigmoid ( 1/(1+exp(x)) )和WTX,让很多初学者摸不着头脑。一些市面上评价很高的机器学习的书也是直接开始sigmoid和收敛性的讨论,想踏进机器学习的门,确实仍是少了点让初学者能看懂的资料。本篇只想抛砖引玉一下,但愿那些大师们在牛逼地前进中给后人留下一条能够往上爬
相关文章
相关标签/搜索