卷积神经网络——对tf.nn.softmax,softmax loss和cross entropy的理解

Softmax的含义:Softmax简单的说就是把一个N*1的向量归一化为(0,1)之间的值,由于其中采用指数运算,使得向量中数值较大的量特征更加明显。 如图所示,在等号左边部分就是全连接层做的事。 W是全连接层的参数,我们也称为权值;W是全连接层的参数,是个T*N的矩阵,这个N和X的N对应,T表示类别数,比如你进行手写数字识别,就是10个分类,那么T就是10。 X是全连接层的输入,也就是特征。从
相关文章
相关标签/搜索