softmax解释

sigmoid函数只能分两类,而softmax能分多类,softmax是sigmoid的扩展 以下是Softmax函数的定义: 这个函数与hard max(即大家通常用的max函数)有相似之处,在其中某个x显著大于其他x时,返回值接近这个x,即max 下图为softmax(x, 0)和hardmax(x,0)的图形: 差别就在于softmax是连续可导的,消除了拐点,这个特性在机器学习的梯度下降法
相关文章
相关标签/搜索