激活函数整理

概述 简单的记录一下几个激活函数的图像,以便自己以后又忘了回来查阅 激活函数 在pytorch中,使用relu,sigmoid和tanh可以直接用torch.relu(x),torch.sigmoid(x)和torch.numpy(x)来调用,而softplus则是用torch.nn.functional来调用,即F.softplus(x)
相关文章
相关标签/搜索