torch.sigmoid()、torch.nn.Sigmoid()和torch.nn.functional.sigmoid()三者之间的区别

在利用自定义损失函数进行损失计算的时候,需要使用到sigmoid函数。当在训练模型的时候,使用torch.nn.Sigmoid()对输出进行处理,但是提示__init__错误。我发现光sigmoid()就有三种调用的方式:torch.sigmoid(),torch.nn.Sigmoid()和torch.nn.functional.sigmoid()。 torch.sigmoid(): 这是一个方法
相关文章
相关标签/搜索