pytorch中出现nan的现象的一个奇怪的缘由

引言 写代码过程当中遇到的一个小坑,陆陆续续的调了很久,今天解决了,特此记录一下。web 正文 前段时间跑了一个TextCnn的demo,可是一直出现nan的状况。排查了很久发现是全链接层后产生了nan,一个比较奇怪的现象。使用nn.Linear函数实现全链接,把相同的输入数据和全链接层参数取出来后用numpy的dot函数计算,发现结果不是nan,也就是说不是数据的问题,是计算的过程当中出现了问题
相关文章
相关标签/搜索