今天跑代码的时候遇到了这个错误:
RuntimeError: size mismatch, m1:[1152 x 1] ,m2:[576 x 192] ,at /opt/conda/conda-bld/pytorch_1524
调试以后发现是以下有问题:
源代码在这里:
这是class里init中相应的部分
def forward的相应的问题
问题就在于y1 = self.fc_1(y)这里,fc_1也是同fc同样的全链接层,而全链接层输入的尺寸只有两维!
从图上能够看到,y输出的尺寸是[2,576,1,1]
在y1 = self.fc_1(y)的时候,由于y是四维的,因此会自动变成两维的,具体怎么变呢就是:
假设y是[2,576,1,1],输入全链接层fc_1以后,pytorch会自动将[2,576,1,1]压成[2X576,1X1],这就是二维的了。
因此应该改为以下:
在pytorch中,全链接层是经过torch.nn.linear()这个函数实现的,输入的参数只有feature的channels(就是途中的in_features),而size则根据前面的量来自适应的,因此不少人会自动的认为不须要注意输入的shape,自适应便可。这时全链接层就会帮你把你超过二维的shape给自动调整成二维的,这时就会报错啦。因此要本身调整fc的输入shape,只要batchSize和Channel数便可。函数
本文同步分享在 博客“于小勇”(CSDN)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。.net