maskrcnn_benchmark理解记录——关于batch norm、relu、dropout 的相对顺序以及dropout可不可用

ps: 1.如何在卷积神经网络中实现全局平均池化。在此之前,建议阅读 ResNet这篇论文  ,以了解全局平均池化操作的好处。代替全连接层。 2. dropout只可能在box分支的两个全连接层那里,这个可以后期finetuning下。全连接网络可以使feature map的维度减少,进而输入到softmax,但是又会造成过拟合,可以用pooling来代替全连接。那就解决了之前的问题:要不要在fc
相关文章
相关标签/搜索