冻结网络层训练的解释

博客连接:https://zhuanlan.zhihu.com/p/41313280网络 在微调(fine-tuning)中,须要肯定冻结的层数和可训练的层数,主要取决于,数据集类似度和新数据集的大小。原则上,类似度越高,则固定(fix)的层数越多;新数据集越大,不考虑训练时间的成本,则可训练更多的层数。而后可能也要考虑数据集自己的类别间差别度,但上面说的规则基本上仍是成立的。图片 例如,在图片分
相关文章
相关标签/搜索