Pytorch系列之——模型保存与加载、finetune

模型保存与加载 序列化与反序列化 模型保存与加载的两种方式 模型断点续训练 按理来说我们训练好一个模型是为了以后可以更方便的去使用它,当我们训练模型是模型是被存储在内存当中的,而内存中数据一般不具有这种长久性的存储的功能,但硬盘可以长期的存储数据,所以在我们训练好模型之后,我们需要将模型从内存中转移到硬盘上进行长期存储。这就是模型的保存与加载,也可以称之为序列化与反序列化,下面介绍为什么模型的保存
相关文章
相关标签/搜索