百度英伟达联手推混合精度训练,同样性能只需一半内存 | 附论文

夏乙 编译整理 量子位 出品 | 公众号 QbitAI 这几年来,各科技大厂搞出了越来越大的神经网络,达到了越来越高的准确率,但同时,这些模型对内存和计算力的要求也越来越高。 于是,有一部分研究者想要通过降低计算精度,来节约计算力。但使用混合精度或低精度运算往往会造成模型准确率的降低,还需要对网络进行修改。 现在,这个问题有了新进展。 百度和英伟达今天展示了一项双方的联合研究,用16bit半精度浮
相关文章
相关标签/搜索