如何让手机快速运行AI应用?这有份TVM优化教程

原作:郑怜悯(上海交大) 允中 摘录编译 量子位 出品 | 公众号 QbitAI 在移动设备上部署深度神经网络的需求正在快速增加。 和桌面平台类似,GPU也能在移动平台加速推理速度、降低能耗。但问题是,大多数现有深度学习框架并不能很好的支持移动GPU。 为什么会这样?因为移动GPU和桌面GPU在架构上存在差异。 所以想要利用移动GPU,还得进行专门的优化。这种额外的工作,最终导致的结果就是大多数深
相关文章
相关标签/搜索