深度学习=人工智能=未来?

本文首发于微信公众号“IT之路漫漫”。 GPU疯狂的怒吼着,PC上训练模型的最大痛苦就是某一个模型参数稍微多一点,就没法训练多个模型了,深度学习的模型就更是如此,像在计算性密集的任务上一样,前面的结果计算不出来,开再多线程也是只能阻塞等(っ╥╯﹏╰╥c),训练结果出不来,后续工作就没法进行。在此间隙,给自己开个新线程或者新进程,除了看看书,想想理论,思考人生,再把把妹(业余爱好ヽ●*´∀`*●ノ)
相关文章
相关标签/搜索