昨天发了一篇PyTorch在64位Windows下的编译过程的文章,有朋友以为能不能发个包,这样就不用折腾了。因而,这个包就诞生了。感谢@晴天1494598013779为conda包的安装作了测试。git
更新:已经添加了对全部Compute Capability>=2.0的显卡的支持github
先别急着激动。若是要直接使用的话,你须要知足如下条件:多线程
这四个条件我的感受还算比较OK,若是不想放弃Anaconda2也能够建立虚拟环境来使用。post
要安装的话,若是你不嫌弃anaconda cloud的网速的话,只需键入下面一条命令:测试
conda install -c peterjc123 pytorch=0.1.12复制代码
若是不能忍受conda那蜗牛爬般的网速的话,那我为你们将包上传至公有云中,能够尝试七牛云或者百度云,你们下载以后,键入以下几条指令:spa
conda install numpy mkl cffi
conda install --offline path/to/tar/pytorch-0.1.12-py36_0.1.12cu80.tar.bz2复制代码
安装以后,也千万要注意,要在主代码的最外层包上线程
if __name__ == '__main__':复制代码
这个判断,能够参照我昨天文章中的例子,由于PyTorch的多线程库在Windows下工做还不正常。code
更新:经网友提醒,若import torch时发生以下错误:ci
Traceback (most recent call last):
File "test.py", line 2, in <module>
import torch
File "C:\Anaconda3\lib\site-packages\torch\__init__.py", line 41, in <module>
from torch._C import *
ImportError: DLL load failed: The specified module could not be found.复制代码
请将Anaconda的Python版本从3.6.0升级至3.6.1。get
附一段简单测试CUDA与cuDNN是否工做正常的代码:
# CUDA TEST
import torch
x = torch.Tensor([1.0])
xx = x.cuda()
print(xx)
# CUDNN TEST
from torch.backends import cudnn
print(cudnn.is_acceptable(xx))复制代码
若是CUDA工做不正常,那就不能使用.cuda()将模型和数据经过GPU进行加速了。而若是cuDNN不能正常工做,那就使用以下代码关掉它:
cudnn.enabled = False复制代码
以上,就是文章的所有内容啦,若是感受还意犹未尽的话,能够给个人Github 主页或者项目加个watch或者star之类的(滑稽),之后说不定还会再分享一些相关的经验。