pytorch官网:http://pytorch.org/上只有PyTroch的ubuntu和Mac版本,赤裸裸地歧视了一把Windows低端用户。
python
1. Caffe源码:Caffe源码理解之存储
git
Caffe2中的存储结构层次从上到下依次是Workspace, Blob, Tensor。Workspace存储了运行时全部的Blob和实例化的Net。Blob能够视为对任意类型的一个封装的类,好比封装Tensor, float, string等等。Tensor就是一个多维数组,这个Tensor就相似于Caffe1中的Blob。Caffe2中真正涉及到分配存储空间的调用则在Context中,分为CPUContext和CUDAContext。下面按照从下到上的顺序分析一下Caffe2的存储分配过程。github
下面是Operator中从建立Blob到实际分配空间的流程,这个图是怎么画出来的呢:shell
2.Caffe2 Detectron的使用初步ubuntu
关于InferImage:windows
在 NVIDIA Tesla P100 GPU 上,单张图片的推断时间大概是 130-140ms.固然这与输入图像的参数设置size有关。数组
简单介绍在 COCO Dataset 上训练模型.ruby
采用 ResNet-50-FPN Backbone 进行 end-to-end 的 Faster R-CNN 训练.多线程
这里简单进行模型训练,小尺寸的输入图片,可以使训练和推断的速度相对较快.分布式
python2 tools/train_net.py \ --cfg configs/getting_started/tutorial_1gpu_e2e_faster_rcnn_R-50-FPN.yaml \ OUTPUT_DIR /tmp/detectron-output
/tmp/detectron-output
,如 models, validation set detections 等.coco_2014_minival
上的 Box AP 大约是 22.1%.Detectron 提供了基于二、四、8 张 GPUS 训练的 configs 参数配置文件.
如 configs/getting_started/tutorial_{2,4,8}gpu_e2e_faster_rcnn_R-50-FPN.yaml
.
如,2 张 GPUs 的训练:
python2 tools/train_net.py \ --multi-gpu-testing \ --cfg configs/getting_started/tutorial_2gpu_e2e_faster_rcnn_R-50-FPN.yaml \ OUTPUT_DIR /tmp/detectron-output
--multi-gpu-testing
是告诉 Detectron 在训练结束后,采用 multiple GPUs (如NUM_GPUs
为 2) 进行并行化推断.
指望的结果:
coco_2014_minival
上的 Box AP 大约是 22.1%.关于学习方案的调整(“linear scaling rule”),能够参考提供的 config 文件,阅读论文 Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour.
除了这里,其它的 configs 都是基于 8 GPUs.
若是训练的 GPUs 少于 8,或者想尝试改变 minibatch size,有必要理解如何根据 linear scaling rule 来调整训练方案.
注:
这里的训练示例采用了相对低的 GPU-compute 模型,所以,Caffe2 Python op 的开销相对较高. 致使将 GPUs 由 2 增长到 8 时,开销并不成比例减小,如采用 8 GPUs,须要训练 0.9 小时,只比单张 GPU 快了 4.5x 倍.
当采用相对高的 GPU-compute 模型时,multi-GPUs 开销的减小比例会提升.
3. 在Win10 中编译安装PyTorch
知乎文章:关于Windows PRs并入PyTorch的master分支
.......................................
开始编译安装
python setup.py install
目前针对Windows的已修复项:
目前Windows的已知问题:
if __name__ == '__main__':
另外,你们必定很关心何时能出正式Windows正式版,日前,Soumith大神给出了他的回复:
因此此次应该仍是见不到正式的Windows版本,可是各位能够期待到时候个人Conda包。
以上,就是文章的所有内容啦,若是感受还意犹未尽的话,能够给个人Github 主页或者项目加个watch或者star之类的(滑稽),之后说不定还会再分享一些相关的经验。