最近入手了一块Titan V,天然是要玩一玩机器学习的。这块卡不只CUDA核达到了5120个,还有了640个Tensor计算核,安装TesnsorFlow是首选了。若是在集群中运行,可使用TensorFlow自带的集群服务,或者经过Kubernetes进行集群的管理,或者经过Spark实现基于分布式内存的深度学习集群。linux
个人硬件环境是:CPU-7980XE,内存-海盗船16G*8,显卡-Titan V。git
安装的软件栈包括:github
硬件、驱动和软件都是最新的版本,中间踩了很多坑。记录下来,供参考。docker
准备一个8G以上的U盘,制做一个启动U盘。ubuntu
而后就能够插入计算机,修改BIOS为U盘启动,而后安装系统。浏览器
安装最新的图形卡驱动,步骤以下:curl
sudo add-apt-repository ppa:graphics-drivers/ppa sudo apt update sudo apt install nvidia-396 #开发使用 sudo apt install nvidia-396-dev
若是遇到问题,参考:机器学习
安装最新的CUDA Toolkit 9.1,以下:分布式
#获取Cuda9.1安装文件文件和2018.5.5的补丁包: wget -c https://developer.nvidia.com/compute/cuda/9.1/Prod/local_installers/cuda_9.1.85_387.26_linux wget -c https://developer.nvidia.com/compute/cuda/9.1/Prod/patches/3/cuda_9.1.85.3_linux #而后运行 sudo chmod +x ...,再执行就能够了。
而后,进行CUDA的执行文件和库文件路径设置(必需的,安装程序没有自动设置。修改此设置可使用不一样的CUDA版本)。输入 gedit .profile,将下面内容加入到最后:工具
CUDAPATH="/usr/local/cuda-9.1/bin" PATH="$CUDAPATH:$PATH" CUDALIB="/usr/local/cuda-9.1/lib64" LD_LIBRARY_PATH="$CUDALIB:$LD_LIBRARY_PATH"
保存后,退出。
而后,当即进行启用(下次登陆后会自动启用):
source .profile
也能够放到其它启动时运行文件或者脚本文件中每次运行。
这个须要一个Nvidia的开发者账号,到Nvidia官网(https://www.nvidia.com/zh-cn/deep-learning-ai)注册,而后就能够下载了。下载deb版本的安装程序,而后运行:
sudo dpkg -i libcudnn7_7.1.3.16-1+cuda9.1_amd64.deb sudo dpkg -i libcudnn7-dev_7.1.3.16-1+cuda9.1_amd64.deb
到Nvidia官网(https://www.nvidia.com/zh-cn/deep-learning-ai),使用Nvidia的开发者账号登陆,而后就能够下载了。下载deb版本的安装程序,而后运行:
sudo dpkg -i nv-tensorrt-repo-ubuntu1604-cuda9.0-rc-trt4.0.0.3-20180329_1-1_amd64.deb
须要安装Docker CE的18.03版本(为了支持Nvidia的GPU),其余版本不行。
wget get.docker.com -O docker.sh sudo chmod +x docker.sh ./docker.sh sudo apt install docker-ce=18.03.1~ce-0~ubuntu
安装NVidia支持的Docker引擎(https://github.com/NVIDIA/nvidia-docker),就能够在容器中使用GPU了。具体步骤以下:
# If you have nvidia-docker 1.0 installed: we need to remove it and all existing GPU containers docker volume ls -q -f driver=nvidia-docker | xargs -r -I{} -n1 docker ps -q -a -f volume={} | xargs -r docker rm -f sudo apt-get purge -y nvidia-docker # Add the package repositories curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | \ sudo apt-key add - distribution=$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | \ sudo tee /etc/apt/sources.list.d/nvidia-docker.list sudo apt-get update # Install nvidia-docker2 and reload the Docker daemon configuration sudo apt-get install -y nvidia-docker2 sudo pkill -SIGHUP dockerd # Test nvidia-smi with the latest official CUDA image docker run --runtime=nvidia --rm nvidia/cuda nvidia-smi
注意,如今像上面运行 Docker 能够直接支持GPU了,不用再单独运行Docker-Nvidia命令了,大大加强了与各类容器编排系统的兼容性,Kubernetes目前也已经能够支持Docker容器运行GPU了。
Tensorflow已经官方支持Docker的部署了,一行代码就能够搞定:
nvidia-docker run -it -p 8888:8888 tensorflow/tensorflow:latest-gpu
上面安装结束后,会出现关于tensorflow的访问提示,拷贝,输入浏览器便可以访问Jupyter Notebook for Tensorflow了,能够试着运行一下,检查Tensorflow运行是否正常。
经过Kubeflow能够将深度学习引擎与Kubernetes结合起来,方便进行大规模集群节点的管理。
参考下面的教程:
安装Kubernetes上的GPU支持软件:
经过Spark使用Kubernetes的集群管理和容器编排能力,进一步调用GPU进行深度学习,已经开发了多种多种技术路线和方案,目前还在发展之中。
能够参考:
目前,开源社区和软件公司正在解决Kubernetes支持GPU的Docker、Spark支持GPU的Docker以及原生的Spark DL深度学习支持(参考: Spark的GPU支持方法研究),估计2018年末就会有完整的生产级平台出现。