Ubuntu快速玩起色器学习

Ubuntu快速玩起色器学习

最近入手了一块Titan V,天然是要玩一玩机器学习的。这块卡不只CUDA核达到了5120个,还有了640个Tensor计算核,安装TesnsorFlow是首选了。若是在集群中运行,可使用TensorFlow自带的集群服务,或者经过Kubernetes进行集群的管理,或者经过Spark实现基于分布式内存的深度学习集群。linux

适用于公益的 AI

个人硬件环境是:CPU-7980XE,内存-海盗船16G*8,显卡-Titan V。git

安装的软件栈包括:github

  1. Ubuntu16.04 LTS
  2. Nvidia Driver 396.42
  3. Nvidia CUDA 9.1
  4. Nvidia cuDNN 7.1.3
  5. Nvidia cuTensor 4.0
  6. Docker CE 18.03
  7. Docker-Nvidia 2.0.3
  8. Tensorflow for Docker 1.8
  9. Kubernets 1.10.2
  10. Spark 2.3

硬件、驱动和软件都是最新的版本,中间踩了很多坑。记录下来,供参考。docker

一、安装 Ubuntu16.04 LTS

准备一个8G以上的U盘,制做一个启动U盘。ubuntu

而后就能够插入计算机,修改BIOS为U盘启动,而后安装系统。浏览器

二、安装Nvidia图形驱动396

安装最新的图形卡驱动,步骤以下:curl

sudo add-apt-repository ppa:graphics-drivers/ppa
sudo apt update
sudo apt install nvidia-396

#开发使用
sudo apt install nvidia-396-dev

若是遇到问题,参考:机器学习

三、安装CUDA 9.1

安装最新的CUDA Toolkit 9.1,以下:分布式

#获取Cuda9.1安装文件文件和2018.5.5的补丁包:
wget -c https://developer.nvidia.com/compute/cuda/9.1/Prod/local_installers/cuda_9.1.85_387.26_linux
wget -c https://developer.nvidia.com/compute/cuda/9.1/Prod/patches/3/cuda_9.1.85.3_linux
#而后运行 sudo chmod +x ...,再执行就能够了。

而后,进行CUDA的执行文件和库文件路径设置(必需的,安装程序没有自动设置。修改此设置可使用不一样的CUDA版本)。输入 gedit .profile,将下面内容加入到最后:工具

CUDAPATH="/usr/local/cuda-9.1/bin"
PATH="$CUDAPATH:$PATH"

CUDALIB="/usr/local/cuda-9.1/lib64"
LD_LIBRARY_PATH="$CUDALIB:$LD_LIBRARY_PATH"

保存后,退出。

而后,当即进行启用(下次登陆后会自动启用):

source .profile

也能够放到其它启动时运行文件或者脚本文件中每次运行。

四、安装cuDNN 7.1.3

这个须要一个Nvidia的开发者账号,到Nvidia官网(https://www.nvidia.com/zh-cn/deep-learning-ai)注册,而后就能够下载了。下载deb版本的安装程序,而后运行:

sudo dpkg -i libcudnn7_7.1.3.16-1+cuda9.1_amd64.deb
sudo dpkg -i libcudnn7-dev_7.1.3.16-1+cuda9.1_amd64.deb
  • 注意,须要同时下载运行时和开发文件包。开发文件包里面没有包含运行时库,须要先下载、安装运行时库,不然安装开发库时会报错。

五、安装cuTensor 4.0

到Nvidia官网(https://www.nvidia.com/zh-cn/deep-learning-ai),使用Nvidia的开发者账号登陆,而后就能够下载了。下载deb版本的安装程序,而后运行:

sudo dpkg -i nv-tensorrt-repo-ubuntu1604-cuda9.0-rc-trt4.0.0.3-20180329_1-1_amd64.deb

六、安装Docker CE 18.03

须要安装Docker CE的18.03版本(为了支持Nvidia的GPU),其余版本不行。

wget get.docker.com -O docker.sh
sudo chmod +x docker.sh
./docker.sh

sudo apt install docker-ce=18.03.1~ce-0~ubuntu

七、安装Docker-Nvidia

安装NVidia支持的Docker引擎(https://github.com/NVIDIA/nvidia-docker),就能够在容器中使用GPU了。具体步骤以下:

# If you have nvidia-docker 1.0 installed: we need to remove it and all existing GPU containers
docker volume ls -q -f driver=nvidia-docker | xargs -r -I{} -n1 docker ps -q -a -f volume={} | xargs -r docker rm -f
sudo apt-get purge -y nvidia-docker

# Add the package repositories
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | \
  sudo apt-key add -
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | \
  sudo tee /etc/apt/sources.list.d/nvidia-docker.list
sudo apt-get update

# Install nvidia-docker2 and reload the Docker daemon configuration
sudo apt-get install -y nvidia-docker2
sudo pkill -SIGHUP dockerd

# Test nvidia-smi with the latest official CUDA image
docker run --runtime=nvidia --rm nvidia/cuda nvidia-smi

注意,如今像上面运行 Docker 能够直接支持GPU了,不用再单独运行Docker-Nvidia命令了,大大加强了与各类容器编排系统的兼容性,Kubernetes目前也已经能够支持Docker容器运行GPU了。

八、安装Tensorflow for Docker

Tensorflow已经官方支持Docker的部署了,一行代码就能够搞定:

nvidia-docker run -it -p 8888:8888 tensorflow/tensorflow:latest-gpu

九、运行Jupyter with Tensorflow

上面安装结束后,会出现关于tensorflow的访问提示,拷贝,输入浏览器便可以访问Jupyter Notebook for Tensorflow了,能够试着运行一下,检查Tensorflow运行是否正常。

经过Kubeflow能够将深度学习引擎与Kubernetes结合起来,方便进行大规模集群节点的管理。

十、部署Kubernetes 1.9.3

参考下面的教程:

安装Kubernetes上的GPU支持软件:

十一、使用Spark 2.3

经过Spark使用Kubernetes的集群管理和容器编排能力,进一步调用GPU进行深度学习,已经开发了多种多种技术路线和方案,目前还在发展之中。

能够参考:

目前,开源社区和软件公司正在解决Kubernetes支持GPU的Docker、Spark支持GPU的Docker以及原生的Spark DL深度学习支持(参考: Spark的GPU支持方法研究),估计2018年末就会有完整的生产级平台出现。

相关文章
相关标签/搜索