本文持续更新中,转载请注明来源:http://www.javashuo.com/article/p-devapfwj-ec.htmlpython
为了使用Spark进行机器学习,支持GPU是必须的,上层再运行神经网络引擎。目前AWS\GCP和Databricks的云都已经支持GPU的机器学习,AliYun也在实验之中。git
这包括几个层次:github
只有同时知足上面的条件,才能经过Kubernetes的集群管理对Docker中Spark进行GPU操做。shell
下面是已经作的一些研究。apache
具体的资源包括:api
Spark ML Runs 10x Faster on GPUs, Databricks Says。https://www.datanami.com/2016/10/27/spark-ml-runs-faster-gpus/网络