From:http://www.javashuo.com/article/p-devapfwj-ec.htmlhtml
为了使用Spark进行机器学习,支持GPU是必须的,上层再运行神经网络引擎。java
目前AWS\GCP和Databricks的云都已经支持GPU的机器学习,AliYun也在实验之中。python
这包括几个层次:git
只有同时知足上面的条件,才能经过Kubernetes的集群管理对Docker中Spark进行GPU操做。github
下面是已经作的一些研究。shell
From: https://www.jdon.com/bigdata/spark-gpu.htmlapache
选择Scala:完整的Spark API;GPU库容许我无需编写编译C代码而直接使用Java (这样从scala调用Java)。api
Zeppelin -> buggy API
Spark-Notebook -> 导入依赖很头疼
Sparknotebook -> 就选择这个了,杀手级应用网络
下面是从Sparknotebook 仓储Clone下载一份,按照其指引操做,好比下载IScala.jar等等。session
灵感来自于一个使人印象深入的库包 ScalaNLP 。 他们声称有一个解析器,能够在一台计算机上每分钟解析一百万字。
Aparapi 出现的缘由。 它编译Java代码到OpenCL,若是不能得到一个GPU则使用Java线程池运行。
真正的挑战是让这些工具相互调用。 集成的第一步,咱们须要作的就是aparapi jar导入iscala笔记本。
下面是Spark运行在笔记本上的内核上示意图:
程序日志记录出现GPU…显示它确实是被运行在GPU。
但问题在于深度学习必须使用cuda,仍是cuda才是正道。
/* implement */