深度学习spark

深度学习需要一个样本数据处理、模型训练、模型检验、模型部署的完整处理过程,而传统的深度学习引擎主要完成训练计算和模型调用的核心功能,在用于规模化的生产级应用时还需要大量的开发工作,运维管理也较为复杂。 Apache Spark上的深度学习流水线提供了一个高阶的API接口,可以通过Python支持深度学习的规模伸缩能力。这得益于Spark的集群计算和分布式内存架构,可以快速存取大规模的数据以及调用多
相关文章
相关标签/搜索