MapReduce多进程和spark多线程

1,首先要区分分布式概念,分布式指的是将一个任务切分成多块分到多台机器运行. 2,进程可以理解成该服务器分到的那一块任务(MapReduce每分到一个任务会重启一个进程,而spark的所有任务都只在一个进程中,每来一个任务启动一个线程.) 3,线程可以理解成在进程的基础之上又细分的更小的任务 4,在任务级别(特指Spark任务和MapReduce任务)上却采用了不同的并行机制:Hadoop Map
相关文章
相关标签/搜索