Spark任务拆分-并发问题

现有的结构是Spark从HBase中提取数据,进行计算操做。并发 Spark的并发是由:spa 可用CPU核数*Worker数量,来肯定上限的,这种状况针对于单节点。线程 并发数还受到RDD的分区数量影响的,说回Hbase的话,就是受到Region数影响,基本与其一致;blog   因此若是在HbaseConf中肯定的Region数量只有1个的话,那么会出现Spark单线程执行的状况;it 这个时
相关文章
相关标签/搜索