Stream 做为 Java 8 的一大亮点,它与 java.io 包里的 InputStream 和 OutputStream 是彻底不一样的概念。它也不一样于 StAX 对 XML 解析的 Stream,也不是 Amazon Kinesis 对大数据实时处理的 Stream。Java 8 中的 Stream 是对集合(Collection)对象功能的加强,它专一于对集合对象进行各类很是便利、高效的聚合操做(aggregate operation),或者大批量数据操做 (bulk data operation)。Stream API 借助于一样新出现的 Lambda 表达式,极大的提升编程效率和程序可读性。同时它提供串行和并行两种模式进行汇聚操做,并发模式可以充分利用多核处理器的优点,使用 fork/join 并行方式来拆分任务和加速处理过程。一般编写并行代码很难并且容易出错, 但使用 Stream API 无需编写一行多线程的代码,就能够很方便地写出高性能的并发程序。因此说,Java 8 中首次出现的 java.util.stream 是一个函数式语言+多核时代综合影响的产物。java
在传统的 J2EE 应用中,Java 代码常常不得不依赖于关系型数据库的聚合操做来完成诸如:程序员
这类的操做。算法
但在当今这个数据大爆炸的时代,在数据来源多样化、数据海量化的今天,不少时候不得不脱离 RDBMS,或者以底层返回的数据为基础进行更上层的数据统计。而 Java 的集合 API 中,仅仅有极少许的辅助型方法,更多的时候是程序员须要用 Iterator 来遍历集合,完成相关的聚合应用逻辑。这是一种远不够高效、笨拙的方法。在 Java 7 中,若是要发现 type 为 grocery 的全部交易,而后返回以交易值降序排序好的交易 ID 集合,咱们须要这样写:数据库
List<Transaction> groceryTransactions = new Arraylist<>(); for(Transaction t: transactions){ if(t.getType() == Transaction.GROCERY){ groceryTransactions.add(t); } } Collections.sort(groceryTransactions, new Comparator(){ public int compare(Transaction t1, Transaction t2){ return t2.getValue().compareTo(t1.getValue()); } }); List<Integer> transactionIds = new ArrayList<>(); for(Transaction t: groceryTransactions){ transactionsIds.add(t.getId()); }
而在 Java 8 使用 Stream,代码更加简洁易读;并且使用并发模式,程序执行速度更快。编程
List<Integer> transactionsIds = transactions.parallelStream(). filter(t -> t.getType() == Transaction.GROCERY). sorted(comparing(Transaction::getValue).reversed()). map(Transaction::getId). collect(toList());
Stream 不是集合元素,它不是数据结构并不保存数据,它是有关算法和计算的,它更像一个高级版本的 Iterator。原始版本的 Iterator,用户只能显式地一个一个遍历元素并对其执行某些操做;高级版本的 Stream,用户只要给出须要对其包含的元素执行什么操做,好比 “过滤掉长度大于 10 的字符串”、“获取每一个字符串的首字母”等,Stream 会隐式地在内部进行遍历,作出相应的数据转换。api
Stream 就如同一个迭代器(Iterator),单向,不可往复,数据只能遍历一次,遍历过一次后即用尽了,就比如流水从面前流过,一去不复返。数组
而和迭代器又不一样的是,Stream 能够并行化操做,迭代器只能命令式地、串行化操做。顾名思义,当使用串行方式去遍历时,每一个 item 读完后再读下一个 item。而使用并行去遍历时,数据会被分红多个段,其中每个都在不一样的线程中处理,而后将结果一块儿输出。Stream 的并行操做依赖于 Java7 中引入的 Fork/Join 框架(JSR166y)来拆分任务和加速处理过程。Java 的并行 API 演变历程基本以下:数据结构
>
1. 1.0-1.4 中的 java.lang.Thread
2. 5.0 中的 java.util.concurrent
02. 6.0 中的 Phasers 等
10. 7.0 中的 Fork/Join 框架
1. 8.0 中的 Lambda多线程
Stream 的另一大特色是,数据源自己能够是无限的。并发
当咱们使用一个流的时候,一般包括三个基本步骤:
获取一个数据源(source)→ 数据转换→执行操做获取想要的结果,每次转换原有 Stream 对象不改变,返回一个新的 Stream 对象(能够有屡次转换),这就容许对其操做能够像链条同样排列,变成一个管道,以下图所示。
图 1. 流管道 (Stream Pipeline) 的构成
有多种方式生成 Stream Source:
从 Collection 和数组
从 BufferedReader
本身构建
流的操做类型分为两种:
在对于一个 Stream 进行屡次转换操做 (Intermediate 操做),每次都对 Stream 的每一个元素进行转换,并且是执行屡次,这样时间复杂度就是 N(转换次数)个 for 循环里把全部操做都作掉的总和吗?其实不是这样的,转换操做都是 lazy 的,多个转换操做只会在 Terminal 操做的时候融合起来,一次循环完成。咱们能够这样简单的理解,Stream 里有个操做函数的集合,每次转换操做就是把转换函数放入这个集合中,在 Terminal 操做的时候循环 Stream 对应的集合,而后对每一个元素执行全部的函数。
还有一种操做被称为 short-circuiting。用以指:
当操做一个无限大的 Stream,而又但愿在有限时间内完成操做,则在管道内拥有一个 short-circuiting 操做是必要非充分条件。
int sum = widgets.stream() .filter(w -> w.getColor() == RED) .mapToInt(w -> w.getWeight()) .sum();
stream() 获取当前小物件的 source,filter 和 mapToInt 为 intermediate 操做,进行数据筛选和转换,最后一个 sum() 为 terminal 操做,对符合条件的所有小物件做重量求和。
简单说,对 Stream 的使用就是实现一个 filter-map-reduce 过程,产生一个最终结果,或者致使一个反作用(side effect)。
下面提供最多见的几种构造 Stream 的样例。
// 1. Individual values Stream stream = Stream.of("a", "b", "c"); // 2. Arrays String [] strArray = new String[] {"a", "b", "c"}; stream = Stream.of(strArray); stream = Arrays.stream(strArray); // 3. Collections List<String> list = Arrays.asList(strArray); stream = list.stream();
须要注意的是,对于基本数值型,目前有三种对应的包装类型 Stream:
IntStream、LongStream、DoubleStream
。固然咱们也能够用 Stream<Integer>、Stream<Long> >、Stream<Double>
,可是 boxing 和 unboxing 会很耗时,因此特别为这三种基本数值型提供了对应的Stream。
Java 8 中尚未提供其它数值型 Stream,由于这将致使扩增的内容较多。而常规的数值型聚合运算能够经过上面三种 Stream 进行。
IntStream.of(new int[]{1, 2, 3}).forEach(System.out::println); IntStream.range(1, 3).forEach(System.out::println); IntStream.rangeClosed(1, 3).forEach(System.out::println);
// 1. Array String[] strArray1 = stream.toArray(String[]::new); // 2. Collection List<String> list1 = stream.collect(Collectors.toList()); List<String> list2 = stream.collect(Collectors.toCollection(ArrayList::new)); Set set1 = stream.collect(Collectors.toSet()); Stack stack1 = stream.collect(Collectors.toCollection(Stack::new)); // 3. String String str = stream.collect(Collectors.joining()).toString();
一个 Stream 只可使用一次,上面的代码为了简洁而重复使用了数次。
接下来,当把一个数据结构包装成 Stream 后,就要开始对里面的元素进行各种操做了。常见的操做能够归类以下。
咱们下面看一下 Stream 的比较典型用法。
map/flatMap
咱们先来看 map。若是你熟悉 scala 这类函数式语言,对这个方法应该很了解,它的做用就是把 inputStream 的每个元素,映射成 outputStream 的另一个元素。
List<String> output = wordList.stream(). map(String::toUpperCase). collect(Collectors.toList());
这段代码把全部的单词转换为大写。
List<Integer> nums = Arrays.asList(1, 2, 3, 4); List<Integer> squareNums = nums.stream(). map(n -> n * n). collect(Collectors.toList());
这段代码生成一个整数 list 的平方数 {1, 4, 9, 16}。
从上面例子能够看出,map 生成的是个 1:1 映射,每一个输入元素,都按照规则转换成为另一个元素。还有一些场景,是一对多映射关系的,这时须要 flatMap。
Stream<List<Integer>> inputStream = Stream.of(
Arrays.asList(1), Arrays.asList(2, 3), Arrays.asList(4, 5, 6) ); Stream<Integer> outputStream = inputStream. flatMap((childList) -> childList.stream());
flatMap 把 input Stream 中的层级结构扁平化,就是将最底层元素抽出来放到一块儿,最终 output 的新 Stream 里面已经没有 List 了,都是直接的数字。
filter
filter 对原始 Stream 进行某项测试,经过测试的元素被留下来生成一个新 Stream。
Integer[] sixNums = {1, 2, 3, 4, 5, 6}; Integer[] evens = Stream.of(sixNums).filter(n -> n%2 == 0).toArray(Integer[]::new);
通过条件“被 2 整除”的 filter,剩下的数字为 {2, 4, 6}。
List<String> output = reader.lines().
flatMap(line -> Stream.of(line.split(REGEXP))).
filter(word -> word.length() > 0). collect(Collectors.toList());
这段代码首先把每行的单词用 flatMap 整理到新的 Stream,而后保留长度不为 0 的,就是整篇文章中的所有单词了。
forEach
forEach 方法接收一个 Lambda 表达式,而后在 Stream 的每个元素上执行该表达式。
// Java 8 roster.stream() .filter(p -> p.getGender() == Person.Sex.MALE) .forEach(p -> System.out.println(p.getName())); // Pre-Java 8 for (Person p : roster) { if (p.getGender() == Person.Sex.MALE) { System.out.println(p.getName()); } }
对一我的员集合遍历,找出男性并打印姓名。能够看出来,forEach 是为 Lambda 而设计的,保持了最紧凑的风格。并且 Lambda 表达式自己是能够重用的,很是方便。当须要为多核系统优化时,能够 parallelStream().forEach(),只是此时原有元素的次序无法保证,并行的状况下将改变串行时操做的行为,此时 forEach 自己的实现不须要调整,而 Java8 之前的 for 循环 code 可能须要加入额外的多线程逻辑。
但通常认为,forEach 和常规 for 循环的差别不涉及到性能,它们仅仅是函数式风格与传统 Java 风格的差异。
另一点须要注意,forEach 是 terminal 操做,所以它执行后,Stream 的元素就被“消费”掉了,你没法对一个 Stream 进行两次 terminal 运算。下面的代码是错误的:
stream.forEach(element -> doOneThing(element)); stream.forEach(element -> doAnotherThing(element));
相反,具备类似功能的 intermediate 操做 peek 能够达到上述目的。以下是出如今该 api javadoc 上的一个示例。
Stream.of("one", "two", "three", "four") .filter(e -> e.length() > 3) .peek(e -> System.out.println("Filtered value: " + e)) .map(String::toUpperCase) .peek(e -> System.out.println("Mapped value: " + e)) .collect(Collectors.toList());
forEach 不能修改本身包含的本地变量值,也不能用 break/return 之类的关键字提早结束循环。
findFirst
这是一个 termimal 兼 short-circuiting 操做,它老是返回 Stream 的第一个元素,或者空。
这里比较重点的是它的返回值类型:Optional。这也是一个模仿 Scala 语言中的概念,做为一个容器,它可能含有某值,或者不包含。使用它的目的是尽量避免 NullPointerException。
String strA = " abcd ", strB = null; print(strA); print(""); print(strB); getLength(strA); getLength(""); getLength(strB); public static void print(String text) { // Java 8 Optional.ofNullable(text).ifPresent(System.out::println); // Pre-Java 8 if (text != null) { System.out.println(text); } } public static int getLength(String text) { // Java 8 return Optional.ofNullable(text).map(String::length).orElse(-1); // Pre-Java 8 // return if (text != null) ? text.length() : -1; };
在更复杂的 if (xx != null) 的状况中,使用 Optional 代码的可读性更好,并且它提供的是编译时检查,能极大的下降 NPE 这种 Runtime Exception 对程序的影响,或者迫使程序员更早的在编码阶段处理空值问题,而不是留到运行时再发现和调试。
Stream 中的 findAny、max/min、reduce 等方法等返回 Optional 值。还有例如 IntStream.average() 返回 OptionalDouble 等等。
reduce
这个方法的主要做用是把 Stream 元素组合起来。它提供一个起始值(种子),而后依照运算规则(BinaryOperator),和前面 Stream 的第一个、第二个、第 n 个元素组合。从这个意义上说,字符串拼接、数值的 sum、min、max、average
都是特殊的 reduce
。例如 Stream 的 sum 就至关于Integer sum = integers.reduce(0, (a, b) -> a+b);
或Integer sum = integers.reduce(0, Integer::sum);
也有没有起始值的状况,这时会把 Stream 的前面两个元素组合起来,返回的是 Optional。
// 字符串链接,concat = "ABCD" String concat = Stream.of("A", "B", "C", "D").reduce("", String::concat); // 求最小值,minValue = -3.0 double minValue = Stream.of(-1.5, 1.0, -3.0, -2.0).reduce(Double.MAX_VALUE, Double::min); // 求和,sumValue = 10, 有起始值 int sumValue = Stream.of(1, 2, 3, 4).reduce(0, Integer::sum); // 求和,sumValue = 10, 无起始值 sumValue = Stream.of(1, 2, 3, 4).reduce(Integer::sum).get(); // 过滤,字符串链接,concat = "ace" concat = Stream.of("a", "B", "c", "D", "e", "F"). filter(x -> x.compareTo("Z") > 0). reduce("", String::concat);
上面代码例如第一个示例的 reduce(),第一个参数(空白字符)即为起始值,第二个参数(String::concat)为 BinaryOperator。这类有起始值的 reduce() 都返回具体的对象。而对于第四个示例没有起始值的 reduce(),因为可能没有足够的元素,返回的是 Optional,请留意这个区别。
limit/skip
limit 返回 Stream 的前面 n 个元素;skip 则是扔掉前 n 个元素(它是由一个叫 subStream 的方法更名而来)。
public void testLimitAndSkip() { List<Person> persons = new ArrayList(); for (int i = 1; i <= 10000; i++) { Person person = new Person(i, "name" + i); persons.add(person); } List<String> personList2 = persons.stream(). map(Person::getName).limit(10).skip(3).collect(Collectors.toList()); System.out.println(personList2); } private class Person { public int no; private String name; public Person (int no, String name) { this.no = no; this.name = name; } public String getName() { System.out.println(name); return name; } }
输出结果为:
name1 name2 name3 name4 name5 name6 name7 name8 name9 name10 [name4, name5, name6, name7, name8, name9, name10]
这是一个有 10,000 个元素的 Stream,但在 short-circuiting 操做 limit 和 skip 的做用下,管道中 map 操做指定的 getName() 方法的执行次数为 limit 所限定的 10 次,而最终返回结果在跳过前 3 个元素后只有后面 7 个返回。
有一种状况是 limit/skip 没法达到 short-circuiting 目的的,就是把它们放在 Stream 的排序操做后,缘由跟 sorted 这个 intermediate 操做有关:此时系统并不知道 Stream 排序后的次序如何,因此 sorted 中的操做看上去就像彻底没有被 limit 或者 skip 同样。
List<Person> persons = new ArrayList(); for (int i = 1; i <= 5; i++) { Person person = new Person(i, "name" + i); persons.add(person); } List<Person> personList2 = persons.stream().sorted((p1, p2) -> p1.getName().compareTo(p2.getName())).limit(2).collect(Collectors.toList()); System.out.println(personList2);
上面的示例对清单 13 作了微调,首先对 5 个元素的 Stream 排序,而后进行 limit 操做。输出结果为:
name2
name1
name3
name2
name4
name3
name5
name4
[stream.StreamDW$Person@816f27d, stream.StreamDW$Person@87aac27]
即虽然最后的返回元素数量是 2,但整个管道中的 sorted 表达式执行次数没有像前面例子相应减小。
最后有一点须要注意的是,对一个 parallel 的 Steam 管道来讲,若是其元素是有序的,那么 limit 操做的成本会比较大,由于它的返回对象必须是前 n 个也有同样次序的元素。取而代之的策略是取消元素间的次序,或者不要用 parallel Stream。
sorted
对 Stream 的排序经过 sorted 进行,它比数组的排序更强之处在于你能够首先对 Stream 进行各种 map、filter、limit、skip 甚至 distinct 来减小元素数量后,再排序,这能帮助程序明显缩短执行时间。咱们对清单 14 进行优化:
List<Person> persons = new ArrayList(); for (int i = 1; i <= 5; i++) { Person person = new Person(i, "name" + i); persons.add(person); } List<Person> personList2 = persons.stream().limit(2).sorted((p1, p2) -> p1.getName().compareTo(p2.getName())).collect(Collectors.toList()); System.out.println(personList2);
结果会简单不少:
name2
name1
[stream.StreamDW$Person@6ce253f1, stream.StreamDW$Person@53d8d10a]
固然,这种优化是有 business logic 上的局限性的:即不要求排序后再取值。
min/max/distinct
min 和 max 的功能也能够经过对 Stream 元素先排序,再 findFirst 来实现,但前者的性能会更好,为 O(n),而 sorted 的成本是 O(n log n)。同时它们做为特殊的 reduce 方法被独立出来也是由于求最大最小值是很常见的操做。
BufferedReader br = new BufferedReader(new FileReader("c:\\SUService.log")); int longest = br.lines(). mapToInt(String::length). max(). getAsInt(); br.close(); System.out.println(longest);
下面的例子则使用 distinct 来找出不重复的单词。
List<String> words = br.lines().
flatMap(line -> Stream.of(line.split(" "))). filter(word -> word.length() > 0). map(String::toLowerCase). distinct(). sorted(). collect(Collectors.toList()); br.close(); System.out.println(words);
Match
Stream 有三个 match 方法,从语义上说:
List<Person> persons = new ArrayList(); persons.add(new Person(1, "name" + 1, 10)); persons.add(new Person(2, "name" + 2, 21)); persons.add(new Person(3, "name" + 3, 34)); persons.add(new Person(4, "name" + 4, 6)); persons.add(new Person(5, "name" + 5, 55)); boolean isAllAdult = persons.stream(). allMatch(p -> p.getAge() > 18); System.out.println("All are adult? " + isAllAdult); boolean isThereAnyChild = persons.stream(). anyMatch(p -> p.getAge() < 12); System.out.println("Any child? " + isThereAnyChild);
输出结果:
All are adult? false Any child? true
Stream.generate
经过实现 Supplier 接口,你能够本身来控制流的生成。这种情形一般用于随机数、常量的 Stream,或者须要先后元素间维持着某种状态信息的 Stream。把 Supplier 实例传递给 Stream.generate() 生成的 Stream,默认是串行(相对 parallel 而言)但无序的(相对 ordered 而言)。因为它是无限的,在管道中,必须利用 limit 之类的操做限制 Stream 大小。
Random seed = new Random(); Supplier<Integer> random = seed::nextInt; Stream.generate(random).limit(10).forEach(System.out::println); //Another way IntStream.generate(() -> (int) (System.nanoTime() % 100)). limit(10).forEach(System.out::println);
Stream.generate() 还接受本身实现的 Supplier。例如在构造海量测试数据的时候,用某种自动的规则给每个变量赋值;或者依据公式计算 Stream 的每一个元素值。这些都是维持状态信息的情形。
Stream.generate(new PersonSupplier()). limit(10). forEach(p -> System.out.println(p.getName() + ", " + p.getAge())); private class PersonSupplier implements Supplier<Person> { private int index = 0; private Random random = new Random(); @Override public Person get() { return new Person(index++, "StormTestUser" + index, random.nextInt(100)); } }
输出结果:
StormTestUser1, 9 StormTestUser2, 12 StormTestUser3, 88 StormTestUser4, 51 StormTestUser5, 22 StormTestUser6, 28 StormTestUser7, 81 StormTestUser8, 51 StormTestUser9, 4 StormTestUser10, 76
iterate 跟 reduce 操做很像,接受一个种子值,和一个 UnaryOperator(例如 f)。而后种子值成为 Stream 的第一个元素,f(seed) 为第二个,f(f(seed)) 第三个,以此类推。
Stream.iterate(0, n -> n + 3).limit(10). forEach(x -> System.out.print(x + " "));
输出结果:
0 3 6 9 12 15 18 21 24 27
与 Stream.generate 相仿,在 iterate 时候管道必须有 limit 这样的操做来限制 Stream 大小。
进阶:用 Collectors 来进行 reduction 操做
java.util.stream.Collectors 类的主要做用就是辅助进行各种有用的 reduction 操做,例如转变输出为 Collection,把 Stream 元素进行归组。
groupingBy/partitioningBy
Map<Integer, List<Person>> personGroups = Stream.generate(new PersonSupplier()). limit(100). collect(Collectors.groupingBy(Person::getAge)); Iterator it = personGroups.entrySet().iterator(); while (it.hasNext()) { Map.Entry<Integer, List<Person>> persons = (Map.Entry) it.next(); System.out.println("Age " + persons.getKey() + " = " + persons.getValue().size()); }
上面的 code,首先生成 100 人的信息,而后按照年龄归组,相同年龄的人放到同一个 list 中,能够看到以下的输出:
Age 0 = 2 Age 1 = 2 Age 5 = 2 Age 8 = 1 Age 9 = 1 Age 11 = 2 ……
Map<Boolean, List<Person>> children = Stream.generate(new PersonSupplier()). limit(100). collect(Collectors.partitioningBy(p -> p.getAge() < 18)); System.out.println("Children number: " + children.get(true).size()); System.out.println("Adult number: " + children.get(false).size());
输出结果:
Children number: 23 Adult number: 77
在使用条件“年龄小于 18”进行分组后能够看到,不到 18 岁的未成年人是一组,成年人是另一组。partitioningBy 实际上是一种特殊的 groupingBy,它依照条件测试的是否两种结果来构造返回的数据结构,get(true) 和 get(false) 能即为所有的元素对象。
总之,Stream 的特性能够概括为: