今天要讲的Stream指的是java.util.stream包中的诸多类。Stream能够方便的将以前的结合类以转换为Stream并以流式方式进行处理,大大的简化了咱们的编程,Stream包中,最核心的就是interface Stream<T> java
从上面的图中咱们能够看到Stream继承自BaseStream。Stream中定义了不少很是实用的方法,好比filter,map,flatmap,forEach,reduce,collect等等。接下来咱们将会逐一讲解。git
Stream的建立有不少方式,java引入Stream以后全部的集合类都添加了一个stream()方法,经过这个方法能够直接获得其对应的Stream。也能够经过Stream.of方法来建立:github
//Stream Creation String[] arr = new String[]{"a", "b", "c"}; Stream<String> stream = Arrays.stream(arr); stream = Stream.of("a", "b", "c");
若是咱们想使用多线程来处理集合类的数据,Stream提供了很是方便的多线程方法parallelStream():编程
//Multi-threading List<String> list =new ArrayList(); list.add("aaa"); list.add("bbb"); list.add("abc"); list.add("ccc"); list.add("ddd"); list.parallelStream().forEach(element -> doPrint(element));
Stream的操做能够分为两类,一类是中间操做,中间操做返回Stream<T>,所以能够级联调用。 另外一类是终止操做,这类操做会返回Stream定义的类型。多线程
//Operations long count = list.stream().distinct().count();
上面的例子中,distinct()返回一个Stream,因此能够级联操做,最后的count()是一个终止操做,返回最后的值。并发
Stream提供了anyMatch(), allMatch(), noneMatch()这三种match方式,咱们看下怎么使用:app
//Matching boolean isValid = list.stream().anyMatch(element -> element.contains("h")); boolean isValidOne = list.stream().allMatch(element -> element.contains("h")); boolean isValidTwo = list.stream().noneMatch(element -> element.contains("h"));
filter() 方法容许咱们对Stream中的数据进行过滤,从而获得咱们须要的:框架
Stream<String> filterStream = list.stream().filter(element -> element.contains("d"));
上面的例子中咱们从list中选出了包含“d”字母的String。dom
map就是对Stream中的值进行再加工,而后将加工事后的值做为新的Stream返回。ide
//Mapping Stream<String> mappingStream = list.stream().map(element -> convertElement(element)); private static String convertElement(String element) { return "element"+"abc"; }
上的例子中咱们把list中的每一个值都加上了“abc”而后返回一个新的Stream。
flatMap和Map很相似,可是他们两个又有不一样,看名字咱们能够看到flatMap意思是打平以后再作Map。
怎么理解呢?
假如咱们有一个CustBook类:
@Data public class CustBook { List<String> bookName; }
CustBook定义了一个bookName字段。
先看一下Map返回的结果:
List<CustBook> users = new ArrayList<>(); users.add(new CustBook()); Stream<Stream<String>> userStreamMap = users.stream().map(user -> user.getBookName().stream());
在上面的代码中,map将每个user都转换成了stream,因此最后的结果是返回Stream的Stream。
若是咱们只想返回String,则可使用FlatMap:
List<CustBook> users = new ArrayList<>(); users.add(new CustBook()); Stream<String> userStream = users.stream().map(user -> user.getBookName().stream());
简单点讲FlatMap就是将层级关系铺平重来。
使用reduce() 方法能够方便的对集合的数据进行运算,reduce()接收两个参数,第一个是开始值,后面是一个函数表示累计。
//Reduction List<Integer> integers = Arrays.asList(1, 1, 1); Integer reduced = integers.stream().reduce(100, (a, b) -> a + b);
上面的例子咱们定义了3个1的list,而后调用reduce(100, (a, b) -> a + b)方法,最后的结果是103.
collect()方法能够方便的将Stream再次转换为集合类,方便处理和展现:
List<String> resultList = list.stream().map(element -> element.toUpperCase()).collect(Collectors.toList());
java 8引入了lambda表达式,lambda表达式实际上表示的就是一个匿名的function。
在java 8以前,若是须要使用到匿名function须要new一个类的实现,可是有了lambda表达式以后,一切都变的很是简介。
咱们看一个以前讲线程池的时候的一个例子:
//ExecutorService using class ExecutorService executorService = Executors.newSingleThreadExecutor(); executorService.submit(new Runnable() { @Override public void run() { log.info("new runnable"); } });
executorService.submit须要接收一个Runnable类,上面的例子中咱们new了一个Runnable类,并实现了它的run()方法。
上面的例子若是用lambda表达式来重写,则以下所示:
//ExecutorService using lambda executorService.submit(()->log.info("new runnable"));
看起是否是很简单,使用lambda表达式就能够省略匿名类的构造,而且可读性更强。
那么是否是全部的匿名类均可以用lambda表达式来重构呢?也不是。
咱们看下Runnable类有什么特色:
@FunctionalInterface public interface Runnable
Runnable类上面有一个@FunctionalInterface注解。这个注解就是咱们今天要讲到的Functional Interface。
Functional Interface是指带有 @FunctionalInterface 注解的interface。它的特色是其中只有一个子类必需要实现的abstract方法。若是abstract方法前面带有default关键字,则不作计算。
其实这个也很好理解,由于Functional Interface改写成为lambda表达式以后,并无指定实现的哪一个方法,若是有多个方法须要实现的话,就会有问题。
@Documented @Retention(RetentionPolicy.RUNTIME) @Target(ElementType.TYPE) public @interface FunctionalInterface {}
Functional Interface通常都在java.util.function包中。
根据要实现的方法参数和返回值的不一样,Functional Interface能够分为不少种,下面咱们分别来介绍。
Function接口定义了一个方法,接收一个参数,返回一个参数。
@FunctionalInterface public interface Function<T, R> { /** * Applies this function to the given argument. * * @param t the function argument * @return the function result */ R apply(T t);
通常咱们在对集合类进行处理的时候,会用到Function。
Map<String, Integer> nameMap = new HashMap<>(); Integer value = nameMap.computeIfAbsent("name", s -> s.length());
上面的例子中咱们调用了map的computeIfAbsent方法,传入一个Function。
上面的例子还能够改写成更短的:
Integer value1 = nameMap.computeIfAbsent("name", String::length);
Function没有指明参数和返回值的类型,若是须要传入特定的参数,则可使用IntFunction, LongFunction, DoubleFunction:
@FunctionalInterface public interface IntFunction<R> { /** * Applies this function to the given argument. * * @param value the function argument * @return the function result */ R apply(int value); }
若是须要返回特定的参数,则可使用ToIntFunction, ToLongFunction, ToDoubleFunction:
@FunctionalInterface public interface ToDoubleFunction<T> { /** * Applies this function to the given argument. * * @param value the function argument * @return the function result */ double applyAsDouble(T value); }
若是要同时指定参数和返回值,则可使用DoubleToIntFunction, DoubleToLongFunction, IntToDoubleFunction, IntToLongFunction, LongToIntFunction, LongToDoubleFunction:
@FunctionalInterface public interface LongToIntFunction { /** * Applies this function to the given argument. * * @param value the function argument * @return the function result */ int applyAsInt(long value); }
若是须要接受两个参数,一个返回值的话,可使用BiFunction:BiFunction, ToDoubleBiFunction, ToIntBiFunction, ToLongBiFunction等。
@FunctionalInterface public interface BiFunction<T, U, R> { /** * Applies this function to the given arguments. * * @param t the first function argument * @param u the second function argument * @return the function result */ R apply(T t, U u);
咱们看一个BiFunction的例子:
//BiFunction Map<String, Integer> salaries = new HashMap<>(); salaries.put("alice", 100); salaries.put("jack", 200); salaries.put("mark", 300); salaries.replaceAll((name, oldValue) -> name.equals("alice") ? oldValue : oldValue + 200);
若是什么参数都不须要,则可使用Supplier:
@FunctionalInterface public interface Supplier<T> { /** * Gets a result. * * @return a result */ T get(); }
Consumer接收一个参数,可是不返回任何值,咱们看下Consumer的定义:
@FunctionalInterface public interface Consumer<T> { /** * Performs this operation on the given argument. * * @param t the input argument */ void accept(T t);
看一个Consumer的具体应用:
//Consumer nameMap.forEach((name, age) -> System.out.println(name + " is " + age + " years old"));
Predicate接收一个参数,返回boolean值:
@FunctionalInterface public interface Predicate<T> { /** * Evaluates this predicate on the given argument. * * @param t the input argument * @return {@code true} if the input argument matches the predicate, * otherwise {@code false} */ boolean test(T t);
若是用在集合类的过滤上面那是极好的:
//Predicate List<String> names = Arrays.asList("A", "B", "C", "D", "E"); List<String> namesWithA = names.stream() .filter(name -> name.startsWith("A")) .collect(Collectors.toList());
Operator接收和返回一样的类型,有不少种Operator:UnaryOperator BinaryOperator ,DoubleUnaryOperator, IntUnaryOperator, LongUnaryOperator, DoubleBinaryOperator, IntBinaryOperator, LongBinaryOperator等。
@FunctionalInterface public interface IntUnaryOperator { /** * Applies this operator to the given operand. * * @param operand the operand * @return the operator result */ int applyAsInt(int operand);
咱们看一个BinaryOperator的例子:
//Operator List<Integer> values = Arrays.asList(1, 2, 3, 4, 5); int sum = values.stream() .reduce(0, (i1, i2) -> i1 + i2);
Lambda表达式java 8引入的函数式编程框架。以前的文章中咱们也讲过Lambda表达式的基本用法。
本文将会在以前的文章基础上更加详细的讲解Lambda表达式在实际应用中的最佳实践经验。
以前的文章咱们讲到了,java在java.util.function包中定义了不少Function接口。基本上涵盖了咱们可以想到的各类类型。
假如咱们自定义了下面的Functional interface:
@FunctionalInterface public interface Usage { String method(String string); }
而后咱们须要在一个test方法中传入该interface:
public String test(String string, Usage usage) { return usage.method(string); }
上面咱们定义的函数接口须要实现method方法,接收一个String,返回一个String。这样咱们彻底可使用Function来代替:
public String test(String string, Function<String, String> fn) { return fn.apply(string); }
使用标准接口的好处就是,不要重复造轮子。
虽然@FunctionalInterface不是必须的,不使用@FunctionalInterface也能够定义一个Functional Interface。
可是使用@FunctionalInterface能够在违背Functional Interface定义的时候报警。
若是是在维护一个大型项目中,加上@FunctionalInterface注解能够清楚的让其余人了解这个类的做用。
从而使代码更加规范和更加可用。
因此咱们须要这样定义:
@FunctionalInterface public interface Usage { String method(String string); }
而不是:
public interface Usage { String method(String string); }
Functional Interface是指只有一个未实现的抽象方法的接口。
若是该Interface中有多个方法,则可使用default关键字为其提供一个默认的实现。
可是咱们知道Interface是能够多继承的,一个class能够实现多个Interface。 若是多个Interface中定义了相同的default方法,则会报错。
一般来讲default关键字通常用在升级项目中,避免代码报错。
仍是上面的例子:
@FunctionalInterface public interface Usage { String method(String string); }
要实例化Usage,咱们可使用new关键词:
Usage usage = new Usage() { @Override public String method(String string) { return string; } };
可是最好的办法就是用lambda表达式:
Usage usage = parameter -> parameter;
怎么理解呢? 咱们看下面两个方法:
public class ProcessorImpl implements Processor { @Override public String process(Callable<String> c) throws Exception { // implementation details } @Override public String process(Supplier<String> s) { // implementation details } }
两个方法的方法名是同样的,只有传入的参数不一样。可是两个参数都是Functional Interface,均可以用一样的lambda表达式来表示。
在调用的时候:
String result = processor.process(() -> "test");
由于区别不了到底调用的哪一个方法,则会报错。
最好的办法就是将两个方法的名字修改成不一样的。
虽然咱们以前讲到使用lambda表达式能够替换内部类。可是二者的做用域范围是不一样的。
在内部类中,会建立一个新的做用域范围,在这个做用域范围以内,你能够定义新的变量,而且能够用this引用它。
可是在Lambda表达式中,并无定义新的做用域范围,若是在Lambda表达式中使用this,则指向的是外部类。
咱们举个例子:
private String value = "Outer scope value"; public String scopeExperiment() { Usage usage = new Usage() { String value = "Inner class value"; @Override public String method(String string) { return this.value; } }; String result = usage.method(""); Usage usageLambda = parameter -> { String value = "Lambda value"; return this.value; }; String resultLambda = usageLambda.method(""); return "Results: result = " + result + ", resultLambda = " + resultLambda; }
上面的例子将会输出“Results: result = Inner class value, resultLambda = Outer scope value”
一般来讲一行代码便可。若是你有很是多的逻辑,能够将这些逻辑封装成一个方法,在lambda表达式中调用该方法便可。
由于lambda表达式说到底仍是一个表达式,表达式固然越短越好。
java经过类型推断来判断传入的参数类型,因此咱们在lambda表达式的参数中尽可能不传参数类型,像下面这样:
(a, b) -> a.toLowerCase() + b.toLowerCase();
而不是:
(String a, String b) -> a.toLowerCase() + b.toLowerCase();
若是只有一个参数的时候,不须要带括号:
a -> a.toLowerCase();
而不是:
(a) -> a.toLowerCase();
返回值不须要带return:
a -> a.toLowerCase();
而不是:
a -> {return a.toLowerCase()};
为了让lambda表达式更加简洁,在可使用方法引用的时候,咱们可使用方法引用:
a -> a.toLowerCase();
能够被替换为:
String::toLowerCase;
若是在lambda表达式中引用了non-final变量,则会报错。
effectively final是什么意思呢?这个是一个近似final的意思。只要一个变量只被赋值一次,那么编译器将会把这个变量看做是effectively final的。
String localVariable = "Local"; Usage usage = parameter -> { localVariable = parameter; return localVariable; };
上面的例子中localVariable被赋值了两次,从而不是一个Effectively Final 变量,会编译报错。
为何要这样设置呢?由于lambda表达式一般会用在并行计算中,当有多个线程同时访问变量的时候Effectively Final 变量能够防止不能够预料的修改。
在Stream处理中,咱们一般会遇到if/else的判断状况,对于这样的问题咱们怎么处理呢?
还记得咱们在上一篇文章lambda最佳实践中提到,lambda表达式应该越简洁越好,不要在其中写臃肿的业务逻辑。
接下来咱们看一个具体的例子。
假如咱们有一个1 to 10的list,咱们想要分别挑选出奇数和偶数出来,传统的写法,咱们会这样使用:
public void inForEach(){ List<Integer> ints = Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9, 10); ints.stream() .forEach(i -> { if (i.intValue() % 2 == 0) { System.out.println("i is even"); } else { System.out.println("i is old"); } }); }
上面的例子中,咱们把if/else的逻辑放到了forEach中,虽然没有任何问题,可是代码显得很是臃肿。
接下来看看怎么对其进行改写。
咱们能够把if/else的逻辑改写为两个filter:
List<Integer> ints = Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9, 10); Stream<Integer> evenIntegers = ints.stream() .filter(i -> i.intValue() % 2 == 0); Stream<Integer> oddIntegers = ints.stream() .filter(i -> i.intValue() % 2 != 0);
有了这两个filter,再在filter事后的stream中使用for each:
evenIntegers.forEach(i -> System.out.println("i is even")); oddIntegers.forEach(i -> System.out.println("i is old"));
怎么样,代码是否是很是简洁明了。
Map是java中很是经常使用的一个集合类型,咱们一般也须要去遍历Map去获取某些值,java 8引入了Stream的概念,那么咱们怎么在Map中使用Stream呢?
Map有key,value还有表示key,value总体的Entry。
建立一个Map:
Map<String, String> someMap = new HashMap<>();
获取Map的entrySet:
Set<Map.Entry<String, String>> entries = someMap.entrySet();
获取map的key:
Set<String> keySet = someMap.keySet();
获取map的value:
Collection<String> values = someMap.values();
上面咱们能够看到有这样几个集合:Map,Set,Collection。
除了Map没有stream,其余两个都有stream方法:
Stream<Map.Entry<String, String>> entriesStream = entries.stream(); Stream<String> valuesStream = values.stream(); Stream<String> keysStream = keySet.stream();
咱们能够经过其余几个stream来遍历map。
咱们先给map添加几个值:
someMap.put("jack","20"); someMap.put("bill","35");
上面咱们添加了name和age字段。
若是咱们想查找age=20的key,则能够这样作:
Optional<String> optionalName = someMap.entrySet().stream() .filter(e -> "20".equals(e.getValue())) .map(Map.Entry::getKey) .findFirst(); log.info(optionalName.get());
由于返回的是Optional,若是值不存在的状况下,咱们也能够处理:
optionalName = someMap.entrySet().stream() .filter(e -> "Non ages".equals(e.getValue())) .map(Map.Entry::getKey).findFirst(); log.info("{}",optionalName.isPresent());
上面的例子咱们经过调用isPresent来判断age是否存在。
若是有多个值,咱们能够这样写:
someMap.put("alice","20"); List<String> listnames = someMap.entrySet().stream() .filter(e -> e.getValue().equals("20")) .map(Map.Entry::getKey) .collect(Collectors.toList()); log.info("{}",listnames);
上面咱们调用了collect(Collectors.toList())将值转成了List。
上面咱们获取的map的key,一样的咱们也能够获取map的value:
List<String> listAges = someMap.entrySet().stream() .filter(e -> e.getKey().equals("alice")) .map(Map.Entry::getValue) .collect(Collectors.toList()); log.info("{}",listAges);
上面咱们匹配了key值是alice的value。
java 8 stream做为流式操做有两种操做类型,中间操做和终止操做。这两种有什么区别呢?
咱们看一个peek的例子:
Stream<String> stream = Stream.of("one", "two", "three","four"); stream.peek(System.out::println);
上面的例子中,咱们的本意是打印出Stream的值,但实际上没有任何输出。
为何呢?
一个java 8的stream是由三部分组成的。数据源,零个或一个或多个中间操做,一个或零个终止操做。
中间操做是对数据的加工,注意,中间操做是lazy操做,并不会立马启动,须要等待终止操做才会执行。
终止操做是stream的启动操做,只有加上终止操做,stream才会真正的开始执行。
因此,问题解决了,peek是一个中间操做,因此上面的例子没有任何输出。
咱们看下peek的文档说明:peek主要被用在debug用途。
咱们看下debug用途的使用:
Stream.of("one", "two", "three","four").filter(e -> e.length() > 3) .peek(e -> System.out.println("Filtered value: " + e)) .map(String::toUpperCase) .peek(e -> System.out.println("Mapped value: " + e)) .collect(Collectors.toList());
上面的例子输出:
Filtered value: three Mapped value: THREE Filtered value: four Mapped value: FOUR
上面的例子咱们输出了stream的中间值,方便咱们的调试。
为何只做为debug使用呢?咱们再看一个例子:
Stream.of("one", "two", "three","four").peek(u -> u.toUpperCase()) .forEach(System.out::println);
上面的例子咱们使用peek将element转换成为upper case。而后输出:
one two three four
能够看到stream中的元素并无被转换成大写格式。
再看一个map的对比:
Stream.of("one", "two", "three","four").map(u -> u.toUpperCase()) .forEach(System.out::println);
输出:
ONE TWO THREE FOUR
能够看到map是真正的对元素进行了转换。
固然peek也有例外,假如咱们Stream里面是一个对象会怎么样?
@Data @AllArgsConstructor static class User{ private String name; }
List<User> userList=Stream.of(new User("a"),new User("b"),new User("c")).peek(u->u.setName("kkk")).collect(Collectors.toList()); log.info("{}",userList);
输出结果:
10:25:59.784 [main] INFO com.flydean.PeekUsage - [PeekUsage.User(name=kkk), PeekUsage.User(name=kkk), PeekUsage.User(name=kkk)]
咱们看到若是是对象的话,实际的结果会被改变。
为何peek和map有这样的区别呢?
咱们看下peek和map的定义:
Stream<T> peek(Consumer<? super T> action) <R> Stream<R> map(Function<? super T, ? extends R> mapper);
peek接收一个Consumer,而map接收一个Function。
Consumer是没有返回值的,它只是对Stream中的元素进行某些操做,可是操做以后的数据并不返回到Stream中,因此Stream中的元素仍是原来的元素。
而Function是有返回值的,这意味着对于Stream的元素的全部操做都会做为新的结果返回到Stream中。
这就是为何peek String不会发生变化而peek Object会发送变化的缘由。
java 8中引入了lambda表达式,lambda表达式可让咱们的代码更加简介,业务逻辑更加清晰,可是在lambda表达式中使用的Functional Interface并无很好的处理异常,由于JDK提供的这些Functional Interface一般都是没有抛出异常的,这意味着须要咱们本身手动来处理异常。
由于异常分为Unchecked Exception和checked Exception,咱们分别来讨论。
Unchecked exception也叫作RuntimeException,出现RuntimeException一般是由于咱们的代码有问题。RuntimeException是不须要被捕获的。也就是说若是有RuntimeException,没有捕获也能够经过编译。
咱们看一个例子:
List<Integer> integers = Arrays.asList(1,2,3,4,5); integers.forEach(i -> System.out.println(1 / i));
这个例子是能够编译成功的,可是上面有一个问题,若是list中有一个0的话,就会抛出ArithmeticException。
虽然这个是一个Unchecked Exception,可是咱们仍是想处理一下:
integers.forEach(i -> { try { System.out.println(1 / i); } catch (ArithmeticException e) { System.err.println( "Arithmetic Exception occured : " + e.getMessage()); } });
上面的例子咱们使用了try,catch来处理异常,简单可是破坏了lambda表达式的最佳实践。代码变得臃肿。
咱们将try,catch移到一个wrapper方法中:
static Consumer<Integer> lambdaWrapper(Consumer<Integer> consumer) { return i -> { try { consumer.accept(i); } catch (ArithmeticException e) { System.err.println( "Arithmetic Exception occured : " + e.getMessage()); } }; }
则原来的调用变成这样:
integers.forEach(lambdaWrapper(i -> System.out.println(1 / i)));
可是上面的wrapper固定了捕获ArithmeticException,咱们再将其改编成一个更通用的类:
static <T, E extends Exception> Consumer<T> consumerWrapperWithExceptionClass(Consumer<T> consumer, Class<E> clazz) { return i -> { try { consumer.accept(i); } catch (Exception ex) { try { E exCast = clazz.cast(ex); System.err.println( "Exception occured : " + exCast.getMessage()); } catch (ClassCastException ccEx) { throw ex; } } }; }
上面的类传入一个class,并将其cast到异常,若是能cast,则处理,不然抛出异常。
这样处理以后,咱们这样调用:
integers.forEach( consumerWrapperWithExceptionClass( i -> System.out.println(1 / i), ArithmeticException.class));
checked Exception是必需要处理的异常,咱们仍是看个例子:
static void throwIOException(Integer integer) throws IOException { }
List<Integer> integers = Arrays.asList(1, 2, 3, 4, 5); integers.forEach(i -> throwIOException(i));
上面咱们定义了一个方法抛出IOException,这是一个checked Exception,须要被处理,因此在下面的forEach中,程序会编译失败,由于没有处理相应的异常。
最简单的办法就是try,catch住,以下所示:
integers.forEach(i -> { try { throwIOException(i); } catch (IOException e) { throw new RuntimeException(e); } });
固然,这样的作法的坏处咱们在上面已经讲过了,一样的,咱们能够定义一个新的wrapper方法:
static <T> Consumer<T> consumerWrapper( ThrowingConsumer<T, Exception> throwingConsumer) { return i -> { try { throwingConsumer.accept(i); } catch (Exception ex) { throw new RuntimeException(ex); } }; }
咱们这样调用:
integers.forEach(consumerWrapper(i -> throwIOException(i)));
咱们也能够封装一下异常:
static <T, E extends Exception> Consumer<T> consumerWrapperWithExceptionClass( ThrowingConsumer<T, E> throwingConsumer, Class<E> exceptionClass) { return i -> { try { throwingConsumer.accept(i); } catch (Exception ex) { try { E exCast = exceptionClass.cast(ex); System.err.println( "Exception occured : " + exCast.getMessage()); } catch (ClassCastException ccEx) { throw new RuntimeException(ex); } } }; }
而后这样调用:
integers.forEach(consumerWrapperWithExceptionClass( i -> throwIOException(i), IOException.class));
以前的文章咱们讲到,在stream中处理异常,须要将checked exception转换为unchecked exception来处理。
咱们是这样作的:
static <T> Consumer<T> consumerWrapper( ThrowingConsumer<T, Exception> throwingConsumer) { return i -> { try { throwingConsumer.accept(i); } catch (Exception ex) { throw new RuntimeException(ex); } }; }
将异常捕获,而后封装成为RuntimeException。
封装成RuntimeException感受老是有那么一点点问题,那么有没有什么更好的办法?
java的类型推断你们应该都知道,若是是<T extends Throwable> 这样的形式,那么T将会被认为是RuntimeException!
咱们看下例子:
public class RethrowException { public static <T extends Exception, R> R throwException(Exception t) throws T { throw (T) t; // just throw it, convert checked exception to unchecked exception } }
上面的类中,咱们定义了一个throwException方法,接收一个Exception参数,将其转换为T,这里的T就是unchecked exception。
接下来看下具体的使用:
@Slf4j public class RethrowUsage { public static void main(String[] args) { try { throwIOException(); } catch (IOException e) { log.error(e.getMessage(),e); RethrowException.throwException(e); } } static void throwIOException() throws IOException{ throw new IOException("io exception"); } }
上面的例子中,咱们将一个IOException转换成了一个unchecked exception。
在java stream中,咱们一般须要将处理后的stream转换成集合类,这个时候就须要用到stream.collect方法。collect方法须要传入一个Collector类型,要实现Collector仍是很麻烦的,须要实现好几个接口。
因而java提供了更简单的Collectors工具类来方便咱们构建Collector。
下面咱们将会具体讲解Collectors的用法。
假如咱们有这样两个list:
List<String> list = Arrays.asList("jack", "bob", "alice", "mark"); List<String> duplicateList = Arrays.asList("jack", "jack", "alice", "mark");
上面一个是无重复的list,一个是带重复数据的list。接下来的例子咱们会用上面的两个list来说解Collectors的用法。
List<String> listResult = list.stream().collect(Collectors.toList()); log.info("{}",listResult);
将stream转换为list。这里转换的list是ArrayList,若是想要转换成特定的list,须要使用toCollection方法。
Set<String> setResult = list.stream().collect(Collectors.toSet()); log.info("{}",setResult);
toSet将Stream转换成为set。这里转换的是HashSet。若是须要特别指定set,那么须要使用toCollection方法。
由于set中是没有重复的元素,若是咱们使用duplicateList来转换的话,会发现最终结果中只有一个jack。
Set<String> duplicateSetResult = duplicateList.stream().collect(Collectors.toSet()); log.info("{}",duplicateSetResult);
上面的toMap,toSet转换出来的都是特定的类型,若是咱们须要自定义,则可使用toCollection()
List<String> custListResult = list.stream().collect(Collectors.toCollection(LinkedList::new)); log.info("{}",custListResult);
上面的例子,咱们转换成了LinkedList。
toMap接收两个参数,第一个参数是keyMapper,第二个参数是valueMapper:
Map<String, Integer> mapResult = list.stream() .collect(Collectors.toMap(Function.identity(), String::length)); log.info("{}",mapResult);
若是stream中有重复的值,则转换会报IllegalStateException异常:
Map<String, Integer> duplicateMapResult = duplicateList.stream() .collect(Collectors.toMap(Function.identity(), String::length));
怎么解决这个问题呢?咱们能够这样:
Map<String, Integer> duplicateMapResult2 = duplicateList.stream() .collect(Collectors.toMap(Function.identity(), String::length, (item, identicalItem) -> item)); log.info("{}",duplicateMapResult2);
在toMap中添加第三个参数mergeFunction,来解决冲突的问题。
collectingAndThen容许咱们对生成的集合再作一次操做。
List<String> collectAndThenResult = list.stream() .collect(Collectors.collectingAndThen(Collectors.toList(), l -> {return new ArrayList<>(l);})); log.info("{}",collectAndThenResult);
Joining用来链接stream中的元素:
String joinResult = list.stream().collect(Collectors.joining()); log.info("{}",joinResult); String joinResult1 = list.stream().collect(Collectors.joining(" ")); log.info("{}",joinResult1); String joinResult2 = list.stream().collect(Collectors.joining(" ", "prefix","suffix")); log.info("{}",joinResult2);
能够不带参数,也能够带一个参数,也能够带三个参数,根据咱们的须要进行选择。
counting主要用来统计stream中元素的个数:
Long countResult = list.stream().collect(Collectors.counting()); log.info("{}",countResult);
SummarizingDouble/Long/Int为stream中的元素生成了统计信息,返回的结果是一个统计类:
IntSummaryStatistics intResult = list.stream() .collect(Collectors.summarizingInt(String::length)); log.info("{}",intResult);
输出结果:
22:22:35.238 [main] INFO com.flydean.CollectorUsage - IntSummaryStatistics{count=4, sum=16, min=3, average=4.000000, max=5}
averagingDouble/Long/Int()对stream中的元素作平均:
Double averageResult = list.stream().collect(Collectors.averagingInt(String::length)); log.info("{}",averageResult);
summingDouble/Long/Int()对stream中的元素作sum操做:
Double summingResult = list.stream().collect(Collectors.summingDouble(String::length)); log.info("{}",summingResult);
maxBy()/minBy()根据提供的Comparator,返回stream中的最大或者最小值:
Optional<String> maxByResult = list.stream().collect(Collectors.maxBy(Comparator.naturalOrder())); log.info("{}",maxByResult);
GroupingBy根据某些属性进行分组,并返回一个Map:
Map<Integer, Set<String>> groupByResult = list.stream() .collect(Collectors.groupingBy(String::length, Collectors.toSet())); log.info("{}",groupByResult);
PartitioningBy是一个特别的groupingBy,PartitioningBy返回一个Map,这个Map是以boolean值为key,从而将stream分红两部分,一部分是匹配PartitioningBy条件的,一部分是不知足条件的:
Map<Boolean, List<String>> partitionResult = list.stream() .collect(Collectors.partitioningBy(s -> s.length() > 3)); log.info("{}",partitionResult);
看下运行结果:
22:39:37.082 [main] INFO com.flydean.CollectorUsage - {false=[bob], true=[jack, alice, mark]}
结果被分红了两部分。
在以前的java collectors文章里面,咱们讲到了stream的collect方法能够调用Collectors里面的toList()或者toMap()方法,将结果转换为特定的集合类。
今天咱们介绍一下怎么自定义一个Collector。
咱们先看一下Collector的定义:
Collector接口须要实现supplier(),accumulator(),combiner(),finisher(),characteristics()这5个接口。
同时Collector也提供了两个静态of方法来方便咱们建立一个Collector实例。
咱们能够看到两个方法的参数跟Collector接口须要实现的接口是一一对应的。
下面分别解释一下这几个参数:
Supplier是一个函数,用来建立一个新的可变的集合。换句话说Supplier用来建立一个初始的集合。
accumulator定义了累加器,用来将原始元素添加到集合中。
combiner用来将两个集合合并成一个。
finisher将集合转换为最终的集合类型。
characteristics表示该集合的特征。这个不是必须的参数。
Collector定义了三个参数类型,T是输入元素的类型,A是reduction operation的累加类型也就是Supplier的初始类型,R是最终的返回类型。 咱们画个图来看一下这些类型之间的转换关系:
有了这几个参数,咱们接下来看看怎么使用这些参数来构造一个自定义Collector。
咱们利用Collector的of方法来建立一个不变的Set:
public static <T> Collector<T, Set<T>, Set<T>> toImmutableSet() { return Collector.of(HashSet::new, Set::add, (left, right) -> { left.addAll(right); return left; }, Collections::unmodifiableSet); }
上面的例子中,咱们HashSet::new做为supplier,Set::add做为accumulator,自定义了一个方法做为combiner,最后使用Collections::unmodifiableSet将集合转换成不可变集合。
上面咱们固定使用HashSet::new做为初始集合的生成方法,实际上,上面的方法能够更加通用:
public static <T, A extends Set<T>> Collector<T, A, Set<T>> toImmutableSet( Supplier<A> supplier) { return Collector.of( supplier, Set::add, (left, right) -> { left.addAll(right); return left; }, Collections::unmodifiableSet); }
上面的方法,咱们将supplier提出来做为一个参数,由外部来定义。
看下上面两个方法的测试:
@Test public void toImmutableSetUsage(){ Set<String> stringSet1=Stream.of("a","b","c","d") .collect(ImmutableSetCollector.toImmutableSet()); log.info("{}",stringSet1); Set<String> stringSet2=Stream.of("a","b","c","d") .collect(ImmutableSetCollector.toImmutableSet(LinkedHashSet::new)); log.info("{}",stringSet2); }
输出:
INFO com.flydean.ImmutableSetCollector - [a, b, c, d] INFO com.flydean.ImmutableSetCollector - [a, b, c, d]
Stream API提供了一些预约义的reduce操做,好比count(), max(), min(), sum()等。若是咱们须要本身写reduce的逻辑,则可使用reduce方法。
本文将会详细分析一下reduce方法的使用,并给出具体的例子。
Stream类中有三种reduce,分别接受1个参数,2个参数,和3个参数,首先来看一个参数的状况:
Optional<T> reduce(BinaryOperator<T> accumulator);
该方法接受一个BinaryOperator参数,BinaryOperator是一个@FunctionalInterface,须要实现方法:
R apply(T t, U u);
accumulator告诉reduce方法怎么去累计stream中的数据。
举个例子:
List<Integer> intList = Arrays.asList(1,2,3); Optional<Integer> result1=intList.stream().reduce(Integer::sum); log.info("{}",result1);
上面的例子输出结果:
com.flydean.ReduceUsage - Optional[6]
一个参数的例子很简单。这里再也不多说。
接下来咱们再看一下两个参数的例子:
T reduce(T identity, BinaryOperator<T> accumulator);
这个方法接收两个参数:identity和accumulator。多出了一个参数identity。
也许在有些文章里面有人告诉你identity是reduce的初始化值,能够随便指定,以下所示:
Integer result2=intList.stream().reduce(100, Integer::sum); log.info("{}",result2);
上面的例子,咱们计算的值是106。
若是咱们将stream改为parallelStream:
Integer result3=intList.parallelStream().reduce(100, Integer::sum); log.info("{}",result3);
得出的结果就是306。
为何是306呢?由于在并行计算的时候,每一个线程的初始累加值都是100,最后3个线程加出来的结果就是306。
并行计算和非并行计算的结果竟然不同,这确定不是JDK的问题,咱们再看一下JDK中对identity的说明:
identity必须是accumulator函数的一个identity,也就是说必须知足:对于全部的t,都必须知足 accumulator.apply(identity, t) == t
因此这里咱们传入100是不对的,由于sum(100+1)!= 1。
这里sum方法的identity只能是0。
若是咱们用0做为identity,则stream和parallelStream计算出的结果是同样的。这就是identity的真正意图。
下面再看一下三个参数的方法:
<U> U reduce(U identity, BiFunction<U, ? super T, U> accumulator, BinaryOperator<U> combiner);
和前面的方法不一样的是,多了一个combiner,这个combiner用来合并多线程计算的结果。
一样的,identity须要知足combiner.apply(u, accumulator.apply(identity, t)) == accumulator.apply(u, t)
你们可能注意到了为何accumulator的类型是BiFunction而combiner的类型是BinaryOperator?
public interface BinaryOperator<T> extends BiFunction<T,T,T>
BinaryOperator是BiFunction的子接口。BiFunction中定义了要实现的apply方法。
其实reduce底层方法的实现只用到了apply方法,并无用到接口中其余的方法,因此我猜想这里的不一样只是为了简单的区分。
虽然reduce是一个很经常使用的方法,可是你们必定要遵循identity的规范,并非全部的identity都是合适的。
Spliterator是在java 8引入的一个接口,它一般和stream一块儿使用,用来遍历和分割序列。
只要用到stream的地方都须要Spliterator,好比List,Collection,IO channel等等。
咱们先看一下Collection中stream方法的定义:
default Stream<E> stream() { return StreamSupport.stream(spliterator(), false); }
default Stream<E> parallelStream() { return StreamSupport.stream(spliterator(), true); }
咱们能够看到,无论是并行stream仍是非并行stream,都是经过StreamSupport来构造的,而且都须要传入一个spliterator的参数。
好了,咱们知道了spliterator是作什么的以后,看一下它的具体结构:
spliterator有四个必须实现的方法,咱们接下来进行详细的讲解。
tryAdvance就是对stream中的元素进行处理的方法,若是元素存在,则对他进行处理,并返回true,不然返回false。
若是咱们不想处理stream后续的元素,则在tryAdvance中返回false便可,利用这个特征,咱们能够中断stream的处理。这个例子我将会在后面的文章中讲到。
trySplit尝试对现有的stream进行分拆,通常用在parallelStream的状况,由于在并发stream下,咱们须要用多线程去处理stream的不一样元素,trySplit就是对stream中元素进行分拆处理的方法。
理想状况下trySplit应该将stream拆分红数目相同的两部分才能最大提高性能。
estimateSize表示Spliterator中待处理的元素,在trySplit以前和以后通常是不一样的,后面咱们会在具体的例子中说明。
characteristics表示这个Spliterator的特征,Spliterator有8大特征:
public static final int ORDERED = 0x00000010;//表示元素是有序的(每一次遍历结果相同) public static final int DISTINCT = 0x00000001;//表示元素不重复 public static final int SORTED = 0x00000004;//表示元素是按必定规律进行排列(有指定比较器) public static final int SIZED = 0x00000040;// 表示大小是固定的 public static final int NONNULL = 0x00000100;//表示没有null元素 public static final int IMMUTABLE = 0x00000400;//表示元素不可变 public static final int CONCURRENT = 0x00001000;//表示迭代器能够多线程操做 public static final int SUBSIZED = 0x00004000;//表示子Spliterators都具备SIZED特性
一个Spliterator能够有多个特征,多个特征进行or运算,最后获得最终的characteristics。
上面咱们讨论了Spliterator一些关键方法,如今咱们举一个具体的例子:
@AllArgsConstructor @Data public class CustBook { private String name; }
先定义一个CustBook类,里面放一个name变量。
定义一个方法,来生成一个CustBook的list:
public static List<CustBook> generateElements() { return Stream.generate(() -> new CustBook("cust book")) .limit(1000) .collect(Collectors.toList()); }
咱们定义一个call方法,在call方法中调用了tryAdvance方法,传入了咱们自定义的处理方法。这里咱们修改book的name,并附加额外的信息。
public String call(Spliterator<CustBook> spliterator) { int current = 0; while (spliterator.tryAdvance(a -> a.setName("test name" .concat("- add new name")))) { current++; } return Thread.currentThread().getName() + ":" + current; }
最后,写一下测试方法:
@Test public void useTrySplit(){ Spliterator<CustBook> split1 = SpliteratorUsage.generateElements().spliterator(); Spliterator<CustBook> split2 = split1.trySplit(); log.info("before tryAdvance: {}",split1.estimateSize()); log.info("Characteristics {}",split1.characteristics()); log.info(call(split1)); log.info(call(split2)); log.info("after tryAdvance {}",split1.estimateSize()); }
运行的结果以下:
23:10:08.852 [main] INFO com.flydean.SpliteratorUsage - before tryAdvance: 500 23:10:08.857 [main] INFO com.flydean.SpliteratorUsage - Characteristics 16464 23:10:08.858 [main] INFO com.flydean.SpliteratorUsage - main:500 23:10:08.858 [main] INFO com.flydean.SpliteratorUsage - main:500 23:10:08.858 [main] INFO com.flydean.SpliteratorUsage - after tryAdvance 0
List总共有1000条数据,调用一次trySplit以后,将List分红了两部分,每部分500条数据。
注意,在tryAdvance调用以后,estimateSize变为0,表示全部的元素都已经被处理完毕。
再看一下这个Characteristics=16464,转换为16进制:Ox4050 = ORDERED or SIZED or SUBSIZED 这三个的或运算。
这也是ArrayList的基本特征。
咱们一般须要在java stream中遍历处理里面的数据,其中foreach是最最经常使用的方法。
可是有时候咱们并不想处理完全部的数据,或者有时候Stream可能很是的长,或者根本就是无限的。
一种方法是先filter出咱们须要处理的数据,而后再foreach遍历。
那么咱们如何直接break这个stream呢?今天本文重点讲解一下这个问题。
上篇文章咱们在讲Spliterator的时候提到了,在tryAdvance方法中,若是返回false,则Spliterator将会中止处理后续的元素。
经过这个思路,咱们能够建立自定义Spliterator。
假如咱们有这样一个stream:
Stream<Integer> ints = Stream.of(1, 2, 3, 4, 5, 6, 7, 8, 9, 10);
咱们想定义一个操做,当x > 5的时候就中止。
咱们定义一个通用的Spliterator:
public class CustomSpliterator<T> extends Spliterators.AbstractSpliterator<T> { private Spliterator<T> splitr; private Predicate<T> predicate; private volatile boolean isMatched = true; public CustomSpliterator(Spliterator<T> splitr, Predicate<T> predicate) { super(splitr.estimateSize(), 0); this.splitr = splitr; this.predicate = predicate; } @Override public synchronized boolean tryAdvance(Consumer<? super T> consumer) { boolean hadNext = splitr.tryAdvance(elem -> { if (predicate.test(elem) && isMatched) { consumer.accept(elem); } else { isMatched = false; } }); return hadNext && isMatched; } }
在上面的类中,predicate是咱们将要传入的判断条件,咱们重写了tryAdvance,经过将predicate.test(elem)加入判断条件,从而当条件不知足的时候返回false.
看下怎么使用:
@Slf4j public class CustomSpliteratorUsage { public static <T> Stream<T> takeWhile(Stream<T> stream, Predicate<T> predicate) { CustomSpliterator<T> customSpliterator = new CustomSpliterator<>(stream.spliterator(), predicate); return StreamSupport.stream(customSpliterator, false); } public static void main(String[] args) { Stream<Integer> ints = Stream.of(1, 2, 3, 4, 5, 6, 7, 8, 9, 10); List<Integer> result = takeWhile(ints, x -> x < 5 ) .collect(Collectors.toList()); log.info(result.toString()); } }
咱们定义了一个takeWhile方法,接收Stream和predicate条件。
只有当predicate条件知足的时候才会继续,咱们看下输出的结果:
[main] INFO com.flydean.CustomSpliteratorUsage - [1, 2, 3, 4]
除了使用Spliterator,咱们还能够自定义forEach方法来使用本身的遍历逻辑:
public class CustomForEach { public static class Breaker { private volatile boolean shouldBreak = false; public void stop() { shouldBreak = true; } boolean get() { return shouldBreak; } } public static <T> void forEach(Stream<T> stream, BiConsumer<T, Breaker> consumer) { Spliterator<T> spliterator = stream.spliterator(); boolean hadNext = true; Breaker breaker = new Breaker(); while (hadNext && !breaker.get()) { hadNext = spliterator.tryAdvance(elem -> { consumer.accept(elem, breaker); }); } } }
上面的例子中,咱们在forEach中引入了一个外部变量,经过判断这个外部变量来决定是否进入spliterator.tryAdvance方法。
看下怎么使用:
@Slf4j public class CustomForEachUsage { public static void main(String[] args) { Stream<Integer> ints = Stream.of(1, 2, 3, 4, 5, 6, 7, 8, 9, 10); List<Integer> result = new ArrayList<>(); CustomForEach.forEach(ints, (elem, breaker) -> { if (elem >= 5 ) { breaker.stop(); } else { result.add(elem); } }); log.info(result.toString()); } }
上面咱们用新的forEach方法,并经过判断条件来重置判断flag,从而达到break stream的目的。
Predicate是一个FunctionalInterface,表明的方法须要输入一个参数,返回boolean类型。一般用在stream的filter中,表示是否知足过滤条件。
boolean test(T t);
咱们先看下在stream的filter中怎么使用Predicate:
@Test public void basicUsage(){ List<String> stringList=Stream.of("a","b","c","d").filter(s -> s.startsWith("a")).collect(Collectors.toList()); log.info("{}",stringList); }
上面的例子很基础了,这里就很少讲了。
若是咱们有多个Predicate条件,则可使用多个filter来进行过滤:
public void multipleFilters(){ List<String> stringList=Stream.of("a","ab","aac","ad").filter(s -> s.startsWith("a")) .filter(s -> s.length()>1) .collect(Collectors.toList()); log.info("{}",stringList); }
上面的例子中,咱们又添加了一个filter,在filter又添加了一个Predicate。
Predicate的定义是输入一个参数,返回boolean值,那么若是有多个测试条件,咱们能够将其合并成一个test方法:
@Test public void complexPredicate(){ List<String> stringList=Stream.of("a","ab","aac","ad") .filter(s -> s.startsWith("a") && s.length()>1) .collect(Collectors.toList()); log.info("{}",stringList); }
上面的例子中,咱们把s.startsWith("a") && s.length()>1 做为test的实现。
Predicate虽然是一个interface,可是它有几个默认的方法能够用来实现Predicate之间的组合操做。
好比:Predicate.and(), Predicate.or(), 和 Predicate.negate()。
下面看下他们的例子:
@Test public void combiningPredicate(){ Predicate<String> predicate1 = s -> s.startsWith("a"); Predicate<String> predicate2 = s -> s.length() > 1; List<String> stringList1 = Stream.of("a","ab","aac","ad") .filter(predicate1.and(predicate2)) .collect(Collectors.toList()); log.info("{}",stringList1); List<String> stringList2 = Stream.of("a","ab","aac","ad") .filter(predicate1.or(predicate2)) .collect(Collectors.toList()); log.info("{}",stringList2); List<String> stringList3 = Stream.of("a","ab","aac","ad") .filter(predicate1.or(predicate2.negate())) .collect(Collectors.toList()); log.info("{}",stringList3); }
实际上,咱们并不须要显示的assign一个predicate,只要是知足
predicate接口的lambda表达式均可以看作是一个predicate。一样能够调用and,or和negate操做:
List<String> stringList4 = Stream.of("a","ab","aac","ad") .filter(((Predicate<String>)a -> a.startsWith("a")) .and(a -> a.length() > 1)) .collect(Collectors.toList()); log.info("{}",stringList4);
若是咱们有一个Predicate集合,咱们可使用reduce方法来对其进行合并运算:
@Test public void combiningPredicateCollection(){ List<Predicate<String>> allPredicates = new ArrayList<>(); allPredicates.add(a -> a.startsWith("a")); allPredicates.add(a -> a.length() > 1); List<String> stringList = Stream.of("a","ab","aac","ad") .filter(allPredicates.stream().reduce(x->true, Predicate::and)) .collect(Collectors.toList()); log.info("{}",stringList); }
上面的例子中,咱们调用reduce方法,对集合中的Predicate进行了and操做。
在java中,咱们能够将特定的集合转换成为stream,那么在有些状况下,好比测试环境中,咱们须要构造必定数量元素的stream,须要怎么处理呢?
这里咱们能够构建一个无限的stream,而后调用limit方法来限定返回的数目。
先看一个使用Stream.iterate来建立无限Stream的例子:
@Test public void infiniteStream(){ Stream<Integer> infiniteStream = Stream.iterate(0, i -> i + 1); List<Integer> collect = infiniteStream .limit(10) .collect(Collectors.toList()); log.info("{}",collect); }
上面的例子中,咱们经过调用Stream.iterate方法,建立了一个0,1,2,3,4....的无限stream。
而后调用limit(10)来获取其中的前10个。最后调用collect方法将其转换成为一个集合。
看下输出结果:
INFO com.flydean.InfiniteStreamUsage - [0, 1, 2, 3, 4, 5, 6, 7, 8, 9]
若是咱们想输出自定义类型的集合,该怎么处理呢?
首先,咱们定义一个自定义类型:
@Data @AllArgsConstructor public class IntegerWrapper { private Integer integer; }
而后利用Stream.generate的生成器来建立这个自定义类型:
public static IntegerWrapper generateCustType(){ return new IntegerWrapper(new Random().nextInt(100)); } @Test public void infiniteCustType(){ Supplier<IntegerWrapper> randomCustTypeSupplier = InfiniteStreamUsage::generateCustType; Stream<IntegerWrapper> infiniteStreamOfCustType = Stream.generate(randomCustTypeSupplier); List<IntegerWrapper> collect = infiniteStreamOfCustType .skip(10) .limit(10) .collect(Collectors.toList()); log.info("{}",collect); }
看下输出结果:
INFO com.flydean.InfiniteStreamUsage - [IntegerWrapper(integer=46), IntegerWrapper(integer=42), IntegerWrapper(integer=67), IntegerWrapper(integer=11), IntegerWrapper(integer=14), IntegerWrapper(integer=80), IntegerWrapper(integer=15), IntegerWrapper(integer=19), IntegerWrapper(integer=72), IntegerWrapper(integer=41)]
以前咱们讲到parallelStream的底层使用到了ForkJoinPool来提交任务的,默认状况下ForkJoinPool为每个处理器建立一个线程,parallelStream若是没有特别指明的状况下,都会使用这个共享线程池来提交任务。
那么在特定的状况下,咱们想使用自定义的ForkJoinPool该怎么处理呢?
假如咱们想作一个从1到1000的加法,咱们能够用并行stream这样作:
List<Integer> integerList= IntStream.range(1,1000).boxed().collect(Collectors.toList()); ForkJoinPool customThreadPool = new ForkJoinPool(4); Integer total= integerList.parallelStream().reduce(0, Integer::sum); log.info("{}",total);
输出结果:
INFO com.flydean.CustThreadPool - 499500
上面的例子使用的共享的thread pool。 咱们看下怎么使用自定义的thread pool来提交并行stream:
List<Integer> integerList= IntStream.range(1,1000).boxed().collect(Collectors.toList()); ForkJoinPool customThreadPool = new ForkJoinPool(4); Integer actualTotal = customThreadPool.submit( () -> integerList.parallelStream().reduce(0, Integer::sum)).get(); log.info("{}",actualTotal);
上面的例子中,咱们定义了一个4个线程的ForkJoinPool,并使用它来提交了这个parallelStream。
输出结果:
INFO com.flydean.CustThreadPool - 499500
若是不想使用公共的线程池,则可使用自定义的ForkJoinPool来提交。
本文统一介绍了Stream和lambda表达式的使用,涵盖了Stream和lambda表达式的各个小的细节,但愿你们可以喜欢。
本文的代码https://github.com/ddean2009/learn-java-streams/
本文的PDFjava-stream-lambda-all-in-one.pdf
最通俗的解读,最深入的干货,最简洁的教程,众多你不知道的小技巧等你来发现!欢迎关注个人公众号:「程序那些事」,懂技术,更懂你!