流模型的操作很丰富,下面介绍一些常用的API。这些方法可以被分成两种:
-
延迟方法
返回值类型仍然是 Stream 接口自身类型的方法,因此支持链式调用。(除了终结方法外,其余方 法均为延迟方法。)
- 终结方法
返回值类型不再是 Stream 接口自身类型的方法,因此不再支持类似 StringBuilder 那样的链式调 用。在这里介绍的终结方法包括 count 和 forEach 方法。
逐一处理:forEach
虽然方法名字叫 forEach ,但是与for循环中的“for-each”昵称不同。
void forEach(Consumer<? super T> action);
该方法接收一个 Consumer 接口函数,会将每一个流元素交给该函数进行处理。
java.util.function.Consumer<T>接口是一个消费型接口。
Consumer接口中包含抽象方法void accept(T t),意为消费一个指定泛型的数据。
基本使用:
import java.util.stream.Stream; public class Demo06ForEach { public static void main(String[] args) { Stream<String> stream = Stream.of("Java", "C", "Python", "Hadoop", "Spark"); stream.forEach(name-> System.out.println(name)); } }
这里调用的of()方法,方法签名:
@SafeVarargs public static<T> Stream<T> of(T... values) { return Arrays.stream(values); }
过滤:filter
可以通过 filter 方法将一个流转换成另一个子集流。方法签名:
Stream<T> filter(Predicate<? super T> predicate);
该接口接收一个 Predicate 函数式接口参数(可以是一个Lambda或方法引用)作为筛选条件。
java.util.stream.Predicate 接口是一个函数式接口,其中唯一的抽象方法为:
boolean test(T t);
该方法将会产生一个boolean值结果,代表指定的条件是否满足。如果结果为true,那么Stream流的 filter 方法将会留用元素;如果结果为false,那么 filter 方法将会舍弃元素。
基本使用
Stream流中的 filter 方法基本使用的代码如:
import java.util.stream.Stream; public class Demo07StreamFilter { public static void main(String[] args) { Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark"); Stream<String> result = original.filter(s -> s.length() >= 5); result.forEach(System.out::println); } }
运行程序,控制台输出:
Python
Hadoop
Spark
这个例子中,通过Lambda表达式来指定了筛选的条件:字符串的长度要大于等于5。
映射:map
如果需要将流中的元素映射到另一个流中,可以使用 map 方法。方法签名:
<R> Stream<R> map(Function<? super T, ? extends R> mapper);
该接口需要一个 Function 函数式接口参数,可以将当前流中的T类型数据转换为另一种R类型的流。
java.util.stream.Function 接口是一个函数式接口,其中唯一的抽象方法为:
R apply(T t);
这可以将一种T类型转换成为R类型,而这种转换的动作,就称为“映射”。
基本使用
Stream流中的 map 方法基本使用的代码如:
import java.util.stream.Stream; public class Demo08StreamMap { public static void main(String[] args) { Stream<String> original = Stream.of("100", "200", "300"); Stream<Integer> result = original.map(str -> Integer.parseInt(str)); result.forEach(System.out::println); } }
运行程序,控制台输出:
100 200 300
这段代码中, map 方法的参数通过方法引用,将字符串类型转换成为了int类型(并自动装箱为 Integer 类对象)。然后调用Stream接口中的forEach方法,逐一输出结果。
统计个数:count
正如旧集合 Collection 当中的 size 方法一样,流提供 count 方法来数一数其中的元素个数:
long count();
该方法返回一个long值代表元素个数(不再像旧集合那样是int值)。
基本使用
import java.util.stream.Stream; public class Demo09StreamCount { public static void main(String[] args) { Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark"); Stream<String> result = original.filter(s -> s.length() >= 5); System.out.println(result.count()); } }
运行程序,控制台输出:
3
取用前几个:limit
limit 方法可以对流进行截取,只取用前n个。方法签名:
Stream<T> limit(long maxSize);
参数是一个long型,如果集合当前长度大于参数则进行截取;否则不进行操作。
基本使用
import java.util.stream.Stream; public class Demo10StreamLimit { public static void main(String[] args) { Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark"); Stream<String> result = original.limit(3); result.forEach(System.out::println); } }
运行程序,控制台输出:
Java
C
Python
跳过前几个:skip
如果希望跳过前几个元素,可以使用 skip 方法获取一个截取之后的新流:
Stream<T> skip(long n);
如果流的当前长度大于n,则跳过前n个;否则将会得到一个长度为0的空流。
基本使用
import java.util.stream.Stream; public class Demo11StreamSkip { public static void main(String[] args) { Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark"); Stream<String> result = original.skip(3); result.forEach(System.out::println); } }
运行程序,控制台输出:
Hadoop
Spark
组合:concat
如果有两个流,希望合并成为一个流,那么可以使用 Stream 接口的静态方法 concat:
static <T> Stream<T> concat(Stream<? extends T> a, Stream<? extends T> b)
备注:这是一个静态方法,与 java.lang.String 当中的 concat 方法是不同的。
基本使用
import java.util.stream.Stream; public class Demo12StreamConcat { public static void main(String[] args) { Stream<String> original1 = Stream.of("Java", "C", "Python"); Stream<String> original2 = Stream.of("Hadoop", "Spark"); Stream<String> result = Stream.concat(original1, original2); result.forEach(System.out::println); } }
运行程序,控制台输出:
Java
C
Python
Hadoop
Spark
Stream 接口中的常用方法就介绍到这里,为了加深理解,可以看一下使用Stream方式完成的简单练习。