zoukankan      html  css  js  c++  java
  • java.util.stream.Stream 接口中的常用方法

     

    流模型的操作很丰富,下面介绍一些常用的API。这些方法可以被分成两种:

    1. 延迟方法

      返回值类型仍然是 Stream 接口自身类型的方法,因此支持链式调用。(除了终结方法外,其余方 法均为延迟方法。)

    2. 终结方法

      返回值类型不再是 Stream 接口自身类型的方法,因此不再支持类似 StringBuilder 那样的链式调 用。在这里介绍的终结方法包括 count 和 forEach 方法。

    逐一处理:forEach

    虽然方法名字叫 forEach ,但是与for循环中的“for-each”昵称不同。

    void forEach(Consumer<? super T> action);

    该方法接收一个 Consumer 接口函数,会将每一个流元素交给该函数进行处理。

    java.util.function.Consumer<T>接口是一个消费型接口。
    Consumer接口中包含抽象方法void accept(T t),意为消费一个指定泛型的数据。

    基本使用:

    import java.util.stream.Stream;
    
    public class Demo06ForEach {
    
        public static void main(String[] args) {
            Stream<String> stream = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
            stream.forEach(name-> System.out.println(name));
        }
    
    }

    这里调用的of()方法,方法签名:

    @SafeVarargs
    public static<T> Stream<T> of(T... values) {
        return Arrays.stream(values);
    }

    过滤:filter

    可以通过 filter 方法将一个流转换成另一个子集流。方法签名:

    Stream<T> filter(Predicate<? super T> predicate);

    该接口接收一个 Predicate 函数式接口参数(可以是一个Lambda或方法引用)作为筛选条件。

     

    java.util.stream.Predicate 接口是一个函数式接口,其中唯一的抽象方法为:

    boolean test(T t);

    该方法将会产生一个boolean值结果,代表指定的条件是否满足。如果结果为true,那么Stream流的 filter 方法将会留用元素;如果结果为false,那么 filter 方法将会舍弃元素。

     

    基本使用

    Stream流中的 filter 方法基本使用的代码如:

    import java.util.stream.Stream;
    
    public class Demo07StreamFilter {
        public static void main(String[] args) {
            Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
            Stream<String> result = original.filter(s -> s.length() >= 5);
            result.forEach(System.out::println);
        }
    }

    运行程序,控制台输出:

    Python
    Hadoop
    Spark

    这个例子中,通过Lambda表达式来指定了筛选的条件:字符串的长度要大于等于5。

    映射:map

    如果需要将流中的元素映射到另一个流中,可以使用 map 方法。方法签名:

    <R> Stream<R> map(Function<? super T, ? extends R> mapper);

    该接口需要一个 Function 函数式接口参数,可以将当前流中的T类型数据转换为另一种R类型的流。

     

    java.util.stream.Function 接口是一个函数式接口,其中唯一的抽象方法为:

    R apply(T t);

    这可以将一种T类型转换成为R类型,而这种转换的动作,就称为“映射”。

    基本使用

    Stream流中的 map 方法基本使用的代码如:

    import java.util.stream.Stream;
    
    public class Demo08StreamMap {
        public static void main(String[] args) {
            Stream<String> original = Stream.of("100", "200", "300");
            Stream<Integer> result = original.map(str -> Integer.parseInt(str));
            result.forEach(System.out::println);
        }
    }

    运行程序,控制台输出:

    100
    200
    300

    这段代码中, map 方法的参数通过方法引用,将字符串类型转换成为了int类型(并自动装箱为 Integer 类对象)。然后调用Stream接口中的forEach方法,逐一输出结果。

     

    统计个数:count

    正如旧集合 Collection 当中的 size 方法一样,流提供 count 方法来数一数其中的元素个数:

    long count();

    该方法返回一个long值代表元素个数(不再像旧集合那样是int值)。

    基本使用

    import java.util.stream.Stream;
    
    public class Demo09StreamCount {
        public static void main(String[] args) {
            Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
            Stream<String> result = original.filter(s -> s.length() >= 5);
            System.out.println(result.count());
        }
    }

    运行程序,控制台输出:

    3

    取用前几个:limit

    limit 方法可以对流进行截取,只取用前n个。方法签名:

    Stream<T> limit(long maxSize);

    参数是一个long型,如果集合当前长度大于参数则进行截取;否则不进行操作。

    基本使用

    import java.util.stream.Stream;
    
    public class Demo10StreamLimit {
        public static void main(String[] args) {
            Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
            Stream<String> result = original.limit(3);
            result.forEach(System.out::println);
        }
    }

    运行程序,控制台输出:

    Java
    C
    Python

    跳过前几个:skip

    如果希望跳过前几个元素,可以使用 skip 方法获取一个截取之后的新流:

    Stream<T> skip(long n);

    如果流的当前长度大于n,则跳过前n个;否则将会得到一个长度为0的空流。

     

    基本使用

    import java.util.stream.Stream;
    
    public class Demo11StreamSkip {
        public static void main(String[] args) {
            Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
            Stream<String> result = original.skip(3);
            result.forEach(System.out::println);
        }
    }

    运行程序,控制台输出:

    Hadoop
    Spark

    组合:concat

    如果有两个流,希望合并成为一个流,那么可以使用 Stream 接口的静态方法 concat:

    static <T> Stream<T> concat(Stream<? extends T> a, Stream<? extends T> b)
    备注:这是一个静态方法,与 java.lang.String 当中的 concat 方法是不同的。

    基本使用

    import java.util.stream.Stream;
    
    public class Demo12StreamConcat {
        public static void main(String[] args) {
            Stream<String> original1 = Stream.of("Java", "C", "Python");
            Stream<String> original2 = Stream.of("Hadoop", "Spark");
            Stream<String> result = Stream.concat(original1, original2);
            result.forEach(System.out::println);
        }
    }

    运行程序,控制台输出:

    Java
    C
    Python
    Hadoop
    Spark

    Stream 接口中的常用方法就介绍到这里,为了加深理解,可以看一下使用Stream方式完成的简单练习

              

  • 相关阅读:
    STM32cubemx-HAL库串口断线问题
    stm32 微秒定延时问题
    JLink OB SWI 取代串口打印的方式
    英特尔神经棒使用入门-NCS2 & NCS1 -OpenVino
    计算机组成原理-第4章-4.1
    计算机组成原理-第3章-3.5
    计算机组成原理-第3章-3.4
    计算机组成原理-第3章-3.3
    Tensorflow Chapter-6
    计算机组成原理-第3章-3.2
  • 原文地址:https://www.cnblogs.com/liyihua/p/12289676.html
Copyright © 2011-2022 走看看