zoukankan      html  css  js  c++  java
  • MyBatis的foreach语句详解

    MyBatis的foreach语句详解

    MyBatisforeach语句详解

    1人收藏此文章, 我要收藏 发表于3个月前 , 已有113次阅读 共0个评论

    foreach的主要用在构建in条件中,它可以在SQL语句中进行迭代一个集合。foreach元素的属性主要有 item,index,collection,open,separator,close。item表示集合中每一个元素进行迭代时的别名,index指 定一个名字,用于表示在迭代过程中,每次迭代到的位置,open表示该语句以什么开始,separator表示在每次进行迭代之间以什么符号作为分隔 符,close表示以什么结束,在使用foreach的时候最关键的也是最容易出错的就是collection属性,该属性是必须指定的,但是在不同情况 下,该属性的值是不一样的,主要有一下3种情况:

    1.     如果传入的是单参数且参数类型是一个List的时候,collection属性值为list

    2.     如果传入的是单参数且参数类型是一个array数组的时候,collection的属性值为array

    3.     如果传入的参数是多个的时候,我们就需要把它们封装成一个Map了,当然单参数也可以封装成map,实际上如果你在传入参数的时候,在breast里面也是会把它封装成一个Map的,map的key就是参数名,所以这个时候collection属性值就是传入的List或array对象在自己封装的map里面的key

    下面分别来看看上述三种情况的示例代码:

    1.单参数List的类型:
        <select id="dynamicForeachTest" resultType="Blog">
            select * from t_blog where id in
            <foreach collection="list" index="index" item="item" open="(" separator="," close=")">
                #{item}
            </foreach>
        </select>
    上述collection的值为list,对应的Mapper是这样的
    public List<Blog> dynamicForeachTest(List<Integer> ids);
    测试代码:
        @Test
        public void dynamicForeachTest() {
            SqlSession session = Util.getSqlSessionFactory().openSession();
            BlogMapper blogMapper = session.getMapper(BlogMapper.class);
            List<Integer> ids = new ArrayList<Integer>();
            ids.add(1);
            ids.add(3);
            ids.add(6);
            List<Blog> blogs = blogMapper.dynamicForeachTest(ids);
            for (Blog blog : blogs)
                System.out.println(blog);
            session.close();
        }
    2.单参数array数组的类型:
        <select id="dynamicForeach2Test" resultType="Blog">
            select * from t_blog where id in
            <foreach collection="array" index="index" item="item" open="(" separator="," close=")">
                #{item}
            </foreach>
        </select>
    上述collection为array,对应的Mapper代码:
    public List<Blog> dynamicForeach2Test(int[] ids);
    对应的测试代码:
        @Test
        public void dynamicForeach2Test() {
            SqlSession session = Util.getSqlSessionFactory().openSession();
            BlogMapper blogMapper = session.getMapper(BlogMapper.class);
            int[] ids = new int[] {1,3,6,9};
            List<Blog> blogs = blogMapper.dynamicForeach2Test(ids);
            for (Blog blog : blogs)
                System.out.println(blog);
            session.close();
        }
    3.自己把参数封装成Map的类型
        <select id="dynamicForeach3Test" resultType="Blog">
            select * from t_blog where title like "%"#{title}"%" and id in
            <foreach collection="ids" index="index" item="item" open="(" separator="," close=")">
                #{item}
            </foreach>
        </select>
    上述collection的值为ids,是传入的参数Map的key,对应的Mapper代码:
    public List<Blog> dynamicForeach3Test(Map<String, Object> params);
    对应测试代码:
        @Test
        public void dynamicForeach3Test() {
            SqlSession session = Util.getSqlSessionFactory().openSession();
            BlogMapper blogMapper = session.getMapper(BlogMapper.class);
            final List<Integer> ids = new ArrayList<Integer>();
            ids.add(1);
            ids.add(2);
            ids.add(3);
            ids.add(6);
            ids.add(7);
            ids.add(9);
            Map<String, Object> params = new HashMap<String, Object>();
            params.put("ids", ids);
            params.put("title", "中国");
            List<Blog> blogs = blogMapper.dynamicForeach3Test(params);
            for (Blog blog : blogs)
                System.out.println(blog);
            session.close();
        }

  • 相关阅读:
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十四)定义一个avro schema使用comsumer发送avro字符流,producer接受avro字符流并解析
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十三)kafka+spark streaming打包好的程序提交时提示虚拟内存不足(Container is running beyond virtual memory limits. Current usage: 119.5 MB of 1 GB physical memory used; 2.2 GB of 2.1 G)
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十二)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网。
    Hadoop:安装ftp over hdfs
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十一)定制一个arvo格式文件发送到kafka的topic,通过Structured Streaming读取kafka的数据
    Hadoop:开发机运行spark程序,抛出异常:ERROR Shell: Failed to locate the winutils binary in the hadoop binary path
    自动化运维工具——ansible详解(一)
    缓存雪崩和缓存穿透问题解决方案
    Redis 和 Memcached 的区别
    mongo之 前后台创建索引 --noIndexBuildRetry
  • 原文地址:https://www.cnblogs.com/-blog/p/5178106.html
Copyright © 2011-2022 走看看