zoukankan      html  css  js  c++  java
  • 利用 row_number 函数来消除表中的重复行

    去除重复行只保留一行,其实是一个会经常遇到的问题。 

    之前的方法是利用group by 来进行分组的方法来过滤,但自从SQL 2005开始软件加入了一个新的函数 ROW_NUMBER, 在消除重复行的时候就可以利用此函数。

    ROW_NUMBER ( ) 
        OVER ( [ PARTITION BY value_expression , ... [ n ] ] order_by_clause )

    注: 关于ROW_NUMBER函数的更详细介绍,可以移步到 http://msdn.microsoft.com/zh-cn/library/ms186734.aspx

    下面通常一个例子来说明如何得用ROW_NUMBER函数消除重复行。

    1. 假如我们有一个员工表

    create table employee (id varchar(50), name varchar (500))

    2. 向员工表中插入一些数据,当然这里边有一些重复数据。

    insert into employee (id, name) values('001', 'Jack Chan')
    insert into employee (id, name) values('002', 'Paul Zeng')
    insert into employee (id, name) values('003', 'Tony Hu')
    insert into employee (id, name) values('004', 'Jim Yang')
    insert into employee (id, name) values('004', 'Jim Yang')
    insert into employee (id, name) values('005', 'Ryan Zheng')
    insert into employee (id, name) values('005', 'Ryan Zheng')

    3. 这个时候如果查询所有员工信息,你会得到一些重复数据,

    id    name
    001    Jack Chan
    002    Paul Zeng
    003    Tony Hu
    004    Jim Yang
    004    Jim Yang
    005    Ryan Zheng
    005    Ryan Zheng

    4. ROW_NUMBER出场了,重复行瞬间消失。

    select id, name 
      from (select id, name, 
                   row_number() over(partition by id order by id) rowid 
              from employee) a
    where rowid = 1
    id    name
    001    Jack Chan
    002    Paul Zeng
    003    Tony Hu
    004    Jim Yang
    005    Ryan Zheng

    当然,这只是一个小例子,但已经足够展现row_number在消除重复记录方面的强大功能了,代码相对简单容易理解。

  • 相关阅读:
    《Graph Attention Network》阅读笔记
    Spark 中的机器学习库及示例
    Spark 中 RDD的运行机制
    Spark 的 python 编程环境
    1.10系统调用和库函数
    nginx中的configure脚本
    nginx中的main函数
    IPv4,IPv6套接字地址结构
    unix网络编程中的地址转换函数
    有关nginx中Strings模块中ngx_explicit_memzero()函数的死区消除优化问题
  • 原文地址:https://www.cnblogs.com/EasonWu/p/2538185.html
Copyright © 2011-2022 走看看