zoukankan      html  css  js  c++  java
  • SQLServer如何快速生成100万条不重复的随机8位数字

    1. 最近在论坛看到有人问,如何快速生成100万不重复的8位编号,对于这个问题,有几点是需要注意的:  
    2.   
    3. 1.    如何生成8位随机数,生成的数越随机,重复的可能性当然越小  
    4.   
    5. 2.    控制不重复  
    6.   
    7. 3.    考虑性能  
    8.   
    9. 针对这个问题,我写了如下的示例来解决,希望能为有这类需求的人提供指导  
    10.   
    11. */  
    12.   
    13. USE tempdb  
    14. GO  
    15.   
    16. --创建测试表  
    17. CREATE TABLE tb(id char(8))  
    18.   
    19. --创建用于自动过滤重复值的唯一索引  
    20. CREATE UNIQUE INDEX IX_tb ON tb(id)  
    21. WITH IGNORE_DUP_KEY  
    22. GO  
    23.   
    24. --测试数据插入的处理时间, 记录开始处理的时间点  
    25. DECLARE @dt datetime  
    26. SET @dt = GETDATE()  
    27.   
    28. --插入随机数据  
    29. SET NOCOUNT ON  
    30. DECLARE @row int  
    31. SET @row = 1000000  -- 设置总记录数  
    32. WHILE @row >0  
    33. BEGIN  
    34.     --显示提示信息, 表示还需要插入多行数据  
    35.     RAISERROR('need %d rows', 10, 1, @row) WITH NOWAIT  
    36.   
    37.     --插入随机的位编码数据  
    38.     SET ROWCOUNT @row  
    39.     INSERT tb SELECT id = RIGHT(100000000 + CONVERT(bigint, ABS(CHECKSUM(NEWID()))), 8)  
    40.     FROM syscolumns c1,syscolumns c2  
    41.     SET @row = @row - @@ROWCOUNT  
    42. END  
    43.   
    44. --显示插入数据使用的时间  
    45. SELECT BeginDate = @dt, EndDate = GETDATE(),Seconds = DATEDIFF(Second, @dt, GETDATE())  
    46. GO  
    47.   
    48. --显示最终的结果记录是否正确  
    49. SELECT COUNT(*) FROM tb  
    50.   
    51.   
    52. SET ROWCOUNT 0  
    53. SET NOCOUNT OFF  
    54. GO  
    55.   
    56. --删除测试  
    57. DROP TABLE tb  
    58.   
    59.   
    60. /*  
    61.   
    62. 解决中用到的技巧:  
    63.   
    64. 1.控制产生的数据不重复,直接使用唯一索引中的 IGNORE_DUP_KEY 选项,使插入数据中的重复值自动过滤,避免手工处理重复  
    65. 2.使用 CHECKSUM 配合 NEWID() 函数,使生成的数据尽量随机,一般生成随机数会考虑使用 RAND() 函数,  
    66.  但这个函数是产生伪随机值,用下面的语句测试一下,会发现产生的数据全部是一样的,这不适用于想批量生成多个随机数,  
    67.  而NEWID() 函数生成的是GUID,基本上不会有重复的,再通过CHECKSUM将其转化成数字,这样产生重复的可能性会比较小  
    68.  SELECT TOP 10 RAND() FROM sysobjects  
    69. 3.在效率控制,使用循环+批量生成的方式,而不是传统的逐个生成。在SQL Server中,每个插入语句都会有一个内部的事务处理,  
    70.  如果逐条插入,则事务的开销太大,效率势必非常低;不考虑一次性生成100万数据,一则因为生成的数据可能有重复的,  
    71.  去掉重复就没有100万了,二则一次性生成100万数据,消耗的内存和CPU资源也很高,一般的电脑可能承受不住  
    72. */   
  • 相关阅读:
    使你的 Google Summer of Code 建议被接收的5个技巧
    洗牌算法
    自由--永不妥协
    Google Code Jam 2014 总结
    《神经网络与深度学习》(三) 稀疏编码
    《神经网络与深度学习》(二) 常用模型之自编码器
    《神经网络与深度学习》(四) 受限玻尔兹曼机
    《神经网络与深度学习》(五) 卷积神经网络CNN及tensorflow代码实现示例
    《神经网络与深度学习》(一) 感知机、多层神经网络、BP算法、深度学习
    语义哈希(semanticHashing)
  • 原文地址:https://www.cnblogs.com/Alex80/p/5864914.html
Copyright © 2011-2022 走看看