转载 http://www.cnblogs.com/Leo_wl/p/3382120.html
让我有点以外的是在数据量达到1W~10W之间,希尔排序竟然比快速排序效率还要高。贴上完整代码!
一,冒泡排序
冒泡排序的时间复杂度为O(n²),在数据比较小的情况下各个算法效率差不多。
//冒泡排序 ////////////////////////////////////////////////////////////////////////// void BubleSort(int a[],int n) { int temp; bool flag=false; for (int i=0;i<n;i++) { flag=true; for (int j=0;j<n-i-1;j++) { if(a[j]>a[j+1]) { temp=a[j]; a[j]=a[j+1]; a[j+1]=temp; flag=false; } } if(flag) break; } }
二,希尔排序 希尔排序如此短小精悍的代码。其效率很多时候并不输给快速排序其时间复杂度为O(nlogn)。
//希尔排序 /////////////////////////////////////////// void ShellSort(int a[],int n) { int d=n; int temp; while(d>1) { d=(d+1)/2; for(int i=0;i<n-d;i++) if (a[i]>a[i+d]) { temp=a[i]; a[i]=a[i+d]; a[i+d]=temp; } } }
三,快速排序
正如其名快速排序,其效率也是比较高的,时间复杂度为O(nlogn)。
其算法思想是每次确定一个基准值的位置,也就是函数int Partition(int a[],int p,int r)的作用。
然后通过递归不断地确定基准值两边的子数组的基准值的位置,直到数组变得有序。
难点还是递归的理解!
//快速排序 /////////////////////////////////////// void Swap(int &a,int &b) { int temp; temp=a; a=b; b=temp; } int Partition(int a[],int p,int r) { int i=p; int j=r+1; int x=a[p]; while (true) { while(a[++i]<x&&i<r); while(a[--j]>x); if (i>=j)break; Swap(a[j],a[i]); } a[p]=a[j]; a[j]=x; return j; } void QuickSort(int a[],int p,int r) { if (p<r) { int q=Partition(a,p,r); QuickSort(a,p,q-1); QuickSort(a,q+1,r); } }
四,插入排序
算法效率和冒泡排序相差无几,时间复杂度为O(n²)。
这里要注意的问题是由于不断地递归,栈的不断开辟 如果数据太大可能会导致栈溢出而不能得到结果。
//插入排序 ////////////////////////////////////////////////////////////////// void Insert(int *a,int n) { int i=n-1; int key=a[n];//需要插入的元素 while ((i>=0)&&(key<a[i])) { a[i+1]=a[i]; //比key大的元素往后一个位置,空出插入key的位置 i--; } a[i+1]=key;//找到位置插入元素 return; } //由于递归的原因数太大了栈可能会溢出 void InsertionSort(int *a,int n) { if (n>0) { InsertionSort(a,n-1); Insert(a,n); } else return; }
五,堆排序
通过使用大根堆来排序,排序过程中主要的动作就是堆的调整。
每次把堆的根节点存入到堆的后面,然后把最后一个节点交换到根节点的位置,然后又调整为新的堆。
这样不断重复这个步骤就能把把一个数组排列的有序, 时间复杂度为O(nlogn)。
//堆排序 //////////////////////////////////////////////////////////////////////////// int Parent(int i) { return i/2; } int Left(int i) { return 2*i; } int Right(int i) { return 2*i+1; } //把以第i个节点给子树的根的子树调整为堆 void MaxHeap(int *a,int i,int length) { int L=Left(i); int R=Right(i); int temp; int largest; //记录子树最大值的下表,值可能为根节点下标、左子树下表、右子树下标 if (L<=length&&a[L-1]>a[i-1]) //length是递归返回的条件 { largest=L; } else largest=i; if (R<=length&&a[R-1]>a[largest-1]) //length是递归返回的条件 largest=R; if (largest!=i) { temp=a[i-1]; a[i-1]=a[largest-1]; a[largest-1]=temp; MaxHeap(a,largest,length); } } void BuildMaxHeap(int *a,int length) { for (int i=length/2;i>=1;i--) MaxHeap(a,i,length); } void HeapSort(int *a,int length) { BuildMaxHeap(a,length); for (int i=length;i>0;i--) { int temp; temp=a[i-1]; a[i-1]=a[0]; a[0]=temp; length-=1; MaxHeap(a,1,length); } }
六,基数排序(属于分配式排序,前几种属于比较性排序)又称“桶子法”:
基本思想是通过键值的部分信息分配到某些桶中,藉此达到排序的作用,基数排序属于稳定的排序,
其时间复杂度为O(nlog(r)m),r为所采取的的基数,m为堆的个数,
在某些情况下基数排序法的效率比其他比较性排序效率要高。
//基数排序 ///////////////////////////////////////////////// int GetMaxTimes(int *a,int n) { int max=a[0]; int count=0; for (int i=1;i<n;i++) { if(a[i]>max) max=a[i]; } while(max) { max=max/10; count++; } return count; } void InitialArray(int *a,int n) { for (int i=0;i<n;i++) a[i]=0; } // void InitialArray1(int a[][],int m,int n) // { // for (int i=0;i<m;i++) // for (int j=0;j<n;j++) // a[i][j]=0; // } void RadixSort(int *a,int n) { int buckets[10][10000]={0}; int times=GetMaxTimes(a,n); int index,temp; int record[10]={0}; for (int i=0;i<times;i++) { int count=0; temp=pow(10,i);//index=(a[j]/temp)%10;用来从低位到高位分离 for (int j=0;j<n;j++) { index=(a[j]/temp)%10; buckets[index][record[index]++]=a[j]; } //把桶中的数据按顺序还原到原数组中 for(int k=0;k<10;k++) for (int m=0;m<100000;m++) { if(buckets[k][m]==0)break; else { a[count++]=buckets[k][m]; //cout<<buckets[k][m]<<" "; } } //重新初始化桶,不然前后两次排序之间会有影响 //buckets[10][10000]={0}; //record[10]={0}; //InitialArray1(buckets,10,10000); for (k=0;k<10;k++) for (int m=0;m<100000;m++) { if(buckets[k][m]==0)break; else buckets[k][m]=0; } InitialArray(record,10); } }
在这里需要注意的是由于局部变量桶过大可能会导致栈溢出而得不带结果,比如桶为int buckets[10][100000]={0};大小=(10*100000*4)/(1024*1024)=3.814M,如果栈的大小只有1M~3M的话就会溢出,就得不到结果,当然可以把这个局部变量改成全局变量。
下面是从数据量10~80000排序的实验结果,首先声明一点。
每个排序算法的数据量是相同的而具体数据都是随机产生的,也就是每个排序一组不同的随机数据。这可能对实验结果有所影响。
当然我这只是没事好奇搞着玩玩,结果仅供参考。大家有兴趣的可以自己试试!
(1)数据量为10
(2)数据量为100
(3)数据量为1000
(4)数据量为10000
(5)数据量为15000
(6)数据量为20000
(7)数据量为50000
(8)数据量为90000
(9)数据量为80000
(10)越来越兴奋了:
接下来想测一测10亿是神马情况程序直接挂了,然后测一测5亿然后就死机了,然后就木有然后了,我写了一半的博客!!!!!~~o(>_<)o ~~!!!!!~~o(>_<)o ~~!!!!!~~o(>_<)o ~~
后面测了一下5亿!本来录了一段小视频的,但是上传不了。这里就说出答案吧:5亿数据时,快速排序也挂了,只有希尔排序一直在健壮的运行,运行时间大概为120s左右。
(11)
大概分析了一下数据所占的内存:
首先5亿个数据占多少内存?
(50000000*4)/(pow(1024,3))=1.86G
我的电脑内存为3G左右,除去操作系统和软件大约占了20%3G=0.6G。
3-0.6-1.86=0.54G剩余
0.54*pow(1024,3)/4=144955146剩余内存还可以计算1亿多个数据,
所以我的电脑一共能同时排序644955146个数据。这就是为什么排序10亿数据时程序崩溃的原因,因为没有这么多内存分配给程序使用。
然而我实际测了一下实际上达不到6亿,5.5亿就崩溃了,原因有待后续考察!