zoukankan      html  css  js  c++  java
  • 数据结构与算法概述

    数据结构

    概念

    数据结构是一门研究非数值计算的程序设计问题中的操作对象,以及他们之间的关系和操作等相关问题的学科。

    即数据结构就是把数据元素按照一定的关系组织起来的集合,用来组织和存储数据。

    分类

    传统上,我们可以把数据结构分为逻辑结构和物理结构两大类。

    逻辑结构分类:

    逻辑结构是从具体问题中抽象出来的模型,是抽象意义上的结构,按照对象中数据元素之间的相互关系分类,也是我们需要关注和讨论的问题。

    a.集合结构:集合结构中数据元素除了属于同一个集合外,他们之间没有任何其他的关系。

    image-20210803140406466

    b.线性结构:线性结构中的数据元素之间存在一对一的关系

    c.树形结构:树形结构中的数据元素之间存在一对多的层次关系

    image-20210803140459637

    d.图形结构:图形结构的数据元素是多对多的关系

    image-20210803140549734

    物理结构分类:

    逻辑结构在计算机中真正的表示方式(又称为映像)称为物理结构,也可以叫做存储结构。常见的物理结构有顺序存储结构、链式存储结构。

    顺序存储结构:

    把数据元素放到地址连续的存储单元里面,其数据间的逻辑关系和物理关系是一致的 ,比如我们常用的数组就是顺序存储结构。

    image-20210803140705664

    顺序存储结构存在一定的弊端,就像生活中排时也会有人插队也可能有人有特殊情况突然离开,这时候整个结构都处于变化中,此时就需要链式存储结构。

    链式存储结构:

    是把数据元素存放在任意的存储单元里面,这组存储单元可以是连续的也可以是不连续的。此时,数据元素之间并不能反映元素间的逻辑关系,因此在链式存储结构中引进了一个指针存放数据元素的地址,这样通过地址就可以找到相关联数据元素的位置。

    image-20210803140941026

    算法

    算法是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法解决问题的策略机制。也就是说,能够对一定规范的输入,在有限时间内获得所要求的输出。

    即根据一定的条件,对一些数据进行计算,得到需要的结果。

    算法初体验

    计算10的阶乘

    第一种解法:

    public class Test {
        public static void main(String[] args) {
            //测试,计算10的阶乘
            long result = fun1(10);
            System.out.println(result);
        }
        //计算n的阶乘
        public static long fun1(long n){
            if (n==1){
                return 1;
            }
            return n*fun1(n-1);
        }
    }
    

    第二种解法:

    public class Test {
        public static void main(String[] args) {
        	//测试,计算10的阶乘
            long result = fun2(10);
            System.out.println(result);
        }
        //计算n的阶乘
        public static long fun2(long n){
            int result=1;
            for (long i = 1; i <= n; i++) {
                result*=i;
            }
        	return result;
        }
    }
    

    第一种解法,使用递归完成需求,fun1方法会执行10次,并且第一次执行未完毕,调用第二次执行,第二次执行 未完毕,调用第三次执行...最终,最多的时候,需要在栈内存同时开辟10块内存分别执行10个fun1方法。

    第二种解法,使用for循环完成需求,fun2方法只会执行一次,最终,只需要在栈内存开辟一块内存执行fun2方法即可。

    很明显,第二种算法完成需求,占用的内存空间更小。

    算法分析

    有关算法时间耗费分析,我们称之为算法的时间复杂度分析,有关算法的空间耗费分析,我们称之为算法的空间复杂度分析。

    算法的时间复杂度分析

    我们要计算算法时间耗费情况,首先我们得度量算法的执行时间,那么如何度量呢?

    事后分析估算方法:

    比较容易想到的方法就是我们把算法执行若干次,然后拿个计时器在旁边计时,这种事后统计的方法看上去的确不错,并且也并非要我们真的拿个计算器在旁边计算,因为计算机都提供了计时的功能。这种统计方法主要是通过设计好的测试程序和测试数据,利用计算机计时器对不同的算法编制的程序的运行时间进行比较,从而确定算法效率的高低,但是这种方法有很大的缺陷:必须依据算法实现编制好的测试程序,通常要花费大量时间和精力,测试完了如果发现测试的是非常糟糕的算法,那么之前所做的事情就全部白费了,并且不同的测试环境(硬件环境)的差别 导致测试的结果差异也很大。

    public static void main(String[] args) {
        long start = System.currentTimeMillis();
        int sum = 0;
        int n=100;
        for (int i = 1; i <= n; i++) {
        	sum += i;
        }
        System.out.println("sum=" + sum);
        long end = System.currentTimeMillis();
        System.out.println(end-start);
    }
    

    事前分析估算方法:

    在计算机程序编写前,依据统计方法对算法进行估算,经过总结,我们发现一个高级语言编写的程序程序在计算机 上运行所消耗的时间取决于下列因素:

    1.算法采用的策略和方案;

    2.编译产生的代码质量;

    3.问题的输入规模(所谓的问题输入规模就是输入量的多少);

    4.机器执行指令的速度;

    由此可见,抛开这些与计算机硬件、软件有关的因素,一个程序的运行时间依赖于算法的好坏和问题的输入规模。 如果算法固定,那么该算法的执行时间就只和问题的输入规模有关系了。

    需求:

    计算1到100的和。

    第一种解法:

    //如果输入量为n为1,则需要计算1次;
    //如果输入量n为1亿,则需要计算1亿次;
    public static void main(String[] args) {
    	int sum = 0;//执行1次
    	int n=100;//执行1次
    	for (int i = 1; i <= n; i++) {//执行了n+1次
    	sum += i;//执行了n次
    	}
    	System.out.println("sum=" + sum);
    }
    
    

    第二种解法:

    //如果输入量为n为1,则需要计算1次;
    //如果输入量n为1亿,则需要计算1次;
    public static void main(String[] args) {
    	int sum = 0;//执行1次
    	int n=100;//执行1次
    	sum = (n+1)*n/2;//执行1次
    	System.out.println("sum="+sum);
    }
    

    因此,当输入规模为n时,第一种算法执行了1+1+(n+1)+n=2n+3次;第二种算法执行了1+1+1=3次。如果我们把第一种算法的循环体看做是一个整体,忽略结束条件的判断,那么其实这两个算法运行时间的差距就是n和1的差距。

    需求:

    计算100个1+100个2+100个3+...100个100的结果

    代码:

    public static void main(String[] args) {
        int sum=0;
        int n=100;
        for (int i = 1; i <=n ; i++) {
            for (int j = 1; j <=n ; j++) {
                sum+=i;
            }
        }
    	System.out.println("sum="+sum);
    }
    

    在研究算法的效率时,我们只考虑核心代码的执行次数,这样可以简化分析。

    我们研究算法复杂度,侧重的是当输入规模不断增大时,算法的增长量的一个抽象(规律),而不是精确地定位需要执行多少次,因为如果是这样的话,我们又得考虑回编译期优化等问题,容易主次跌倒。

    我们分析一个算法的运行时间,最重要的就是把核心操作的次数和输入规模关联起来。

    image-20210803144416940

    函数渐近增长

    给定两个函数f(n)和g(n),如果存在一个整数N,使得对于所有的n>N,f(n)总是比g(n)大,那么我们说f(n)的增长渐近快于g(n)。

    测试一:

    假设四个算法的输入规模都是n:

    1.算法A1要做2n+3次操作,可以这么理解:先执行n次循环,执行完毕后,再有一个n次循环,最后有3次运算;

    2.算法A2要做2n次操作;

    3.算法B1要做3n+1次操作,可以这个理解:先执行n次循环,再执行一个n次循环,再执行一个n次循环,最后有1次运算。

    4.算法B2要做3n次操作;

    那么,上述算法,哪一个更快一些呢?

    image-20210803144739167

    image-20210803144813727

    当输入规模n>2时,算法A1的渐近增长小于算法B1的渐近增长

    通过观察折线图,我们发现,随着输入规模的增大,算法A1和算法A2逐渐重叠到一块,算法B1和算法B2逐渐重叠 到一块,所以我们得出结论:随着输入规模的增大,算法的常数操作可以忽略不计

    测试二:

    假设四个算法的输入规模都是n:

    1.算法C1需要做4n+8次操作

    2.算法C2需要做n次操作

    3.算法D1需要做2n^2次操作

    4.算法D2需要做n^2次操作

    那么上述算法,哪个更快一些?

    image-20210803145040179

    image-20210803145125412

    通过数据表格,对比算法C1和算法D1:

    当输入规模n<=3时,算法C1执行次数多于算法D1,因此算法C1效率低一些;

    当输入规模n>3时,算法C1执行次数少于算法D1,因此,算法D2效率低一些,

    所以,总体上,算法C1要优于算法D1.

    通过折线图,对比对比算法C1和C2:

    随着输入规模的增大,算法C1和算法C2几乎重叠

    通过折线图,对比算法C系列和算法D系列:

    随着输入规模的增大,即使去除n^2前面的常数因子,D系列的次数要远远高于C系列。

    因此,可以得出结论:随着输入规模的增大,与最高次项相乘的常数可以忽略

    测试三:

    假设四个算法的输入规模都是n:

    1.算法E1: 2n^2+3n+1;

    2.算法E2: n^2

    3.算法F1: 2n^3+3n+1

    4.算法F2: n^3

    image-20210803145433738

    image-20210803145527173

    通过数据表格,对比算法E1和算法F1:

    当n=1时,算法E1和算法F1的执行次数一样;

    当n>1时,算法E1的执行次数远远小于算法F1的执行次数;

    所以算法E1总体上是优于算法F1的。

    通过折线图我们会看到,算法F系列随着n的增长会变得特块,算法E系列随着n的增长相比较算法F来说,变得比较 慢,所以可以得出结论:最高次项的指数大的,随着n的增长,结果也会变得增长特别快

    测试四:

    假设五个算法的输入规模都是n:

    算法G: n^3;

    算法H: n^2;

    算法I: n:

    算法J: logn

    算法K: 1

    那么上述算法,哪个效率更高呢?

    image-20210803145735959

    image-20210803145816898

    通过观察数据表格和折线图,很容易可以得出结论:

    算法函数中n最高次幂越小,算法效率越高

    总上所述,在我们比较算法随着输入规模的增长量时,可以有以下规则:

    1.算法函数中的常数可以忽略;

    2.算法函数中最高次幂的常数因子可以忽略;

    3.算法函数中最高次幂越小,算法效率越高。

    算法时间复杂度

    大O计法

    在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随着n的变化情况并确定T(n)的 量级。算法的时间复杂度,就是算法的时间量度,记作:T(n)=O(f(n))。它表示随着问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称时间复杂度,其中f(n)是问题规模n的某个函数。

    在这里,我们需要明确一个事情:执行次数=执行时间

    用大写O()来体现算法时间复杂度的记法,我们称之为大O记法。一般情况下,随着输入规模n的增大,T(n)增长最慢的算法为最优算法。

    算法一:

    public static void main(String[] args) {
        int sum = 0;//执行1次
        int n=100;//执行1次
        sum = (n+1)*n/2;//执行1次
        System.out.println("sum="+sum);
    }
    

    算法二:

    public static void main(String[] args) {
        int sum = 0;//执行1次
        int n=100;//执行1次
        for (int i = 1; i <= n; i++) {
        	sum += i;//执行了n次
        }
        System.out.println("sum=" + sum);
    }
    

    算法三:

    public static void main(String[] args) {
        int sum=0;//执行1次
        int n=100;//执行1次
        for (int i = 1; i <=n ; i++) {
            for (int j = 1; j <=n ; j++) {
            	sum+=i;//执行n^2次
            }
        }
    	System.out.println("sum="+sum);
    }
    
    

    如果忽略判断条件的执行次数和输出语句的执行次数,那么当输入规模为n时,以上算法执行的次数分别为:

    算法一:3次

    算法二:n+3次

    算法三:n^2+2次

    如果用大O记法表示上述每个算法的时间复杂度,应该如何表示呢?基于我们对函数渐近增长的分析,推导大O阶 的表示法有以下几个规则可以使用:

    **1.用常数1取代运行时间中的所有加法常数; **

    2.在修改后的运行次数中,只保留高阶项;

    3.如果最高阶项存在,且常数因子不为1,则去除与这个项相乘的常数;

    所以,上述算法的大O记法分别为:

    算法一:O(1)

    算法二:O(n)

    算法三:O(n^2)

    常见的大O阶

    1.线性阶

    一般含有非嵌套循环涉及线性阶,线性阶就是随着输入规模的扩大,对应计算次数呈直线增长,例如:

    public static void main(String[] args) {
        int sum = 0;
        int n=100;
        for (int i = 1; i <= n; i++) {
        	sum += i;
        }
    	System.out.println("sum=" + sum);
    }
    

    上面这段代码,它的循环的时间复杂度为O(n),因为循环体中的代码需要执行n次

    2.平方阶

    一般嵌套循环属于这种时间复杂度

    public static void main(String[] args) {
    	int sum=0,n=100;
        for (int i = 1; i <=n ; i++) {
            for (int j = 1; j <=n ; j++) {
            	sum+=i;
            }
        }
        System.out.println(sum);
    }
    

    上面这段代码,n=100,也就是说,外层循环每执行一次,内层循环就执行100次,那总共程序想要从这两个循环 中出来,就需要执行100*100次,也就是n的平方次,所以这段代码的时间复杂度是O(n^2).

    3.立方阶

    一般三层嵌套循环属于这种时间复杂度

    4.对数阶

    int i=1,n=100;
    while(i<n){
    	i = i*2;
    }
    

    由于每次i*2之后,就距离n更近一步,假设有x个2相乘后大于n,则会退出循环。由于是2^x=n,得到x=log(2)n,所 以这个循环的时间复杂度为O(logn);

    对于对数阶,由于随着输入规模n的增大,不管底数为多少,他们的增长趋势是一样的,所以我们会忽略底数。

    image-20210803151058507

    image-20210803151136937

    5.常数阶

    一般不涉及循环操作的都是常数阶,因为它不会随着n的增长而增加操作次数。例如:

    public static void main(String[] args) {
        int n=100;
        int i=n+2;
        System.out.println(i);
    }
    

    上述代码,不管输入规模n是多少,都执行2次,根据大O推导法则,常数用1来替换,所以上述代码的时间复杂度 为O(1)

    下面是对常见时间复杂度的一个总结:

    描述 增长的数量级 说明 举例
    常数级别 1 普通语句 将两个数相加
    对数级别 logN 二分策略 二分查找
    线性级别 N 循环 找出最大元素
    线型对数级别 NlogN 分治思想 归并排序
    平方级别 N^2 双层循环 检查所有元素对
    立方级别 N^3 三层循环 检查所有三元组
    指数级别 2^N 穷举查找 检查所有子集

    他们的复杂程度从低到高依次为:

    O(1)<O(logN)<O(N)<O(NlogN)<O(N2)<O(N3)

    根据前面的折线图分析,我们会发现,从平方阶开始,随着输入规模的增大,时间成本会急剧增大,所以,我们的 算法,尽可能的追求的是O(1),O(logn),O(n),O(nlogn)这几种时间复杂度,而如果发现算法的时间复杂度为平方阶、 立方阶或者更复杂的,那我们可以分为这种算法是不可取的,需要优化。

    函数调用的时间复杂度分析

    之前,我们分析的都是单个函数内,算法代码的时间复杂度,接下来我们分析函数调用过程中时间复杂度。

    案例一:

    public static void main(String[] args) {
        int n=100;
        for (int i = 0; i < n; i++) {
        	show(i);
        }
    }
    private static void show(int i) {
    	System.out.println(i);
    }
    

    在main方法中,有一个for循环,循环体调用了show方法,由于show方法内部只执行了一行代码,所以show方法 的时间复杂度为O(1),那main方法的时间复杂度就是O(n)

    案例二:

    public static void main(String[] args) {
    	int n=100;
        for (int i = 0; i < n; i++) {
        	show(i);
        }
    }
    private static void show(int i) {
        for (int j = 0; j < i; i++) {
        	System.out.println(i);
        }
    }
    

    在main方法中,有一个for循环,循环体调用了show方法,由于show方法内部也有一个for循环,所以show方法 的时间复杂度为O(n),那main方法的时间复杂度为O(n^2)

    案例三:

    public static void main(String[] args) {
        int n=100;
        show(n);
        for (int i = 0; i < n; i++) {
        	show(i);
        }
        for (int i = 0; i < n; i++) {
            for (int j = 0; j < n; j++) {
            	System.out.println(j);
            }
        }
    }
    private static void show(int i) {
        for (int j = 0; j < i; i++) {
        	System.out.println(i);
        }
    }
    

    在show方法中,有一个for循环,所以show方法的时间复杂度为O(n),在main方法中,show(n)这行代码内部执行 的次数为n,第一个for循环内调用了show方法,所以其执行次数为n^2,第二个嵌套for循环内只执行了一行代码, 所以其执行次数为n2,那么main方法总执行次数为n+n2+n2=2n2+n。根据大O推导规则,去掉n保留最高阶 项,并去掉最高阶项的常数因子2,所以最终main方法的时间复杂度为O(n^2)

    最坏情况

    有一个存储了n个随机数字的数组,请从中查找出指定的数字。

    public int search(int num){
        int[] arr={11,10,8,9,7,22,23,0};
        for (int i = 0; i < arr.length; i++) {
            if (num==arr[i]){
            	return i;
            }
        }
        return -1;
    }
    
    

    最好情况: 查找的第一个数字就是期望的数字,那么算法的时间复杂度为O(1)

    最坏情况: 查找的最后一个数字,才是期望的数字,那么算法的时间复杂度为O(n)

    平均情况: 任何数字查找的平均成本是O(n/2)

    最坏情况是一种保证,在应用中,这是一种最基本的保障,即使在最坏情况下,也能够正常提供服务,所以,除非 特别指定,我们提到的运行时间都指的是最坏情况下的运行时间。

    算法的空间复杂度

    java中常见内存占用

    1.基本数据类型内存占用情况:

    数据类型 内存占用字节数
    byte 1
    short 2
    int 4
    long 8
    float 4
    double 8
    boolean 1(不确定)
    char 2

    2.计算机访问内存的方式都是一次一个字节

    image-20210803152503776

    3.一个引用(机器地址)需要8个字节表示:

    例如: Date date = new Date(),则date这个变量需要占用8个字节来表示

    4.创建一个对象,比如new Date(),除了Date对象内部存储的数据(例如年月日等信息)占用的内存,该对象本身也 有内存开销,每个对象的自身开销是16个字节,用来保存对象的头信息。

    5.一般内存的使用,如果不够8个字节,都会被自动填充为8字节:

    image-20210803152635693

    6.java中数组被被限定为对象,他们一般都会因为记录长度而需要额外的内存,一个原始数据类型的数组一般需要 24字节的头信息(16个自己的对象开销,4字节用于保存长度以及4个填充字节)再加上保存值所需的内存。

    空间复杂度计算

    了解了java的内存最基本的机制,就能够有效帮助我们估计大量程序的内存使用情况。

    算法的空间复杂度计算公式记作:S(n)=O(f(n)),其中n为输入规模,f(n)为语句关于n所占存储空间的函数。

    案例:

    对指定的数组元素进行反转,并返回反转的内容。

    解法一:

    public static int[] reverse1(int[] arr){
        int n=arr.length;//申请4个字节
        int temp;//申请4个字节
        for(int start=0,end=n-1;start<=end;start++,end--){
            temp=arr[start];
            arr[start]=arr[end];
            arr[end]=temp;
        }
    	return arr;
    }
    

    解法二:

    public static int[] reverse2(int[] arr){
        int n=arr.length;//申请4个字节
        int[] temp=new int[n];//申请n*4个字节+数组自身头信息开销24个字节
        for (int i = n-1; i >=0; i--) {
        	temp[n-1-i]=arr[i];
        }
        return temp;
    }
    

    忽略判断条件占用的内存,我们得出的内存占用情况如下:

    算法一: 不管传入的数组大小为多少,始终额外申请4+4=8个字节;

    算法二: 4+4n+24=4n+28;

    根据大O推导法则,算法一的空间复杂度为O(1),算法二的空间复杂度为O(n),所以从空间占用的角度讲,算法一要优于算法二。

    由于java中有内存垃圾回收机制,并且jvm对程序的内存占用也有优化(例如即时编译),我们无法精确的评估一 个java程序的内存占用情况,但是了解了java的基本内存占用,使我们可以对java程序的内存占用情况进行估算。

    由于现在的计算机设备内存一般都比较大,基本上个人计算机都是4G起步,大的可以达到32G,所以内存占用一般 情况下并不是我们算法的瓶颈,普通情况下直接说复杂度,默认为算法的时间复杂度。

    但是,如果你做的程序是嵌入式开发,尤其是一些传感器设备上的内置程序,由于这些设备的内存很小,一般为几 kb,这个时候对算法的空间复杂度就有要求了,但是一般做java开发的,基本上都是服务器开发,一般不存在这样的问题。

  • 相关阅读:
    Linux下修改IP
    Linux 常用操作
    flex addChild 的一个小细节
    類別 ConcurrentHashMap<K,V>的更新,删除
    游戏开发者的AS3数据结构 COOL!
    Adobe Flash gets its full launch on Android
    人生时间表. 如果您有了时间
    Flex数据绑定陷阱:常见的误用和错误(一) 闪吧教材.jpg
    flash player10 Vector类型
    如何使用Flex 4新的CSS语法,兼容halo组件
  • 原文地址:https://www.cnblogs.com/wwjj4811/p/15094677.html
Copyright © 2011-2022 走看看