首先介绍了数据结构与算法的关系:
- 简单来说,算法将数据结构与计算机联系了起来。
接着运用一个高斯求和的例子引出了算法的定义:
- 算法是解决特定问题求解步骤的描述,在计算机中表现为指令的有限序列,并且每条指令表示一个或多个操作。
继而阐述了算法的五个基本特性:
-
输入输出:算法具有0个或多个输入,算法至少一个或多个输出。
-
有穷性:算法在执行有限的步骤后,自动结束而不会出现无限循环,并且每一个步骤在可接受的时间内完成。
-
确定性:算法的每一个步骤都具有确定的含义,不会出现二意性。
-
可行性:算法的每一步都必须是可行的,即每一步都能通过执行有限次数完成。
紧接着又提出了算法设计的要求:
-
正确性
-
可读性
-
健壮性
-
时间效率高和存储量低
然后描述了两种算法效率的度量方法:
-
事后统计法:通过设计好的测试程序和数据,利用计算机计时器对不同算法编制程序的运行时间进行对比,从而确定算法效率的高低。
-
事前分析估算法:在计算机程序编制前,依据统计方案对算法进行估算。
但由于事后统计法存在种种缺陷,不予采纳,因此这里以事前分析估算法进行重点描述,在分析时,我们考虑一下因素:
-
算法采用的策略、方法:这是算法好坏的根本
-
编译产生的代码质量:由软件来支持
-
问题的输入规模:即输入量的多少
-
机器执行指令的速度:由硬件来决定
之后根据算法需要执行的操作次数提出了函数的渐近增长:
-
定义:给定两个函数f(n)和g(n),如果存在一个正整数N,使得所有n>N,f(n)>g(n)那么我们说f(n)的渐近增长快于g(n)。
-
简单来说,某个算法,随着n的增大,它会越来越优于另一个算法,或者越来越差于另一个算法。
然后描述了算法时间复杂度:
- 定义:在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称时间复杂度。其中f(n)是问题规模n的某个函数。这种用O()来体现时间复杂度的记法,我们称为大O记法。
之后便有了推倒大O阶的方法:
-
用常数1取代运行时间中的所有加法常数
-
在修改后的运行次数函数中,只保留最高阶项
-
如果最高项存在且不是1,则去除与这个项相乘的常数
-
得到的结果就是大O阶
接着又介绍了几种常用的大O阶:
-
常数阶:O(1)
-
线性阶:O(n)
-
对数阶:O(logn)
-
平方阶:O(n²)
常见的时间复杂度所消耗的时间大小关系依次是:
O(1)<O(logn)<O(n)<O(nlogn)<O(n²)<O(n³)<O(2^n)<O(n!)<O(n^n)
然后又描述了最坏情况与平均情况:
- 一般没有特殊说明的情况,都是指最坏情况。
最后提出了描述了算法的空间复杂度:
- 可以使用空间来换取时间,“复杂度”通常指“时间复杂度”,我们的重点也是“时间复杂度”