一、算法和数据结构
什么是算法和数据结构?如果将最终写好运行的程序比作战场,我们程序员便是指挥作战的将军,而我们所写的代码便是士兵和武器。
那么数据结构和算法是什么?答曰:兵法!故,数据结构和算法是一名程序开发人员的必备基本功,不是一朝一夕就能练成绝世高手的。冰冻三尺非一日之寒,需要我们平时不断的主动去学习积累。
二、算法的引入
先来看一道题:如果 a+b+c=1000,且 a*a+b*b=c*c(a,b,c 为自然数),如何求出所有a、b、c可能的组合?
普通解法:
import time # 用于记录计算开始的时间
start_time = time.time()
for a in range(0,1001):
for b in range(0,1001):
for c in range(0,1001):
if a*a+b*b == c*c and a+b+c == 1000:
print("a=%d,b=%d,c=%d"%(a,b,c))
# 用于记录计算结束的时间
end_time = time.time()
print("本次运算用时总计%f秒"%(end_time-start_time))
运行结果为:
a=0,b=500,c=500
a=200,b=375,c=425
a=375,b=200,c=425
a=500,b=0,c=500
本次运算用时总计397.615515秒
请注意运行时间是397.615515秒那么,如果本题稍微改一下,改为先来看一道题:如果 a+b+c=2000,且 a*a+b*b=c*c(a,b,c 为自然数),如何求出所有a、b、c可能的组合?这个时候他们解题思路和a+b+c=1000是一样的,无非就是将1000改为2000,而这种解决问题的思路就叫做算法,只不过算法也有好坏而已。
三、算法的概念
算法是计算机处理信息的本质,因为计算机程序本质上是一个算法来告诉计算机确切的步骤来执行一个指定的任务。一般地,当算法在处理信息时,会从输入设备或数据的存储地址读取数据,把结果写入输出设备或某个存储地址供以后再调用。算法是独立存在的一种解决问题的方法和思想。对于算法而言,实现的语言并不重要,重要的是思想。算法可以有不同的语言描述实现版本(如C描述、C++描述、Python描述等)
四、算法的五大特性
- 输入: 算法具有0个或多个输入
- 输出: 算法至少有1个或多个输出,算法必须要有输出,不然算法有什么意义,闹着玩呢?所以一定要把算出了数据输出使用。
- 有穷性: 算法在有限的步骤之后会自动结束而不会无限循环,并且每一个步骤可以在可接受的时间内完成
- 确定性:算法中的每一步都有确定的含义,不会出现二义性
- 可行性:算法的每一步都是可行的,也就是说每一步都能够执行有限的次数完成
五、案例算法优化
还是针对上面的例子:如果 a+b+c=1000,且 a*a+b*b=c*c(a,b,c 为自然数),如何求出所有a、b、c可能的组合?优化解法:
import time # 用于记录计算开始的时间
start_time = time.time()
# 注意这里是两重循环
for a in range(0,1001):
for b in range(0,1001-a):
c=1000-a-b
if a*a+b*b == c*c:
print("a=%d,b=%d,c=%d"%(a,b,c))
# 用于记录计算结束的时间
end_time = time.time()
print("本次运算用时总计:%f秒"%(end_time-start_time))
运行结果为:
a=0,b=500,c=500
a=200,b=375,c=425
a=375,b=200,c=425
a=500,b=0,c=500
本次运算用时总计316.337260秒
六、算法效率的衡量
1、执行时间反应算法效率
对于同一问题,我们给出了两种解决算法,在两种算法的实现中,我们对程序执行的时间进行了测算,发现两段程序执行的时间相差悬殊(397.615515秒相比于316.337260秒),由此我们可以得出结论:实现算法程序的执行时间可以反应出算法的效率,即算法的优劣。
2、单靠时间绝对可信吗?
假设我们将第二次尝试的算法程序运行在一台配置古老性能低下的计算机中,情况会如何?很可能运行的时间并不会比在我们的电脑中运行算法一的397.615515秒快多少。单纯依靠运行的时间来比较算法的优劣并不一定是客观准确的!程序的运行离不开计算机环境(包括硬件和操作系统),这些客观原因会影响程序运行的速度并反应在程序的执行时间上。那么如何才能客观的评判一个算法的优劣呢?
3、时间复杂度与“大O记法”
我们假定计算机执行算法每一个基本操作的时间是固定的一个时间单位,那么有多少个基本操作就代表会花费多少时间单位。当然对于不同的机器环境而言,确切的单位时间是不同的,但是对于算法进行多少个基本操作(即花费多少时间单位)在规模数量级上却是相同的,由此可以忽略机器环境的影响而客观的反应算法的时间效率。
对于算法的时间效率,我们可以用“大O记法”来表示。
“大O记法”:对于单调的整数函数f(),如果存在一个整数函数g()和实常数c>0,使得对于充分大的n总有f(n)<=c*g(n),就说函数g是f的一个渐近函数(忽略常数),记为f(n)=O(g(n))。也就是说,在趋向无穷的极限意义下,函数f的增长速度受到函数g的约束,亦即函数f与函数g的特征相似。
时间复杂度:假设存在函数g(),使得算法A处理规模为n的问题示例所用时间为T(n)=O(g(n)),则称O(g(n))为算法A的渐近时间复杂度,简称时间复杂度,记为T(n)
- 算法完成工作最少需要多少基本操作,即最优时间复杂度
- 算法完成工作最多需要多少基本操作,即最坏时间复杂度
- 算法完成工作平均需要多少基本操作,即平均时间复杂度
4、时间复杂度的基本计算规则
- 基本操作,即只有常数项,认为其时间复杂度为O(1)
- 顺序结构,时间复杂度按加法进行计算
- 循环结构,时间复杂度按乘法进行计算
- 分支结构,时间复杂度取最大值
- 判断一个算法的效率时,往往只需要关注操作数量的最高次项,其它次要项和常数项可以忽略
- 在没有特殊说明时,我们所分析的算法的时间复杂度都是指最坏时间复杂度
七、案例的算法分析
for a in range(0,1001):
for b in range(0,1001):
for c in range(0,1001):
if a*a+b*b == c*c and a+b+c == 1000:
print("a=%d,b=%d,c=%d"%(a,b,c))
时间复杂度:T(n) = O(n*n*n) = O(n^3)
优化后:
for a in range(0,1001):
for b in range(0,1001-a):
c=1000-a-b
if a*a+b*b == c*c:
print("a=%d,b=%d,c=%d"%(a,b,c))
时间复杂度:T(n) = O(n*n) = O(n^2), 由此可见,我们尝试的第二种算法要比第一种算法的时间复杂度好多的。
八、常见的时间复杂度
注意:经常将log2n(以2为底的对数)简写成logn
所消耗的时间从小到大:O(1) < O(logn) < O(n) < O(nlogn) < O(n2) < O(n3) < O(2n) < O(n!) < O(n^n)
九、拿时间换空间,用空间换时间
算法的时间复杂度和空间复杂度是可以相互转化的。
谷歌浏览器相比于其他的浏览器,运行速度要快。是因为它占用了更多的内存空间,以空间换取了时间。
算法中,例如判断某个年份是否为闰年时,如果想以时间换取空间,算法思路就是:当给定一个年份时,判断该年份是否能被4或者400整除,如果可以,就是闰年。
如果想以空间换时间的话,判断闰年的思路就是:把所有的年份先判断出来,存储在数组中(年份和数组下标对应),如果是闰年,数组值是1,否则是0;当需要判断某年是否为闰年时,直接看对应的数组值是1还是0,不用计算就可以马上知道。
十、算法VS程序
很多人误以为程序就是算法,其实不然:算法是解决某个问题的想法、思路;而程序是在心中有算法的前提下编写出来的可以运行的代码。例如,要解决依次输出一维数组中的数据元素的值的问题,首先想到的是使用循环结构( for 或者 while ),在有这个算法的基础上,开始编写程序。所以,算法相当于是程序的雏形。当解决问题时,首先心中要有解决问题的算法,围绕算法编写出程序代码。