算法(Algorithm)是指用来操做数据、解决程序问题的一组方法。对于同一个问题,使用不一样的算法,也许最终获得的结果是同样的,但在过程当中消耗的资源和时间却会有很大的区别。java
那么咱们应该如何去衡量不一样算法之间的优劣呢?算法
主要仍是从算法所占用的「时间」和「空间」两个维度去考量。数组
时间维度:是指执行当前算法所消耗的时间,咱们一般用「时间复杂度」来描述。性能
空间维度:是指执行当前算法须要占用多少内存空间,咱们一般用「空间复杂度」来描述。测试
所以,评价一个算法的效率主要是看它的时间复杂度和空间复杂度状况。然而,有的时候时间和空间却又是「鱼和熊掌」,不可兼得的,那么咱们就须要从中去取一个平衡点。spa
下面我来分别介绍一下「时间复杂度」和「空间复杂度」的计算方式。code
咱们想要知道一个算法的「时间复杂度」,不少人首先想到的的方法就是把这个算法程序运行一遍,那么它所消耗的时间就天然而然知道了。这种方式能够吗?固然能够,不过它也有不少弊端。blog
这种方式很是容易受运行环境的影响,在性能高的机器上跑出来的结果与在性能低的机器上跑的结果相差会很大。并且对测试时使用的数据规模也有很大关系。再者,并咱们在写算法的时候,尚未办法完整的去运行呢。所以,另外一种更为通用的方法就出来了:「 大O符号表示法 」,即 T(n) = O(f(n))内存
咱们先来看个例子:资源
for(i=1; i<=n; ++i) { j = i; j++; }
经过「 大O符号表示法 」,这段代码的时间复杂度为:O(n) ,为何呢?
在 大O符号表示法中,时间复杂度的公式是: T(n) = O( f(n) ),其中f(n) 表示每行代码执行次数之和,而 O 表示正比例关系,这个公式的全称是:算法的渐进时间复杂度 。
咱们继续看上面的例子,假设每行代码的执行时间都是同样的,咱们用 1颗粒时间 来表示,那么这个例子的第一行耗时是1个颗粒时间,第三行的执行时间是 n个颗粒时间,第四行的执行时间也是 n个颗粒时间(第二行和第五行是符号,暂时忽略),那么总时间就是 1颗粒时间 + n颗粒时间 + n颗粒时间 ,即 (1+2n)个颗粒时间,即: T(n) = (1+2n)*颗粒时间,从这个结果能够看出,这个算法的耗时是随着n的变化而变化,所以,咱们能够简化的将这个算法的时间复杂度表示为:T(n) = O(n)。
为何能够这么去简化呢,由于大O符号表示法并非用于来真实表明算法的执行时间的,它是用来表示代码执行时间的增加变化趋势的。
因此上面的例子中,若是n无限大的时候,T(n) = time(1+2n)中的常量1就没有意义了,倍数2也意义不大。所以直接简化为T(n) = O(n) 就能够了。
常见的时间复杂度量级有:
常数阶O(1)
对数阶O(logN)
线性阶O(n)
线性对数阶O(nlogN)
平方阶O(n²)
立方阶O(n³)
K次方阶O(n^k)
指数阶(2^n)
上面从上至下依次的时间复杂度愈来愈大,执行的效率愈来愈低。
下面选取一些较为经常使用的来说解一下(没有严格按照顺序):
不管代码执行了多少行,只要是没有循环等复杂结构,那这个代码的时间复杂度就都是O(1),如:
int i = 1; int j = 2; ++i; j++; int m = i + j;
上述代码在执行的时候,它消耗的时候并不随着某个变量的增加而增加,那么不管这类代码有多长,即便有几万几十万行,均可以用O(1)来表示它的时间复杂度。
这个在最开始的代码示例中就讲解过了,如:
for(i=1; i<=n; ++i) { j = i; j++; }
这段代码,for循环里面的代码会执行n遍,所以它消耗的时间是随着n的变化而变化的,所以这类代码均可以用O(n)来表示它的时间复杂度。
仍是先来看代码:
int i = 1; while(i<n) { i = i * 2; }
从上面代码能够看到,在while循环里面,每次都将 i 乘以 2,乘完以后,i 距离 n 就愈来愈近了。咱们试着求解一下,假设循环x次以后,i 就大于 2 了,此时这个循环就退出了,也就是说 2 的 x 次方等于 n,那么 x = log2^n
也就是说当循环 log2^n 次之后,这个代码就结束了。所以这个代码的时间复杂度为:O(logn)
线性对数阶O(nlogN) 其实很是容易理解,将时间复杂度为O(logn)的代码循环N遍的话,那么它的时间复杂度就是 n * O(logN),也就是了O(nlogN)。
就拿上面的代码加一点修改来举例:
for(m=1; m<n; m++) { i = 1; while(i<n) { i = i *
平方阶O(n²) 就更容易理解了,若是把 O(n) 的代码再嵌套循环一遍,它的时间复杂度就是 O(n²) 了。
举例:
for(x=1; i<=n; x++) { for(i=1; i<=n; i++) { j = i; j++; } }
这段代码其实就是嵌套了2层n循环,它的时间复杂度就是 O(n*n),即 O(n²)
若是将其中一层循环的n改为m,即:
for(x=1; i<=m; x++) { for(i=1; i<=n; i++) { j = i; j++; } }
那它的时间复杂度就变成了 O(m*n)
参考上面的O(n²) 去理解就行了,至关于三层n循环,其它的相似。
除此以外,其实还有 平均时间复杂度、均摊时间复杂度、最坏时间复杂度、最好时间复杂度 的分析方法,有点复杂,这里就不展开了。
既然时间复杂度不是用来计算程序具体耗时的,那么我也应该明白,空间复杂度也不是用来计算程序实际占用的空间的。空间复杂度是对一个算法在运行过程当中临时占用存储空间大小的一个量度,一样反映的是一个趋势,咱们用 S(n) 来定义。
空间复杂度比较经常使用的有:O(1)、O(n)、O(n²),咱们下面来看看:
若是算法执行所须要的临时空间不随着某个变量n的大小而变化,即此算法空间复杂度为一个常量,可表示为 O(1)
举例:
int i = 1; int j = 2; ++i; j++; int m = i + j;
代码中的 i、j、m 所分配的空间都不随着处理数据量变化,所以它的空间复杂度 S(n) = O(1)
咱们先看一个代码:
int[] m = new int[n] for(i=1; i<=n; ++i) { j = i; j++; }
这段代码中,第一行new了一个数组出来,这个数据占用的大小为n,这段代码的2-6行,虽然有循环,但没有再分配新的空间,所以,这段代码的空间复杂度主要看第一行便可,即 S(n) = O(n)
原文参考【Java知音网】