算法的时间复杂度O

1、时间复杂度

  在进行算法分析时,语句总的执行次数 T(n) 是关于问题的规模n 的函数,进而分析 T(n) 随 n 的变化状况并肯定 T(n) 的数量级,算法的时间复杂度,也就是算法的时间度量,记做:T(n) = O(f( ))。它表示随问题的规模 n 的增大,算法的执行时间的增加率 f(n) 的增加率相同,称做算法的渐近时间复杂度,简称为时间的复杂度,其中 f(n) 是问题规模n的某个函数。算法

    这样用大写 [ O( ) ] 来体现算法时间复杂度的记法,咱们就称之为大O记法。例如:O(n)、O(1)、O(n2)、O(log n) 等等。通常状况下,随着 n 的增大,T(n) 增加最慢的算法为最优算法。数据结构

2、推导大O阶的方法

1,用时间1取代运算时间中的全部加法常数。函数

2,在修改后的运行的函数中,只保留最高阶项。spa

3,若是最高阶项存在且不是1,则去除与这个项相乘的常数。获得的结果就是大O阶。code

例1:时间复杂度为O(1)常数阶的算法

1 int sum = 0, n = 100;    /* 执行一次 */
2 sum = (1+n) *n/2;        /* 执行一次 */
3 printf("the sum is:%d",sum);   /* 执行一次 */

  咱们能够看出运行次数的函数是 f(n) = 3。根据咱们上面的大O阶公式 1 能够获得,把常数项 3 改成 1,在保留最高阶时发现没有最高阶项,因此时间复杂度为大 O(1)。也就是说,不管算法是 3 次仍是 30 次,哪怕是 300 次,这些只要是常数项,它的时间复杂度都为大 O(1),而不是O(3)、O(30)、O(300)。即咱们称之为常数阶。blog

例2:时间复杂度为O(n)线性阶的算法

1 for(int i = 0; i < n; i++) { 2     sum += i; 3 }

  从上面的这段代码咱们能够看出,它的时间复杂度为O(n),由于循环体中的代码须要执行n次。排序

例3:时间复杂度为O(n2)平方阶的算法

1 for(int i = 0; i < n; i++) {
2     for(int j = i; j < n; j++) {
3         //时间复杂度为O(n2)
4     }
5 }

分析:class

  当 i = 0时,内循环执行了 n 次,效率

  当 i = 1时,内循环执行了 n-1 次,循环

  ......

  当 i = n-1时。执行了 1 次,

  因此总的执行次数为:n = (n-1)+(n-2)+ ··· + 1= n(n+1)/2 = n2/2+n/2。

  由上面的公式可得:第一条代码中没有加法常数项,不考虑;第二条只保留最高阶项,所以保留 n2/2;第三条去除这个项相乘的常数,因此去除了 1/2;最终咱们获得的代码段时间复杂度就是 O(n2)。

例4:时间复杂度为O(log n)对数阶的算法

1 int count = 1; 2 while (count < n) { 3     count *= 2; 4 }

  上面代码咱们能够看出,count = count * 2 以后就距离 n 更近一步,也就是说,有多少个 2 相乘后大于 n,就退出循环。因此咱们能够由 2x = n 推导出 x = log2n ,像这样的循环时间复杂度,咱们就称为对数阶的复杂度即为 O(log n)。

3、O阶算法效率排序

   数据结构中咱们通常经常使用的时间复杂度表示有:O(1)、O(n)、O(n2)、O(log n)、O(nlog n)、O(n3)、O(2n)。

  按时间复杂度所耗费的时间从大到小排序依次为:

  O(1) < O(log n) < O(n) < O(nlog n) < O(n2) < O(n3) < O(2n)

相关文章
相关标签/搜索