在进行算法分析时,语句总的执行次数 T(n) 是关于问题的规模n 的函数,进而分析 T(n) 随 n 的变化状况并肯定 T(n) 的数量级,算法的时间复杂度,也就是算法的时间度量,记做:T(n) = O(f( ))。它表示随问题的规模 n 的增大,算法的执行时间的增加率 f(n) 的增加率相同,称做算法的渐近时间复杂度,简称为时间的复杂度,其中 f(n) 是问题规模n的某个函数。算法
这样用大写 [ O( ) ] 来体现算法时间复杂度的记法,咱们就称之为大O记法。例如:O(n)、O(1)、O(n2)、O(log n) 等等。通常状况下,随着 n 的增大,T(n) 增加最慢的算法为最优算法。数据结构
1,用时间1取代运算时间中的全部加法常数。函数
2,在修改后的运行的函数中,只保留最高阶项。spa
3,若是最高阶项存在且不是1,则去除与这个项相乘的常数。获得的结果就是大O阶。code
1 int sum = 0, n = 100; /* 执行一次 */
2 sum = (1+n) *n/2; /* 执行一次 */
3 printf("the sum is:%d",sum); /* 执行一次 */
咱们能够看出运行次数的函数是 f(n) = 3。根据咱们上面的大O阶公式 1 能够获得,把常数项 3 改成 1,在保留最高阶时发现没有最高阶项,因此时间复杂度为大 O(1)。也就是说,不管算法是 3 次仍是 30 次,哪怕是 300 次,这些只要是常数项,它的时间复杂度都为大 O(1),而不是O(3)、O(30)、O(300)。即咱们称之为常数阶。blog
1 for(int i = 0; i < n; i++) { 2 sum += i; 3 }
从上面的这段代码咱们能够看出,它的时间复杂度为O(n),由于循环体中的代码须要执行n次。排序
1 for(int i = 0; i < n; i++) {
2 for(int j = i; j < n; j++) {
3 //时间复杂度为O(n2)
4 }
5 }
分析:class
当 i = 0时,内循环执行了 n 次,效率
当 i = 1时,内循环执行了 n-1 次,循环
......
当 i = n-1时。执行了 1 次,
因此总的执行次数为:n = (n-1)+(n-2)+ ··· + 1= n(n+1)/2 = n2/2+n/2。
由上面的公式可得:第一条代码中没有加法常数项,不考虑;第二条只保留最高阶项,所以保留 n2/2;第三条去除这个项相乘的常数,因此去除了 1/2;最终咱们获得的代码段时间复杂度就是 O(n2)。
1 int count = 1; 2 while (count < n) { 3 count *= 2; 4 }
上面代码咱们能够看出,count = count * 2 以后就距离 n 更近一步,也就是说,有多少个 2 相乘后大于 n,就退出循环。因此咱们能够由 2x = n 推导出 x = log2n ,像这样的循环时间复杂度,咱们就称为对数阶的复杂度即为 O(log n)。
数据结构中咱们通常经常使用的时间复杂度表示有:O(1)、O(n)、O(n2)、O(log n)、O(nlog n)、O(n3)、O(2n)。
按时间复杂度所耗费的时间从大到小排序依次为:
O(1) < O(log n) < O(n) < O(nlog n) < O(n2) < O(n3) < O(2n)