关于算法的时间复杂度O(f(n))

(一)算法时间复杂度定义:
  在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化状况并肯定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记做:T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增加率和f(n)的增加率相同,称做算法的渐进时间复杂度,简称时间复杂度。其中f(n)是问题规模n的某个函数。算法

 

(二)分析一个算法的时间复杂度(推导大O阶):数组

1.用常数1取代运行时间中的全部加法常数。函数

2.在修改后的运行次数函数中,只保留最高阶项。spa

3.若是最高阶项存在且不是1,则去除与这个项相乘的常数。code

获得的结果就是大O阶。blog

 (1)常数阶,大O阶记做O(1)。排序

1 int sum=0,n=100;   //执行一次
2 sum=(1+n)*n/2       //执行一次
3 printf("%d",sum);    //执行一次

 

这个算法运行次数函数是f(n)=3,该函数无最高阶项,因此记做O(1),而不是O(3)。class

(2)线性阶,分析循环结构的运行状况。循环

(3)对数阶程序

1 int count=1;
2 while (count<n)
3 {
4   count=count*2;  
5 }

因为每次count乘以2以后,就距离n更近了一分。也就是说,有多少个2相乘后大于n,则会退出循环。由2的n次方等于n,获得x=log2 n。因此这个循环时间复杂度O(logn)。

(4)平方阶

1 int i,j;
2 for(i=0;i<n;i++)
3 {
4   for(j=i;j<n;j++)
5   /*时间复杂度为O(1)的程序步骤序列*/        
6 }

因为当i=0时,内循环执行了n次,当i=1时,执行了n-1次,……当i=n-1次,执行了1次。因此总的执行次数为:

n+(n-1)+(n-2)+……+1=(n^2)/2+n/2

根据推导大O阶的方法,第一条,没有加法常数不予考虑。第二条,只保留最高项,所以保留(n^2)/2;第三条去除这个项相乘的常数,即1/2,最终这段代码的时间复杂度为O(n^2)。

咱们经常使用大O表示法表示时间复杂性,注意它是某一个算法的时间复杂性。大O表示只是说有上界,由定义若是f(n)=O(n),那显然成立f(n)=O(n^2),它给你一个上界,但并非上确界,但人们在表示的时候通常都习惯表示前者。

此外,一个问题自己也有它的复杂性,若是某个算法的复杂性到达了这个问题复杂性的下界,那就称这样的算法是最佳算法。

“大O记法”:在这种描述中使用的基本参数是 n,即问题实例的规模,把复杂性或运行时间表达为n的函数。这里的“O”表示量级 (order),好比说“二分检索是 O(logn)的”,也就是说它须要“经过logn量级的步骤去检索一个规模为n的数组”记法 O ( f(n) )表示当 n增大时,运行时间至多将以正比于 f(n)的速度增加。

这种渐进估计对算法的理论分析和大体比较是很是有价值的,但在实践中细节也可能形成差别。例如,一个低附加代价的O(n2)算法在n较小的状况下可能比一个高附加代价的 O(nlogn)算法运行得更快。固然,随着n足够大之后,具备较慢上升函数的算法必然工做得更快。

O(1)

Temp=i;i=j;j=temp;                    

以上三条单个语句的频度均为1,该程序段的执行时间是一个与问题规模n无关的常数。算法的时间复杂度为常数阶,记做T(n)=O(1)。若是算法的执行时间不随着问题规模n的增长而增加,即便算法中有上千条语句,其执行时间也不过是一个较大的常数。此类算法的时间复杂度是O(1)。

O(n^2)

2.1. 交换i和j的内容
     sum=0;                 (一次)
     for(i=1;i<=n;i++)       (n次 )
        for(j=1;j<=n;j++) (n^2次 )
         sum++;       (n^2次 )
解:T(n)=2n^2+n+1 =O(n^2)

2.2.   
    for (i=1;i<n;i++)
    {
        y=y+1;         ①   
        for (j=0;j<=(2*n);j++)    
           x++;        ②      
    }         
解: 语句1的频度是n-1
          语句2的频度是(n-1)*(2n+1)=2n^2-n-1
          f(n)=2n^2-n-1+(n-1)=2n^2-2
          该程序的时间复杂度T(n)=O(n^2).         

O(n)      
                                                      
2.3.
    a=0;
    b=1;                      ①
    for (i=1;i<=n;i++) ②
    {  
       s=a+b;    ③
       b=a;     ④  
       a=s;     ⑤
    }
解:语句1的频度:2,        
           语句2的频度: n,        
          语句3的频度: n-1,        
          语句4的频度:n-1,    
          语句5的频度:n-1,                                  
          T(n)=2+n+3(n-1)=4n-1=O(n).
                                                                                                 
O(log2n )

2.4.
     i=1;       ①
    while (i<=n)
       i=i*2; ②
解: 语句1的频度是1,  
          设语句2的频度是f(n),   则:2^f(n)<=n;f(n)<=log2n    
          取最大值f(n)= log2n,
          T(n)=O(log2n )

O(n^3)

2.5.
    for(i=0;i<n;i++)
    {  
       for(j=0;j<i;j++)  
       {
          for(k=0;k<j;k++)
             x=x+2;  
       }
    }
解:当i=m, j=k的时候,内层循环的次数为k当i=m时, j 能够取 0,1,...,m-1 , 因此这里最内循环共进行了0+1+...+m-1=(m-1)m/2次因此,i从0取到n, 则循环共进行了: 0+(1-1)*1/2+...+(n-1)n/2=n(n+1)(n-1)/6因此时间复杂度为O(n^3).
                                  

咱们还应该区分算法的最坏状况的行为和指望行为。如快速排序的最 坏状况运行时间是 O(n^2),但指望时间是 O(nlogn)。经过每次都仔细 地选择基准值,咱们有可能把平方状况 (即O(n^2)状况)的几率减少到几乎等于 0。在实际中,精心实现的快速排序通常都能以 (O(nlogn)时间运行。
下面是一些经常使用的记法:

访问数组中的元素是常数时间操做,或说O(1)操做。

一个算法如 果能在每一个步骤去掉一半数据元素,如二分检索,一般它就取 O(logn)时间。

用strcmp比较两个具备n个字符的串须要O(n)时间。常规的矩阵乘算法是O(n^3),由于算出每一个元素都须要将n对 元素相乘并加到一块儿,全部元素的个数是n^2。指数时间算法一般来源于须要求出全部可能结果。例如,n个元 素的集合共有2n个子集,因此要求出全部子集的算法将是O(2n)的。指数算法通常说来是太复杂了,除非n的值很是小,由于,在 这个问题中增长一个元素就致使运行时间加倍。不幸的是,确实有许多问题 (如著名的“巡回售货员问题” ),到目前为止找到的算法都是指数的。若是咱们真的遇到这种状况,一般应该用寻找近似最佳结果的算法替代之。

相关文章
相关标签/搜索