冰与火之歌:「时间」与「空间」复杂度

原文地址:冰与火之歌:「时间」与「空间」复杂度算法

算法(Algorithm)是指用来操做数据、解决程序问题的一组方法。对于同一个问题,使用不一样的算法,也许最终获得的结果是同样的,好比排序就有前面的十大经典排序和几种奇葩排序,虽然结果相同,但在过程当中消耗的资源和时间却会有很大的区别,好比快速排序与猴子排序:)。数组

那么咱们应该如何去衡量不一样算法之间的优劣呢?bash

主要仍是从算法所占用的「时间」和「空间」两个维度去考量。函数

  • 时间维度:是指执行当前算法所消耗的时间,咱们一般用「时间复杂度」来描述。性能

  • 空间维度:是指执行当前算法须要占用多少内存空间,咱们一般用「空间复杂度」来描述。学习

冰之哀伤:时间复杂度

时间的流逝宛若寒冰的融化,散发着恐惧。优化

大O符号表示法

大O表示法:算法的时间复杂度一般用大O符号表述,定义为 **T[n] = O(f(n)) **。称函数T(n)以f(n)为界或者称T(n)受限于f(n)。ui

若是一个问题的规模是n,解这一问题的某一算法所须要的时间为T(n)。T(n)称为这一算法的“时间复杂度”。spa

上面公式中用到的 Landau符号是由德国数论学家保罗·巴赫曼(Paul Bachmann)在其1892年的著做《解析数论》首先引入,由另外一位德国数论学家艾德蒙·朗道(Edmund Landau)推广。Landau符号的做用在于用简单的函数来描述复杂函数行为,给出一个上或下(确)界。在计算算法复杂度时通常只用到大O符号,Landau符号体系中的小o符号、Θ符号等等比较不经常使用。这里的O,最初是用大写希腊字母,但如今都用大写英语字母O;小o符号也是用小写英语字母o,Θ符号则维持大写希腊字母Θ。设计

大O符号是一种算法「复杂度」的「相对」「表示」方式。

这个句子里有一些重要而严谨的用词:

  • 相对(relative):你只能比较相同的事物。你不能把一个作算数乘法的算法和排序整数列表的算法进行比较。可是,比较2个算法所作的算术操做(一个作乘法,一个作加法)将会告诉你一些有意义的东西;

  • 表示(representation):大O(用它最简单的形式)把算法间的比较简化为了一个单一变量。这个变量的选择基于观察或假设。例如,排序算法之间的对比一般是基于比较操做(比较2个结点来决定这2个结点的相对顺序)。这里面就假设了比较操做的计算开销很大。可是,若是比较操做的计算开销不大,而交换操做的计算开销很大,又会怎么样呢?这就改变了先前的比较方式;

  • 复杂度(complexity):若是排序10,000个元素花费了我1秒,那么排序1百万个元素会花多少时间?在这个例子里,复杂度就是相对其余东西的度量结果。

常见的时间复杂度量级

咱们先从常见的时间复杂度量级进行大O的理解:

  • 常数阶O(1)

  • 线性阶O(n)

  • 平方阶O(n²)

  • 对数阶O(logn)

  • 线性对数阶O(nlogn)

O(1)

不管代码执行了多少行,其余区域不会影响到操做,这个代码的时间复杂度都是O(1)

void swapTwoInts(int &a, int &b){
  int temp = a;
  a = b;
  b = temp;
}
复制代码

O(n)

在下面这段代码,for循环里面的代码会执行 n 遍,所以它消耗的时间是随着 n 的变化而变化的,所以能够用O(n)来表示它的时间复杂度。

int sum ( int n ){
   int ret = 0;
   for ( int i = 0 ; i <= n ; i ++){
      ret += i;
   }
   return ret;
}
复制代码

特别一提的是 c * O(n) 中的 c 可能小于 1 ,好比下面这段代码:

void reverse ( string &s ) {
    int n = s.size();
    for (int i = 0 ; i < n/2 ; i++){
      swap ( s[i] , s[n-1-i]);
    }
}
复制代码

O(n²)

当存在双重循环的时候,即把 O(n) 的代码再嵌套循环一遍,它的时间复杂度就是 O(n²) 了。

void selectionSort(int arr[],int n){
   for(int i = 0; i < n ; i++){
     int minIndex = i;
     for (int j = i + 1; j < n ; j++ )
       if (arr[j] < arr[minIndex])
           minIndex = j;
       
     swap ( arr[i], arr[minIndex]);
   }
}
复制代码

这里简单的推导一下

  • 当 i = 0 时,第二重循环须要运行 (n - 1) 次
  • 当 i = 1 时,第二重循环须要运行 (n - 2) 次
  • 。。。。。。

不可贵到公式:

(n - 1) + (n - 2) + (n - 3) + ... + 0
= (0 + n - 1) * n / 2
= O (n ^2)

复制代码

固然并非全部的双重循环都是 O(n²),好比下面这段输出 30n 次 Hello,五分钟学算法:)的代码。

void printInformation (int n ){
   for (int i = 1 ; i <= n ; i++)
        for (int j = 1 ; j <= 30 ; j ++)
           cout<< "Hello,五分钟学算法:)"<< endl;
}
复制代码

O(logn)

int binarySearch( int arr[], int n , int target){
  int l = 0, r = n - 1;
  while ( l <= r) {
    int mid = l + (r - l) / 2;
    if (arr[mid] == target) return mid;
    if (arr[mid] > target ) r = mid - 1;
    else l = mid + 1;
  }
  return -1;
}
复制代码

在二分查找法的代码中,经过while循环,成 2 倍数的缩减搜索范围,也就是说须要通过 log2^n 次便可跳出循环。

一样的还有下面两段代码也是 O(logn) 级别的时间复杂度。

// 整形转成字符串
  string intToString ( int num ){
   string s = "";
   // n 通过几回“除以10”的操做后,等于0
   while (num ){
    s += '0' + num%10;
    num /= 10;
   }
   reverse(s)
   return s;
  }
复制代码
void hello (int n ) {
   // n 除以几回 2 到 1
   for ( int sz = 1; sz < n ; sz += sz) 
     for (int i = 1; i < n; i++)
        cout<< "Hello,五分钟学算法:)"<< endl;
}
复制代码

O(nlogn)

将时间复杂度为O(logn)的代码循环N遍的话,那么它的时间复杂度就是 n * O(logn),也就是了O(nlogn)。

void hello (){
  for( m = 1 ; m < n ; m++){
    i = 1;
    while( i < n ){
        i = i * 2;
    }
   }
}


复制代码

不常见的时间复杂度

下面来分析一波另外几种复杂度: 递归算法的时间复杂度(recursive algorithm time complexity),最好状况时间复杂度(best case time complexity)、最坏状况时间复杂度(worst case time complexity)、平均时间复杂度(average case time complexity)和均摊时间复杂度(amortized time complexity)。

递归算法的时间复杂度

若是递归函数中,只进行一次递归调用,递归深度为depth;

在每一个递归的函数中,时间复杂度为T;

则整体的时间复杂度为O(T * depth)

在前面的学习中,归并排序 与 快速排序 都带有递归的思想,而且时间复杂度都是O(nlogn) ,但并非有递归的函数就必定是 O(nlogn) 级别的。从如下两种状况进行分析。

① 递归中进行一次递归调用的复杂度分析
二分查找法

int binarySearch(int arr[], int l, int r, int target){
    if( l > r ) return -1;
    
    int mid = l + (r-l)/2; 
    if( arr[mid] == target ) return mid;  
    else if( arr[mid] > target ) 
    return binarySearch(arr, l, mid-1, target);    // 左边 
    else
    return binarySearch(arr, mid+1, r, target);   // 右边

}
复制代码

好比在这段二分查找法的代码中,每次在 [ l , r ] 范围中去查找目标的位置,若是中间的元素 arr[mid] 不是 target,那么判断 arr[mid]是比 target 大 仍是 小 ,进而再次调用 binarySearch这个函数。

在这个递归函数中,每一次没有找到target时,要么调用 左边 的 binarySearch函数,要么调用 右边 的 binarySearch函数。也就是说在这次递归中,最多调用了一次递归调用而已。根据数学知识,须要log2n次才能递归到底。所以,二分查找法的时间复杂度为 O(logn)。

求和

int sum (int n) {
  if (n == 0) return 0;
  return n + sum( n - 1 )
}
复制代码

在这段代码中比较容易理解递归深度随输入 n 的增长而线性递增,所以时间复杂度为 O (n)。

求幂

//递归深度:logn
//时间复杂度:O(logn)
double pow( double x, int n){
  if (n == 0) return 1.0;
  
  double t = pow(x,n/2);
  if (n %2) return x*t*t;
  return t * t;
}
复制代码

递归深度为 logn,由于是求须要除以 2 多少次才能到底。

② 递归中进行屡次递归调用的复杂度分析

递归算法中比较难计算的是屡次递归调用。

先看下面这段代码,有两次递归调用。

// O(2^n) 指数级别的数量级,后续动态规划的优化点
int f(int n){
 if (n == 0) return 1;
 return f(n-1) + f(n - 1);
}
复制代码

递归树中节点数就是代码计算的调用次数。

好比 当 n = 3 时,调用次数计算公式为

1 + 2 + 4 + 8 = 15

通常的,调用次数计算公式为

2^0 + 2^1 + 2^2 + ...... + 2^n = 2^(n+1) - 1 = O(2^n)

与之有所相似的是 归并排序 的递归树,区别点在于

    1. 上述例子中树的深度为 n,而 归并排序 的递归树深度为logn
    1. 上述例子中每次处理的数据规模是同样的,而在 归并排序 中每一个节点处理的数据规模是逐渐缩小的

所以,在如 归并排序 等排序算法中,每一层处理的数据量为 O(n) 级别,同时有 logn 层,时间复杂度即是 O(nlogn)。

最好、最坏状况时间复杂度

最好、最坏状况时间复杂度指的是特殊状况下的时间复杂度。

动图代表的是在数组 array 中寻找变量 x 第一次出现的位置,若没有找到,则返回 -1;不然返回位置下标。

int find(int[] array, int n, int x) {
  for (  int i = 0 ; i < n; i++) {
    if (array[i] == x) {
        return i;
        break;
    }
  }
  return -1;
}
复制代码

在这里当数组中第一个元素就是要找的 x 时,时间复杂度是 O(1);而当最后一个元素才是 x 时,时间复杂度则是 O(n)。

最好状况时间复杂度就是在最理想状况下执行代码的时间复杂度,它的时间是最短的;最坏状况时间复杂度就是在最糟糕状况下执行代码的时间复杂度,它的时间是最长的。

平均状况时间复杂度

最好、最坏时间复杂度反应的是极端条件下的复杂度,发生的几率不大,不能表明平均水平。那么为了更好的表示平均状况下的算法复杂度,就须要引入平均时间复杂度。

平均状况时间复杂度可用代码在全部可能状况下执行次数的加权平均值表示。

仍是以 find 函数为例,从几率的角度看, x 在数组中每个位置的可能性是相同的,为 1 / n。那么,那么平均状况时间复杂度就能够用下面的方式计算:

((1 + 2 + ... + n) / n + n) / 2 = (3n + 1) / 4

find 函数的平均时间复杂度为 O(n)。

均摊复杂度分析

咱们经过一个动态数组的 push_back 操做来理解 均摊复杂度

template <typename T>
class MyVector{
private:
    T* data;
    int size;       // 存储数组中的元素个数
    int capacity;   // 存储数组中能够容纳的最大的元素个数
    // 复杂度为 O(n)
    void resize(int newCapacity){
        T *newData = new T[newCapacity];
        for( int i = 0 ; i < size ; i ++ ){
              newData[i] = data[i];
            }
        data = newData;
        capacity = newCapacity;
    }
public:
    MyVector(){
        data = new T[100];
        size = 0;
        capacity = 100;
    }
    // 平均复杂度为 O(1)
    void push_back(T e){
        if(size == capacity)
            resize(2 * capacity);
        data[size++] = e;
    }
    // 平均复杂度为 O(1)
    T pop_back(){
        size --;
        return data[size];
    }

};
复制代码

push_back实现的功能是往数组的末尾增长一个元素,若是数组没有满,直接日后面插入元素;若是数组满了,即 size == capacity ,则将数组扩容一倍,而后再插入元素。

例如,数组长度为 n,则前 n 次调用 push_back 复杂度都为 O(1) 级别;在第 n + 1 次则须要先进行 n 次元素转移操做,而后再进行 1 次插入操做,复杂度为 O(n)。

所以,平均来看:对于容量为 n 的动态数组,前面添加元素须要消耗了 1 * n 的时间,扩容操做消耗 n 时间 , 总共就是 2 * n 的时间,所以均摊时间复杂度为 O(2n / n) = O(2),也就是 O(1) 级别了。

能够得出一个比较有意思的结论:一个相对比较耗时的操做,若是能保证它不会每次都被触发,那么这个相对比较耗时的操做,它所相应的时间是能够分摊到其它的操做中来的。

火之晨曦:空间复杂度

🔥🔥🔥🔥,处处都是🔥

一个程序的空间复杂度是指运行完一个程序所需内存的大小。利用程序的空间复杂度,能够对程序的运行所须要的内存多少有个预先估计。一个程序执行时除了须要存储空间和存储自己所使用的指令、常数、变量和输入数据外,还须要一些对数据进行操做的工做单元和存储一些为现实计算所需信息的辅助空间。程序执行时所需存储空间包括如下两部分:

(1) 固定部分,这部分空间的大小与输入/输出的数据的个数多少、数值无关。主要包括指令空间(即代码空间)、数据空间(常量、简单变量)等所占的空间。这部分属于静态空间。

(2) 可变空间,这部分空间的主要包括动态分配的空间,以及递归栈所需的空间等。这部分的空间大小与算法有关。

一个算法所需的存储空间用f(n)表示。S(n)=O(f(n)),其中n为问题的规模,S(n)表示空间复杂度。

空间复杂度能够理解为除了原始序列大小的内存,在算法过程当中用到的额外的存储空间。

以二叉查找树为例,举例说明二叉排序树的查找性能。

平衡二叉树

若是二叉树的是以红黑树等平衡二叉树实现的,则 n 个节点的二叉排序树的高度为 log2n+1 ,其查找效率为O(Log2n),近似于折半查找。

列表二叉树

若是二叉树退变为列表了,则 n 个节点的高度或者说是长度变为了n,查找效率为O(n),变成了顺序查找。

通常二叉树

介于「列表二叉树」与「平衡二叉树」之间,查找性能也在O(Log2n)到O(n)之间。

冰火交融

对于一个算法,其时间复杂度和空间复杂度每每是相互影响的。

好比说,要判断某某年是否是闰年:

    1. 能够编写一个算法来计算,这也就意味着,每次给一个年份,都是要经过计算获得是不是闰年的结果。
    1. 还有另外一个办法就是,事先创建一个有 5555 个元素的数组(年数比现实多就行),而后把全部的年份按下标的数字对应,若是是闰年,此数组项的值就是1,若是不是值为0。这样,所谓的判断某一年是不是闰年,就变成了查找这个数组的某一项的值是多少的问题。此时,咱们的运算是最小化了,可是硬盘上或者内存中须要存储这 5555 个 0 和 1 。

这就是典型的使用空间换时间的概念。

当追求一个较好的时间复杂度时,可能会使空间复杂度的性能变差,便可能致使占用较多的存储空间;
反之,求一个较好的空间复杂度时,可能会使时间复杂度的性能变差,便可能致使占用较长的运行时间。

另外,算法的全部性能之间都存在着或多或少的相互影响。所以,当设计一个算法(特别是大型算法)时,要综合考虑算法的各项性能,算法的使用频率,算法处理的数据量的大小,算法描述语言的特性,算法运行的机器系统环境等各方面因素,才可以设计出比较好的算法。

相关文章
相关标签/搜索