本文依据压缩感知群中Ammy讲解整理所得
最初的压缩感知是由Candès、Donoho他们提出来的问题。最初压缩感知那几篇文章里的模型 :markdown
y=Φ∗x(模型一)
都是从纯数学角度来考虑的,问题也是针对稀疏信号x研究的。研究的是:什么样的
Φ
,以怎样的方式,可以从
y
中恢复
x
。
在后续的研究过程当中发现不少信号x压根不稀疏,天然也就不知足模型一的要求了。通过研究发现,虽然信号x不稀疏可是能够经过某种正交变换使信号变的稀疏。这也就产生了第二种稀疏模型:
y=Φ∗ΨT∗x(模型二)
θ=ΨT∗x
:现将信号
x
进行某种正交变换,获得稀疏信号
θ
。其中
θ
是稀疏的,
ΨT
是
Ψ
的转置,也就是
Ψ
的逆
Ψ′
。
y=Φ∗θ
:经过变换后的信号
θ
知足了模型一的条件。
y=Φ∗ΨT∗x
:将
θ
代入到模型一也就获得了模型二了。
这种稀疏变换的模型,叫作
analysismodel
,将
x
利用
ΨT
分解成
θ
。例如,小波分解;例如,傅里叶分解。
随着稀疏表示模型的发展,人们发现不单单可以经过变换获得稀疏的信号还能够经过一个字典获得稀疏信号
x=D∗θ
(
θ
是稀疏的,而
D
非正交)。Candès在09年的一篇文章中给出了压缩感知在过完备字典下的表示:
y=Φ∗x=Φ∗D∗θ(模型三)//注意与模型二的区别
这种模型叫作
synthesismodel
,
x
是由
D
和
θ
合成出来的。
模型二与模型三的区别:
在模型二中,因为
ΨT∗x
是稀疏的,因此要求
Φ
要知足
k−RIP
性质便可。只须要考虑
Φ
的
RIP
,人们只须要找到一个知足的矩阵,就能够处处使用了。
在模型三中,因为
θ
是稀疏的,因此应该是要求
Φ∗D
要知足
RIP
。而
D
是随着问题不断变换的,找个全局的比较困难。为此提出了另一个条件:
Coherence
,说的通俗一点就是:当
Φ
和
D
极度不相干时,
Φ∗D
可以知足
RIP
,因此将
Φ∗D
的
RIP
转换为,寻找一个
Φ
与
D
不相关。
在实际使用的过程当中人们发现高斯随机矩阵知足第2个模型,高斯矩阵是由于知足
RIP
。后面又发现高斯矩阵与大部分
D
相关性很小,因此又被拿来当作
Φ
。形式上都是高斯,因此看起来“彷佛同样”,但实际上仍是有本质区别的,这时给初学者有很大的障碍去理解的。