匹配追蹤演算法
A. 用英語怎麼說追某人
chase
英 [tʃeɪs]
vt. 追逐;追捕;試圖贏得;雕鏤
vi. 追逐;追趕;奔跑
n. 追逐;追趕;追擊
短語
chase after追逐;追趕
cut to the chase開門見山;提到關鍵問題;轉入(或切入)正題
jpmorgan chase摩根大通公司
chase the dragon吸食海洛因,服用毒品
例句
1、If they go into that field, the bull will Chase them.
如果他們進入那塊牧場,公牛就會追逐他們。
2、We must not chase each other in the classroom.
在教室里,我們必須不能互相追趕。
(1)匹配追蹤演算法擴展閱讀
近義詞
1、pursue
英 [pə'sjuː] 美 [pə'sʊ]
vt. 繼續;從事;追趕;糾纏
vi. 追趕;繼續進行
短語
pursue eudemonia追尋幸福的腳步
Pursue Excellence追求卓越
pursue perfection追求完美
2、pursuit
英 [pə'sjuːt] 美 [pɚ'sut]
n. 追趕,追求;職業,工作
短語
Highway Pursuit 公路追擊 ; 公路追緝令 ; 亡命劫匪 ; 高速路押運大戰
projection pursuit 投影尋蹤 ; 投影尋蹤法 ; 投影尋蹤方法
matching pursuit 匹配追蹤 ; 匹配跟蹤 ; 匹配追蹤演算法 ; 匹配追逐
B. OOMP演算法代碼
1. 信號的稀疏表示(sparse representation of signals)
給定一個過完備字典矩陣,其中它的每列表示一種原型信號的原子。給定一個信號y,它可以被表示成這些原子的稀疏線性組合。信號 y 可以被表達為 y = Dx ,或者。 字典矩陣中所謂過完備性,指的是原子的個數遠遠大於信號y的長度(其長度很顯然是n),即n<<k。
2.MP演算法(匹配追蹤演算法)
2.1 演算法描述
作為對信號進行稀疏分解的方法之一,將信號在完備字典庫上進行分解。
假定被表示的信號為y,其長度為n。假定H表示Hilbert空間,在這個空間H里,由一組向量構成字典矩陣D,其中每個向量可以稱為原子(atom),其長度與被表示信號 y 的長度n相同,而且這些向量已作為歸一化處理,即|,也就是單位向量長度為1。MP演算法的基本思想:從字典矩陣D(也稱為過完備原子庫中),選擇一個與信號 y 最匹配的原子(也就是某列),構建一個稀疏逼近,並求出信號殘差,然後繼續選擇與信號殘差最匹配的原子,反復迭代,信號y可以由這些原子來線性和,再加上最後的殘差值來表示。很顯然,如果殘差值在可以忽略的范圍內,則信號y就是這些原子的線性組合。如果選擇與信號y最匹配的原子?如何構建稀疏逼近並求殘差?如何進行迭代?我們來詳細介紹使用MP進行信號分解的步驟:[1] 計算信號 y 與字典矩陣中每列(原子)的內積,選擇絕對值最大的一個原子,它就是與信號 y 在本次迭代運算中最匹配的。用專業術語來描述:令信號,從字典矩陣中選擇一個最為匹配的原子,滿足,r0 表示一個字典矩陣的列索引。這樣,信號 y 就被分解為在最匹配原子的垂直投影分量和殘值兩部分,即:。[2]對殘值R1f進行步驟[1]同樣的分解,那麼第K步可以得到:
, 其中 滿足。可見,經過K步分解後,信號 y 被分解為:,其中。
2.2 繼續討論
(1)為什麼要假定在Hilbert空間中?Hilbert空間就是定義了完備的內積空。很顯然,MP中的計算使用向量的內積運算,所以在在Hilbert空間中進行信號分解理所當然了。什麼是完備的內積空間?篇幅有限就請自己搜索一下吧。
(2)為什麼原子要事先被歸一化處理了,即上面的描述。內積常用於計算一個矢量在一個方向上的投影長度,這時方向的矢量必須是單位矢量。MP中選擇最匹配的原子是,是選擇內積最大的一個,也就是信號(或是殘值)在原子(單位的)垂直投影長度最長的一個,比如第一次分解過程中,投影長度就是。,三個向量,構成一個三角形,且和正交(不能說垂直,但是可以想像二維空間這兩個矢量是垂直的)。
(3)MP演算法是收斂的,因為,和正交,由這兩個可以得出,得出每一個殘值比上一次的小,故而收斂。
2.3 MP演算法的缺點
如上所述,如果信號(殘值)在已選擇的原子進行垂直投影是非正交性的,這會使得每次迭代的結果並不少最優的而是次最優的,收斂需要很多次迭代。舉個例子說明一下:在二維空間上,有一個信號 y 被 D=[x1, x2]來表達,MP演算法迭代會發現總是在x1和x2上反復迭代,即,這個就是信號(殘值)在已選擇的原子進行垂直投影的非正交性導致的。再用嚴謹的方式描述[1]可能容易理解:在Hilbert空間H中,,,定義,就是它是這些向量的張成中的一個,MP構造一種表達形式:;這里的Pvf表示 f在V上的一個正交投影操作,那麼MP演算法的第 k 次迭代的結果可以表示如下(前面描述時信號為y,這里變成f了,請注意):
如果 是最優的k項近似值,當且僅當。由於MP僅能保證,所以一般情況下是次優的。這是什麼意思呢?是k個項的線性表示,這個組合的值作為近似值,只有在第k個殘差和正交,才是最優的。如果第k個殘值與正交,意味這個殘值與fk的任意一項都線性無關,那麼第k個殘值在後面的分解過程中,不可能出現fk中已經出現的項,這才是最優的。而一般情況下,不能滿足這個條件,MP一般只能滿足第k個殘差和xk正交,這也就是前面為什麼提到「信號(殘值)在已選擇的原子進行垂直投影是非正交性的」的原因。如果第k個殘差和fk不正交,那麼後面的迭代還會出現fk中已經出現的項,很顯然fk就不是最優的,這也就是為什麼說MP收斂就需要更多次迭代的原因。不是說MP一定得到不到最優解,而且其前面描述的特性導致一般得到不到最優解而是次優解。那麼,有沒有辦法讓第k個殘差與正交,方法是有的,這就是下面要談到的OMP演算法。
3.OMP演算法
3.1 演算法描述
OMP演算法的改進之處在於:在分解的每一步對所選擇的全部原子進行正交化處理,這使得在精度要求相同的情況下,OMP演算法的收斂速度更快。
那麼在每一步中如何對所選擇的全部原子進行正交化處理呢?在正式描述OMP演算法前,先看一點基礎思想。
先看一個 k 階模型,表示信號 f 經過 k 步分解後的情況,似乎很眼熟,但要注意它與MP演算法不同之處,它的殘值與前面每個分量正交,這就是為什麼這個演算法多了一個正交的原因,MP中僅與最近選出的的那一項正交。
(1)
k + 1 階模型如下:
(2)
應用 k + 1階模型減去k 階模型,得到如下:
(3)
我們知道,字典矩陣D的原子是非正交的,引入一個輔助模型,它是表示對前k個項的依賴,描述如下:
(4)
和前面描述類似,在span(x1, ...xk)之一上的正交投影操作,後面的項是殘值。這個關系用數學符號描述:
請注意,這里的 a 和 b 的上標表示第 k 步時的取值。
將(4)帶入(3)中,有:
(5)
如果一下兩個式子成立,(5)必然成立。
(6)
(7)
令,有
其中。
ak的值是由求法很簡單,通過對(7)左右兩邊添加作內積消減得到:
後邊的第二項因為它們正交,所以為0,所以可以得出ak的第一部分。對於,在(4)左右兩邊中與作內積,可以得到ak的第二部分。
對於(4),可以求出,求的步驟請參見參考文件的計算細節部分。為什麼這里不提,因為後面會介紹更簡單的方法來計算。
3.2 收斂性證明
通過(7),由於與正交,將兩個殘值移到右邊後求二范的平方,並將ak的值代入可以得到:
可見每一次殘差比上一次殘差小,可見是收斂的。
3.3 演算法步驟
整個OMP演算法的步驟如下:
由於有了上面的來龍去脈,這個演算法就相當好理解了。
到這里還不算完,後來OMP的迭代運算用另外一種方法可以計算得知,有位同學的論文[2]描述就非常好,我就直接引用進來:
對比中英文描述,本質都是一樣,只是有細微的差別。這里順便貼出網一哥們寫的OMP演算法的代碼,源出處不得而知,共享給大家。
再貼另外一個洋牛paper[3]中關於OMP的描述,之所以引入,是因為它描述的非常嚴謹,但是也有點苦澀難懂,不過有了上面的基礎,就容易多了。
它的描述中的Sweep步驟就是尋找與當前殘差最大的內積時列在字典矩陣D中的索引,它的這個步驟描述說明為什麼要選擇內積最大的以及如何選擇。見下圖,說的非常清晰。
它的演算法步驟Update Provisional Solution中求很簡單,就是在 b = Ax 已知 A和b求x, 在x的最小二范就是A的偽逆與b相乘,即:
C. 方勇的學術成果
以第一作者或通信作者在SCI期刊發表/錄用論文17篇,包括5篇IEEE會刊論文,5篇IEEE快報論文,3篇《中國科學:信息科學(英文版)》。其中的5篇IEEE會刊論文均以西北農林科技大學為唯一作者單位,由個人獨著或與其所指導研究生合著。申請受理國家發明專利4項。代表性創新成果包括算術碼碼譜、滑窗置信傳播演算法、變長數據塊長度編碼演算法、二維正交匹配追蹤演算法等。代表性著作如下:
1. *Yong Fang and Liang Chen, 「Improved binary DAC codec with spectrum for equiprobable sources,」 IEEE Transactions on Communications, accepted.
2. *Yong Fang, 「Asymmetric Slepian-Wolf coding of nonstationarily-correlated M-ary sources with sliding-window belief propagation,」 IEEE Transactions on Communications, accepted.
3. *Yong Fang, 「DAC spectrum of binary sources with equally-likely symbols,」 IEEE Transactions on Communications, vol. 61, no. 4, pp. 1584-1594, Apr. 2013.
4. *Yong Fang, 「LDPC-based lossless compression of nonstationary binary sources using sliding-window belief propagation,」 IEEE Transactions on Communications, vol. 60, no. 11, pp. 3161-3166, Nov. 2012.
5. *Yong Fang, Jiaji Wu, and Bormin Huang, 「2D sparse signal recovery via 2D orthogonal matching pursuit,」 Science China: Information Sciences, vol. 55, no. 4, pp. 889-897, Apr. 2012.
6. *Yong Fang, 「Analysis on crossover probability estimation using LDPC syndrome,」 Science China: Information Sciences, vol. 54, no. 9, pp. 1895-1904, Sep. 2011.
7. *Yong Fang, 「Joint source-channel estimation using accumulated LDPC syndrome,」 IEEE Communications Letters, vol. 14, no. 11, pp. 1044-1046, Nov. 2010.
8. *Yong Fang, 「EREC-based length coding of variable-length data blocks,」 IEEE Transactions on Circuits and Systems for Video Technology, vol. 20, no. 10, pp. 1358-1366, Oct. 2010.
9. *Yong Fang, 「Distribution of distributed arithmetic codewords for equiprobable binary sources,」 IEEE Signal Processing Letters, vol. 16, no. 12, pp. 1079-1082, Dec. 2009.
10. *Yong Fang, 「Crossover probability estimation using mean-intrinsic-LLR of LDPC syndrome,」 IEEE Communications Letters, vol. 13, no. 9, pp. 679-681, Sep. 2009.
11. *Yong Fang, Gwanggil Jeon, and Jechang Jeong, 「State-information-assisting EREC,」 IEEE Signal Processing Letters, vol. 16, no. 4, pp. 260-263, Apr. 2009.
12. *Yong Fang and Jechang Jeong, 「Correlation parameter estimation for LDPC-based Slepian-Wolf coding,」 IEEE Communications Letters, vol. 13, no. 1, pp. 37-39, Jan. 2009.
13. *Yong Fang, Jechang Jeong, et al, 「Error detection based on MB types,」 Science in China-Series F: Information Sciences, vol. 51, no. 4, pp. 433-439, Apr. 2008.
14. *Yong Fang, Jechang Jeong, et al, 「Robust video transmission using block-interleaved error resilient entropy coding,」 SPIE Optical Engineering, vol. 46, no. 12, 127401-1-7, Dec. 2007.
15. *Yong Fang, Chengke Wu, et al, 「Video transmission using advanced partial backward decodable bit stream,」 Elsevier Journal of Visual Communication and Image Representation, vol. 18, no. 2, pp. 186-190, Apr. 2007.
16. *Yong Fang, Chengke Wu, et al, 「Bi-directional error resilient entropy coding (BEREC),」 EURASIP Signal Processing: Image Communication, vol. 21, no. 8, pp. 647-652, Sep. 2006.
17. Hao Duan, *Yong Fang, and Bormin Huang, 「Parallel design of JPEG-LS encoder on graphics processing units,」 SPIE Journal of Applied Remote Sensing, vol 6, no. 1, 061508, Sep. 2012.
D. 稀疏度為1的信號,用壓縮感知恢復原始信號,匹配追蹤演算法(MP)和正交匹配追蹤演算法(OMP)的結果一樣嗎
壓縮感知(Compressed Sensing, CS)[1]理論具有全新的信號獲取和處理方式,該理論解決了傳統的Nyquist方法采樣頻率較高的問題,大大降低了稀疏信號精確重構所需的采樣頻率。
另外,CS理論在數據採集的同時完成數據壓縮,從而節約了軟、硬體資源及處理時間。
這些突出優點使其在信號處理領域有著廣闊的應用前景!
E. CMP的介紹
現在縮寫詞彙急劇增多,很多縮寫都有很多完全不同的意思,CMP也不例外。 計算機:Chip multiprocessors,單晶元多處理器,也指多核心; 電子:Chemical Mechanical polishing,化學機械拋光; 物理:Condensed Matter Physics,凝聚態物理;綜合布線:Plenum Cable,天花板隔層電纜; 晨風音樂:CenFun Music Player 晨風免費在線音樂播放器;稀疏信號重建:Complementary Matching Pursuit,補空間匹配追蹤演算法
F. 稀疏表示的性質
信號稀疏表示的目的就是在給定的超完備字典中用盡可能少的原子來表示信號,可以獲得信號更為簡潔的表示方式,從而使我們更容易地獲取信號中所蘊含的信息,更方便進一步對信號進行加工處理,如壓縮、編碼等。信號稀疏表示方向的研究熱點主要集中在稀疏分解演算法、超完備原子字典、和稀疏表示的應用等方面。
在稀疏表示理論未提出前,正交字典和雙正交字典因為其數學模型簡單而被廣泛的應用,然而他們有一個明顯的缺點就是自適應能力差,不能靈活全面地表示信號,1993年,Mallat基於小波分析提出了信號可以用一個超完備字典進行表示,從而開啟了稀疏表示的先河,經研究發現,信號經稀疏表示後,越稀疏則信號重建後的精度就越高,而且稀疏表示可以根據信號的自身特點自適應的選擇合適的超完備字典。對信號稀疏表示的目的就是尋找一個自適應字典使得信號的表達最稀疏。
稀疏分解演算法首先是由Mallat提出的,也就是眾所周知的匹配追蹤演算法(Matching Pursuit,MP)演算法,該演算法是一個迭代演算法,簡單且易於實現,因此得到了廣泛的應用。隨後,Pati等人基於MP演算法,提出了正交匹配追蹤演算法(Orthogonal Matching Pursuit,OMP),OMP演算法相較於MP演算法,收斂速度更快。在以後的研究中,為了改進OMP演算法,學者也提出了各種不同的其它演算法,例如:壓縮采樣匹配追蹤(Conpressive Sampling Matching Pursuit,CoSaMP)演算法、正則化正交匹配追蹤(Regularized Orthogonal Matching Pursuit,ROMP)演算法、分段式正交匹配追蹤(Stagewise OMP,StOMP)演算法、子空間追蹤(Subspace Pursuit,SP)演算法等等。
信號稀疏表示的兩大主要任務就是字典的生成和信號的稀疏分解,對於字典的選擇,一般有分析字典和學習字典兩大類。常用的分析字典有小波字典、超完備DCT字典和曲波字典等,用分析字典進行信號的稀疏表示時,雖然簡單易實現,但信號的表達形式單一且不具備自適應性;反之,學習字典的自適應能力強,能夠更好的適應不同的圖像數據,在目前的研究中,常用的學習字典的方法包括:Engan於1999年提出的最優方向(Method Of Optimal Directions,MOD)演算法,該演算法是學習字典的鼻祖,它的字典更新方式簡單,但與此同時,它的收斂速度很慢,在該演算法的基礎上,一些研究人員同時還提出了一些其它的字典學習演算法,如FOCUSS字典學習演算法,廣義PCA(Generalized PCA)演算法等等,Micheal Elad也於2006年提出了基於超完備字典稀疏分解的K-SVD演算法,該演算法相較於MOD演算法,收斂速度有了很大的提高,但是隨著雜訊的逐漸加大,使用該演算法進行去噪後的圖像因紋理細節的丟失會產生模糊的效果。Mairal於2010年提出了一種online字典學習演算法,該演算法速度較快且適用於一些特殊的信號處理,例如視頻信號,語音信號等等 。
G. cmp是什麼意思
現在縮寫詞彙急劇增多,很多縮寫都有很多完全不同的意思,CMP也不例外。 計算機:Chip multiprocessors,單晶元多處理器,也指多核心; 電子:Chemical Mechanical polishing,化學機械平坦化; 物理:Condensed Matter Physics,凝聚態物理;綜合布線:Plenum Cable,天花板隔層電纜; 晨風音樂:CenFun Music Player 晨風免費在線音樂播放器;稀疏信號重建:Complementary Matching Pursuit,補空間匹配追蹤演算法
H. 如何給OMP演算法設計一個字典,這個字典會更新
1. 信號的稀疏表示(sparse representation of signals)
給定一個過完備字典矩陣,其中它的每列表示一種原型信號的原子。給定一個信號y,它可以被表示成這些原子的稀疏線性組合。信號 y 可以被表達為 y = Dx ,或者。 字典矩陣中所謂過完備性,指的是原子的個數遠遠大於信號y的長度(其長度很顯然是n),即n<<k。
2.MP演算法(匹配追蹤演算法)
2.1 演算法描述
作為對信號進行稀疏分解的方法之一,將信號在完備字典庫上進行分解。
假定被表示的信號為y,其長度為n。假定H表示Hilbert空間,在這個空間H里,由一組向量構成字典矩陣D,其中每個向量可以稱為原子(atom),其長度與被表示信號 y 的長度n相同,而且這些向量已作為歸一化處理,即|,也就是單位向量長度為1。MP演算法的基本思想:從字典矩陣D(也稱為過完備原子庫中),選擇一個與信號 y 最匹配的原子(也就是某列),構建一個稀疏逼近,並求出信號殘差,然後繼續選擇與信號殘差最匹配的原子,反復迭代,信號y可以由這些原子來線性和,再加上最後的殘差值來表示。很顯然,如果殘差值在可以忽略的范圍內,則信號y就是這些原子的線性組合。如果選擇與信號y最匹配的原子?如何構建稀疏逼近並求殘差?如何進行迭代?我們來詳細介紹使用MP進行信號分解的步驟:[1] 計算信號 y 與字典矩陣中每列(原子)的內積,選擇絕對值最大的一個原子,它就是與信號 y 在本次迭代運算中最匹配的。用專業術語來描述:令信號,從字典矩陣中選擇一個最為匹配的原子,滿足,r0 表示一個字典矩陣的列索引。這樣,信號 y 就被分解為在最匹配原子的垂直投影分量和殘值兩部分,即:。[2]對殘值R1f進行步驟[1]同樣的分解,那麼第K步可以得到.
I. "CMP"是什麼意思
CMP(計算機)
現在縮寫詞彙急劇增多,很多縮寫都有很多完全不同的意思,CMP也不例外。 計算機:Chip multiprocessors,單晶元多處理器,也指多核心; 電子:Chemical Mechanical polishing,化學機械拋光; 物理:Condensed Matter Physics,凝聚態物理;綜合布線:Plenum Cable,天花板隔層電纜; 晨風音樂:CenFun Music Player 晨風免費在線音樂播放器;稀疏信號重建:Complementary Matching Pursuit,補空間匹配追蹤演算法
J. 正交匹配追蹤 omp 為什麼 貪婪演算法
1. 信號的稀疏表示(sparse representation of signals) 給定一個過完備字典矩陣,其中它的每列表示一種原型信號的原子。給定一個信號y,它可以被表示成這些原子的稀疏線性組合。信號 y 可以被表達為 y = Dx ,或者。