當前位置:首頁 » 操作系統 » 正交追蹤演算法

正交追蹤演算法

發布時間: 2022-04-17 16:18:13

❶ 稀疏度為1的信號,用壓縮感知恢復原始信號,匹配追蹤演算法(MP)和正交匹配追蹤演算法(OMP)的結果一樣嗎

壓縮感知(Compressed Sensing, CS)[1]理論具有全新的信號獲取和處理方式,該理論解決了傳統的Nyquist方法采樣頻率較高的問題,大大降低了稀疏信號精確重構所需的采樣頻率。
另外,CS理論在數據採集的同時完成數據壓縮,從而節約了軟、硬體資源及處理時間。
這些突出優點使其在信號處理領域有著廣闊的應用前景!

❷ OOMP演算法代碼

1. 信號的稀疏表示(sparse representation of signals)
給定一個過完備字典矩陣,其中它的每列表示一種原型信號的原子。給定一個信號y,它可以被表示成這些原子的稀疏線性組合。信號 y 可以被表達為 y = Dx ,或者。 字典矩陣中所謂過完備性,指的是原子的個數遠遠大於信號y的長度(其長度很顯然是n),即n<<k。
2.MP演算法(匹配追蹤演算法)
2.1 演算法描述
作為對信號進行稀疏分解的方法之一,將信號在完備字典庫上進行分解。
假定被表示的信號為y,其長度為n。假定H表示Hilbert空間,在這個空間H里,由一組向量構成字典矩陣D,其中每個向量可以稱為原子(atom),其長度與被表示信號 y 的長度n相同,而且這些向量已作為歸一化處理,即|,也就是單位向量長度為1。MP演算法的基本思想:從字典矩陣D(也稱為過完備原子庫中),選擇一個與信號 y 最匹配的原子(也就是某列),構建一個稀疏逼近,並求出信號殘差,然後繼續選擇與信號殘差最匹配的原子,反復迭代,信號y可以由這些原子來線性和,再加上最後的殘差值來表示。很顯然,如果殘差值在可以忽略的范圍內,則信號y就是這些原子的線性組合。如果選擇與信號y最匹配的原子?如何構建稀疏逼近並求殘差?如何進行迭代?我們來詳細介紹使用MP進行信號分解的步驟:[1] 計算信號 y 與字典矩陣中每列(原子)的內積,選擇絕對值最大的一個原子,它就是與信號 y 在本次迭代運算中最匹配的。用專業術語來描述:令信號,從字典矩陣中選擇一個最為匹配的原子,滿足,r0 表示一個字典矩陣的列索引。這樣,信號 y 就被分解為在最匹配原子的垂直投影分量和殘值兩部分,即:。[2]對殘值R1f進行步驟[1]同樣的分解,那麼第K步可以得到:
, 其中 滿足。可見,經過K步分解後,信號 y 被分解為:,其中。
2.2 繼續討論
(1)為什麼要假定在Hilbert空間中?Hilbert空間就是定義了完備的內積空。很顯然,MP中的計算使用向量的內積運算,所以在在Hilbert空間中進行信號分解理所當然了。什麼是完備的內積空間?篇幅有限就請自己搜索一下吧。
(2)為什麼原子要事先被歸一化處理了,即上面的描述。內積常用於計算一個矢量在一個方向上的投影長度,這時方向的矢量必須是單位矢量。MP中選擇最匹配的原子是,是選擇內積最大的一個,也就是信號(或是殘值)在原子(單位的)垂直投影長度最長的一個,比如第一次分解過程中,投影長度就是。,三個向量,構成一個三角形,且和正交(不能說垂直,但是可以想像二維空間這兩個矢量是垂直的)。
(3)MP演算法是收斂的,因為,和正交,由這兩個可以得出,得出每一個殘值比上一次的小,故而收斂。
2.3 MP演算法的缺點
如上所述,如果信號(殘值)在已選擇的原子進行垂直投影是非正交性的,這會使得每次迭代的結果並不少最優的而是次最優的,收斂需要很多次迭代。舉個例子說明一下:在二維空間上,有一個信號 y 被 D=[x1, x2]來表達,MP演算法迭代會發現總是在x1和x2上反復迭代,即,這個就是信號(殘值)在已選擇的原子進行垂直投影的非正交性導致的。再用嚴謹的方式描述[1]可能容易理解:在Hilbert空間H中,,,定義,就是它是這些向量的張成中的一個,MP構造一種表達形式:;這里的Pvf表示 f在V上的一個正交投影操作,那麼MP演算法的第 k 次迭代的結果可以表示如下(前面描述時信號為y,這里變成f了,請注意):
如果 是最優的k項近似值,當且僅當。由於MP僅能保證,所以一般情況下是次優的。這是什麼意思呢?是k個項的線性表示,這個組合的值作為近似值,只有在第k個殘差和正交,才是最優的。如果第k個殘值與正交,意味這個殘值與fk的任意一項都線性無關,那麼第k個殘值在後面的分解過程中,不可能出現fk中已經出現的項,這才是最優的。而一般情況下,不能滿足這個條件,MP一般只能滿足第k個殘差和xk正交,這也就是前面為什麼提到「信號(殘值)在已選擇的原子進行垂直投影是非正交性的」的原因。如果第k個殘差和fk不正交,那麼後面的迭代還會出現fk中已經出現的項,很顯然fk就不是最優的,這也就是為什麼說MP收斂就需要更多次迭代的原因。不是說MP一定得到不到最優解,而且其前面描述的特性導致一般得到不到最優解而是次優解。那麼,有沒有辦法讓第k個殘差與正交,方法是有的,這就是下面要談到的OMP演算法。

3.OMP演算法
3.1 演算法描述
OMP演算法的改進之處在於:在分解的每一步對所選擇的全部原子進行正交化處理,這使得在精度要求相同的情況下,OMP演算法的收斂速度更快。
那麼在每一步中如何對所選擇的全部原子進行正交化處理呢?在正式描述OMP演算法前,先看一點基礎思想。
先看一個 k 階模型,表示信號 f 經過 k 步分解後的情況,似乎很眼熟,但要注意它與MP演算法不同之處,它的殘值與前面每個分量正交,這就是為什麼這個演算法多了一個正交的原因,MP中僅與最近選出的的那一項正交。
(1)
k + 1 階模型如下:
(2)
應用 k + 1階模型減去k 階模型,得到如下:
(3)

我們知道,字典矩陣D的原子是非正交的,引入一個輔助模型,它是表示對前k個項的依賴,描述如下:
(4)
和前面描述類似,在span(x1, ...xk)之一上的正交投影操作,後面的項是殘值。這個關系用數學符號描述:
請注意,這里的 a 和 b 的上標表示第 k 步時的取值。
將(4)帶入(3)中,有:
(5)
如果一下兩個式子成立,(5)必然成立。
(6)
(7)
令,有

其中。
ak的值是由求法很簡單,通過對(7)左右兩邊添加作內積消減得到:

後邊的第二項因為它們正交,所以為0,所以可以得出ak的第一部分。對於,在(4)左右兩邊中與作內積,可以得到ak的第二部分。
對於(4),可以求出,求的步驟請參見參考文件的計算細節部分。為什麼這里不提,因為後面會介紹更簡單的方法來計算。
3.2 收斂性證明
通過(7),由於與正交,將兩個殘值移到右邊後求二范的平方,並將ak的值代入可以得到:

可見每一次殘差比上一次殘差小,可見是收斂的。
3.3 演算法步驟
整個OMP演算法的步驟如下:

由於有了上面的來龍去脈,這個演算法就相當好理解了。
到這里還不算完,後來OMP的迭代運算用另外一種方法可以計算得知,有位同學的論文[2]描述就非常好,我就直接引用進來:

對比中英文描述,本質都是一樣,只是有細微的差別。這里順便貼出網一哥們寫的OMP演算法的代碼,源出處不得而知,共享給大家。

再貼另外一個洋牛paper[3]中關於OMP的描述,之所以引入,是因為它描述的非常嚴謹,但是也有點苦澀難懂,不過有了上面的基礎,就容易多了。

它的描述中的Sweep步驟就是尋找與當前殘差最大的內積時列在字典矩陣D中的索引,它的這個步驟描述說明為什麼要選擇內積最大的以及如何選擇。見下圖,說的非常清晰。

它的演算法步驟Update Provisional Solution中求很簡單,就是在 b = Ax 已知 A和b求x, 在x的最小二范就是A的偽逆與b相乘,即:

❸ CAD怎麼使用正交模式/極軸追蹤模式繪制基本

cad中上正交模式的使用:
繪制水平、垂直線時用正交,按f8打開或關閉正交。
極軸追蹤模式的使用:
繪制特殊線時用到極軸追蹤模式,按f10打開或關閉極軸追蹤模式。

❹ 稀疏表示的性質

信號稀疏表示的目的就是在給定的超完備字典中用盡可能少的原子來表示信號,可以獲得信號更為簡潔的表示方式,從而使我們更容易地獲取信號中所蘊含的信息,更方便進一步對信號進行加工處理,如壓縮、編碼等。信號稀疏表示方向的研究熱點主要集中在稀疏分解演算法、超完備原子字典、和稀疏表示的應用等方面。
在稀疏表示理論未提出前,正交字典和雙正交字典因為其數學模型簡單而被廣泛的應用,然而他們有一個明顯的缺點就是自適應能力差,不能靈活全面地表示信號,1993年,Mallat基於小波分析提出了信號可以用一個超完備字典進行表示,從而開啟了稀疏表示的先河,經研究發現,信號經稀疏表示後,越稀疏則信號重建後的精度就越高,而且稀疏表示可以根據信號的自身特點自適應的選擇合適的超完備字典。對信號稀疏表示的目的就是尋找一個自適應字典使得信號的表達最稀疏。
稀疏分解演算法首先是由Mallat提出的,也就是眾所周知的匹配追蹤演算法(Matching Pursuit,MP)演算法,該演算法是一個迭代演算法,簡單且易於實現,因此得到了廣泛的應用。隨後,Pati等人基於MP演算法,提出了正交匹配追蹤演算法(Orthogonal Matching Pursuit,OMP),OMP演算法相較於MP演算法,收斂速度更快。在以後的研究中,為了改進OMP演算法,學者也提出了各種不同的其它演算法,例如:壓縮采樣匹配追蹤(Conpressive Sampling Matching Pursuit,CoSaMP)演算法、正則化正交匹配追蹤(Regularized Orthogonal Matching Pursuit,ROMP)演算法、分段式正交匹配追蹤(Stagewise OMP,StOMP)演算法、子空間追蹤(Subspace Pursuit,SP)演算法等等。
信號稀疏表示的兩大主要任務就是字典的生成和信號的稀疏分解,對於字典的選擇,一般有分析字典和學習字典兩大類。常用的分析字典有小波字典、超完備DCT字典和曲波字典等,用分析字典進行信號的稀疏表示時,雖然簡單易實現,但信號的表達形式單一且不具備自適應性;反之,學習字典的自適應能力強,能夠更好的適應不同的圖像數據,在目前的研究中,常用的學習字典的方法包括:Engan於1999年提出的最優方向(Method Of Optimal Directions,MOD)演算法,該演算法是學習字典的鼻祖,它的字典更新方式簡單,但與此同時,它的收斂速度很慢,在該演算法的基礎上,一些研究人員同時還提出了一些其它的字典學習演算法,如FOCUSS字典學習演算法,廣義PCA(Generalized PCA)演算法等等,Micheal Elad也於2006年提出了基於超完備字典稀疏分解的K-SVD演算法,該演算法相較於MOD演算法,收斂速度有了很大的提高,但是隨著雜訊的逐漸加大,使用該演算法進行去噪後的圖像因紋理細節的丟失會產生模糊的效果。Mairal於2010年提出了一種online字典學習演算法,該演算法速度較快且適用於一些特殊的信號處理,例如視頻信號,語音信號等等 。

❺ 正交追蹤是什麼

自動追蹤,在極軸追蹤或對象捕捉追蹤打開時可用。
正交情況下,無所謂追蹤不追蹤。

❻ 局部哈達瑪矩陣能實現對信號的壓縮嗎

針對現有測量矩陣的優缺點,採用具有良好相關性、隨機獨立性及快速計算的局部隨機化哈達瑪矩陣作為測量矩陣,同時針對標准正交匹配追蹤演算法在測量過程中受擾或在稀疏信號情況下難以穩定精確重構問題,提出了一種基於局部隨機化哈達瑪矩陣的正交多匹配追蹤演算法。該演算法利用局部隨機化哈達瑪矩陣的結構特性,能夠快速精確重構原信號。模擬結果表明,測量過程中存在雜訊或無噪,無論處理一維信號還是二維圖像信號時,該演算法性能均超過同類其他貪婪演算法和凸優化基匹配法

❼ cad 中「極軸追蹤」設置 的「僅正交追蹤」和「用所有軸測角設置追蹤」 什麼意思

僅正交追蹤是X軸和Y軸相交的追蹤,用所有軸測角設置追蹤是指只要是相交的都進行追蹤

❽ CAD中「對象捕捉追蹤設置」中「僅正交追蹤」和「用所有極軸角設置追蹤」有什麼區別啊請大家賜教,謝謝了

正交是只是撲捉x或者Y軸的平行線~~
極角是,跟坐標成一定角度倍數的都會捕捉到~~
比如45,90,135,....

❾ 在CAD中的極軸,正交,對象追蹤,對象捕捉,都起到什麼作用,

極軸是有各種角度的,像要畫45度的線就可以打開極軸畫了,如果是要畫90度的或者水平線就要用到正交,如果是要畫中點,或者移動某個線到特定的點上,對象追蹤跟對象捕捉就要開著,當然也要在對象捕捉上右擊-設置-對象捕捉-在對象捕捉模式里選擇所需要的點,同時打鉤啟用對象捕捉跟啟用對象捕捉追蹤。

❿ 正交匹配追蹤 omp 為什麼 貪婪演算法

1. 信號的稀疏表示(sparse representation of signals) 給定一個過完備字典矩陣,其中它的每列表示一種原型信號的原子。給定一個信號y,它可以被表示成這些原子的稀疏線性組合。信號 y 可以被表達為 y = Dx ,或者。

熱點內容
倒三角java編譯 發布:2024-09-30 05:05:39 瀏覽:16
電腦文件夾怎麼發到qq 發布:2024-09-30 04:37:48 瀏覽:650
蘋果手機網路緩存在哪裡清除安卓 發布:2024-09-30 04:20:52 瀏覽:407
spl資料庫 發布:2024-09-30 04:15:09 瀏覽:90
車輛解壓需要什麼材料 發布:2024-09-30 04:02:15 瀏覽:573
重差演算法 發布:2024-09-30 04:00:48 瀏覽:105
怎麼設置華為5700交換機配置 發布:2024-09-30 03:47:26 瀏覽:613
大數據存儲問題 發布:2024-09-30 03:42:25 瀏覽:262
舊電腦如何做游戲伺服器 發布:2024-09-30 03:42:25 瀏覽:374
windows伺服器和linux伺服器 發布:2024-09-30 03:33:14 瀏覽:399