調參數演算法
❶ 飽和度調整演算法
飽和度的定義大家可以自行查維基網路。飽和度又名色度、彩度。直觀而言,飽和度就是色彩的鮮艷程度或者飽和程度。從白色黑色以及白黑之間的所有灰色其飽和度都為0。飽和度越高說明包含某種顏色的成分越大。其實可以理解成某一個純色摻和了一些灰色或黑色或白色。因為灰色中包含 rgb 三種成分,所以也就導致了原本的 rgb 純色100%佔比開始下降。根據加入灰色的量,使得另外兩種顏色成分的增加,原本純色的飽和度進一步下降。
接下來介紹photoshop中飽和度調整演算法:
調整參數的本來的取值范圍為[-100, 100],經過歸一化後為[-1, 1],記為 pecent。我們需要遍歷一張圖片的所有像素。對於每個像素我們做如下操作:
假設我們的某個像素 P(其 rgb 通道的值分別為 RGB):
❷ 神經網路演算法中,參數的設置或者調整,有什麼方法可以採用
若果對你有幫助,請點贊。
神經網路的結構(例如2輸入3隱節點1輸出)建好後,一般就要求神經網路里的權值和閾值。現在一般求解權值和閾值,都是採用梯度下降之類的搜索演算法(梯度下降法、牛頓法、列文伯格-馬跨特法、狗腿法等等),這些演算法會先初始化一個解,在這個解的基礎上,確定一個搜索方向和一個移動步長(各種法算確定方向和步長的方法不同,也就使各種演算法適用於解決不同的問題),使初始解根據這個方向和步長移動後,能使目標函數的輸出(在神經網路中就是預測誤差)下降。 然後將它更新為新的解,再繼續尋找下一步的移動方向的步長,這樣不斷的迭代下去,目標函數(神經網路中的預測誤差)也不斷下降,最終就能找到一個解,使得目標函數(預測誤差)比較小。
而在尋解過程中,步長太大,就會搜索得不仔細,可能跨過了優秀的解,而步長太小,又會使尋解過程進行得太慢。因此,步長設置適當非常重要。
學習率對原步長(在梯度下降法中就是梯度的長度)作調整,如果學習率lr = 0.1,那麼梯度下降法中每次調整的步長就是0.1*梯度,
而在matlab神經網路工具箱里的lr,代表的是初始學習率。因為matlab工具箱為了在尋解不同階段更智能的選擇合適的步長,使用的是可變學習率,它會根據上一次解的調整對目標函數帶來的效果來對學習率作調整,再根據學習率決定步長。
機制如下:
if newE2/E2 > maxE_inc %若果誤差上升大於閾值
lr = lr * lr_dec; %則降低學習率
else
if newE2 < E2 %若果誤差減少
lr = lr * lr_inc;%則增加學習率
end
詳細的可以看《神經網路之家》nnetinfo里的《[重要]寫自己的BP神經網路(traingd)》一文,裡面是matlab神經網路工具箱梯度下降法的簡化代碼
若果對你有幫助,請點贊。
祝學習愉快
❸ PID整定的口訣是什麼
PID參數整定口訣:
參數整定找最佳,從小到大順序查
先是比例後積分,最後再把微分加
曲線振盪很頻繁,比例度盤要放大
曲線漂浮繞大灣,比例度盤往小扳
曲線偏離回復慢,積分時間往下降
曲線波動周期長,積分時間再加長
曲線振盪頻率快,先把微分降下來
動差大來波動慢,微分時間應加長
理想曲線兩個波,前高後低四比一
一看二調多分析,調節質量不會低
(3)調參數演算法擴展閱讀:
還有另一首簡化版的口訣:
參數整定尋最佳,從大到小順次查。
先是比例後積分,最後再把微分加。
曲線振盪很頻繁,比例度盤要放大。
曲線漂浮繞大彎,比例度盤往小扳。
曲線偏離回復慢,積分時間往下降。
曲線波動周期長,積分時間再加長。
理想曲線兩個波,調節過程高質量。
這是一首用經驗法進行PID參數工程整定的口訣,該口訣流傳至今已有幾十年了!其最早出現在1973年11月出版的《化工自動化》一書中。
上面的口訣大多是以該口訣作為藍本進行了補充和改編而來的。
如:「 曲線振盪頻率快,先把微分降下來,動差大來波動慢。微分時間應加長。」還有的加了:「 理想曲線兩個波,前高後低4比1,一看二調多分析,調節質量不會低。」等等。