神經網路演算法C
① 機器學習演算法之神經網路
在學習了機器學習的相關知識以後,我們知道其中的演算法有很多種,比如回歸演算法、K近鄰演算法等等,這些都是需要大家掌握的演算法,而神經網路演算法是一個十分實用的演算法,在這篇文章中我們就給大家介紹一下機器學習演算法中的神經網路演算法知識。
那麼什麼是神經網路演算法呢?其實神經網路也稱之為人工神經網路,簡單就是ANN,而演算法是80年代機器學習界非常流行的演算法,不過在90年代中途衰落。現在,隨著深度學習的發展,神經網路再次出現在大家的視野中,重新成為最強大的機器學習演算法之一。而神經網路的誕生起源於對大腦工作機理的研究。早期生物界學者們使用神經網路來模擬大腦。機器學習的學者們使用神經網路進行機器學習的實驗,發現在視覺與語音的識別上效果都相當好。
那麼神經網路的學習機理是什麼呢?簡單來說,就是分解與整合。我們可以通過一個例子進行解答這個問題,比如說,我們可以把一個正方形分解為四個折線進入視覺處理的下一層中。四個神經元分別處理一個折線。每個折線再繼續被分解為兩條直線,每條直線再被分解為黑白兩個面。於是,一個復雜的圖像變成了大量的細節進入神經元,神經元處理以後再進行整合,最後得出了看到的是正方形的結論。這就是大腦視覺識別的機理,也是神經網路工作的機理。
那麼神經網路的邏輯架構是什麼呢?其實一個簡單的神經網路的邏輯架構分成輸入層,隱藏層,和輸出層。輸入層負責接收信號,隱藏層負責對數據的分解與處理,最後的結果被整合到輸出層。每層中的一個圓代表一個處理單元,可以認為是模擬了一個神經元,若干個處理單元組成了一個層,若干個層再組成了一個網路,這就是所謂的神經網路知識。
當然,在神經網路中,其實每一個處理單元事實上就是一個邏輯回歸模型,邏輯回歸模型接收上層的輸入,這樣,把模型的預測結果作為輸出傳輸到下一個層次。這些過程,神經網路可以完成非常復雜的非線性分類。在神經網路在圖像識別領域的一個著名應用,而這個程序叫做LeNet,是一個基於多個隱層構建的神經網路。通過LeNet可以識別多種手寫數字,並且達到很高的識別精度與擁有較好的魯棒性。這也是神經網路中最著名的應用。
在這篇文章中我們給大家介紹了很多關於神經網路的相關知識,通過這些知識我們可以更好地了解神經網路演算法。當然,我們要想了解機器學習還需要掌握更多的演算法。