當前位置:首頁 » 操作系統 » 推薦演算法矩陣分解

推薦演算法矩陣分解

發布時間: 2022-10-01 13:37:00

❶ 推薦演算法簡介

寫在最前面:本文內容主要來自於書籍《推薦系統實踐》和《推薦系統與深度學習》。

推薦系統是目前互聯網世界最常見的智能產品形式。從電子商務、音樂視頻網站,到作為互聯網經濟支柱的在線廣告和新穎的在線應用推薦,到處都有推薦系統的身影。推薦演算法是推薦系統的核心,其本質是通過一定的方式將用戶和物品聯系起來,而不同的推薦系統利用了不同的方式。

推薦系統的主要功能是以個性化的方式幫助用戶從極大的搜索空間中快速找到感興趣的對象。因此,目前所用的推薦系統多為個性化推薦系統。個性化推薦的成功應用需要兩個條件:

在推薦系統的眾多演算法中,基於協同的推薦和基於內容的推薦在實踐中得到了最廣泛的應用。本文也將從這兩種演算法開始,結合時間、地點上下文環境以及社交環境,對常見的推薦演算法做一個簡單的介紹。

基於內容的演算法的本質是對物品內容進行分析,從中提取特徵,然後基於用戶對何種特徵感興趣來推薦含有用戶感興趣特徵的物品。因此,基於內容的推薦演算法有兩個最基本的要求:

下面我們以一個簡單的電影推薦來介紹基於內容的推薦演算法。

現在有兩個用戶A、B和他們看過的電影以及打分情況如下:

其中問好(?)表示用戶未看過。用戶A對《銀河護衛隊 》《變形金剛》《星際迷航》三部科幻電影都有評分,平均分為 4 .7 分 ( (5+4+5 ) / 3=4.7 );對《三生三世》《美人魚》《北京遇上西雅圖》三部愛情電影評分平均分為 2.3 分 ( ( 3十2+2 ) /3=2.3 )。現在需要給A推薦電影,很明顯A更傾向於科幻電影,因此推薦系統會給A推薦獨立日。而對於用戶B,通過簡單的計算我們可以知道更喜歡愛情電影,因此給其推薦《三生三世》。當然,在實際推薦系統中,預測打分比這更加復雜些,但是其原理是一樣的。

現在,我們可以將基於內容的推薦歸納為以下四個步驟:

通過上面四步就能快速構建一個簡單的推薦系統。基於內容的推薦系統通常簡單有效,可解釋性好,沒有物品冷啟動問題。但他也有兩個明顯的缺點:

最後,順便提一下特徵提取方法:對於某些特徵較為明確的物品,一般可以直接對其打標簽,如電影類別。而對於文本類別的特徵,則主要是其主題情感等,則些可以通過tf-idf或LDA等方法得到。

基於協同的演算法在很多地方也叫基於鄰域的演算法,主要可分為兩種:基於用戶的協同演算法和基於物品的協同演算法。

啤酒和尿布的故事在數據挖掘領域十分有名,該故事講述了美國沃爾瑪超市統計發現啤酒和尿布一起被購買的次數非常多,因此將啤酒和尿布擺在了一起,最後啤酒和尿布的銷量雙雙增加了。這便是一個典型的物品協同過濾的例子。

基於物品的協同過濾指基於物品的行為相似度(如啤酒尿布被同時購買)來進行物品推薦。該演算法認為,物品A和物品B具有很大相似度是因為喜歡物品A的用戶大都也喜歡物品B。

基於物品的協同過濾演算法主要分為兩步:

基於物品的協同過濾演算法中計算物品相似度的方法有以下幾種:
(1)基於共同喜歡物品的用戶列表計算。

此外,John S. Breese再其論文中還提及了IUF(Inverse User Frequence,逆用戶活躍度)的參數,其認為活躍用戶對物品相似度的貢獻應該小於不活躍的用戶,應該增加IUF參數來修正物品相似度的公式:

上面的公式只是對活躍用戶做了一種軟性的懲罰, 但對於很多過於活躍的用戶, 比如某位買了當當網80%圖書的用戶, 為了避免相似度矩陣過於稠密, 我們在實際計算中一般直接忽略他的興趣列表, 而不將其納入到相似度計算的數據集中。

(2)基於餘弦相似度計算。

(3)熱門物品的懲罰。
從上面(1)的相似度計算公式中,我們可以發現當物品 i 被更多人購買時,分子中的 N(i) ∩ N(j) 和分母中的 N(i) 都會增長。對於熱門物品,分子 N(i) ∩ N(j) 的增長速度往往高於 N(i),這就會使得物品 i 和很多其他的物品相似度都偏高,這就是 ItemCF 中的物品熱門問題。推薦結果過於熱門,會使得個性化感知下降。以歌曲相似度為例,大部分用戶都會收藏《小蘋果》這些熱門歌曲,從而導致《小蘋果》出現在很多的相似歌曲中。為了解決這個問題,我們對於物品 i 進行懲罰,例如下式, 當α∈(0, 0.5) 時,N(i) 越小,懲罰得越厲害,從而使熱門物品相關性分數下降( 博主註:這部分未充分理解 ):

此外,Kary pis在研究中發現如果將ItemCF的相似度矩陣按最大值歸一化, 可以提高推薦的准確率。 其研究表明, 如果已經得到了物品相似度矩陣w, 那麼可以用如下公式得到歸一化之後的相似度矩陣w':

歸一化的好處不僅僅在於增加推薦的准確度,它還可以提高推薦的覆蓋率和多樣性。一般來說,物品總是屬於很多不同的類,每一類中的物品聯系比較緊密。假設物品分為兩類——A和B, A類物品之間的相似度為0.5, B類物品之間的相似度為0.6, 而A類物品和B類物品之間的相似度是0.2。 在這種情況下, 如果一個用戶喜歡了5個A類物品和5個B類物品, 用ItemCF給他進行推薦, 推薦的就都是B類物品, 因為B類物品之間的相似度大。 但如果歸一化之後, A類物品之間的相似度變成了1, B類物品之間的相似度也是1, 那麼這種情況下, 用戶如果喜歡5個A類物品和5個B類物品, 那麼他的推薦列表中A類物品和B類物品的數目也應該是大致相等的。 從這個例子可以看出, 相似度的歸一化可以提高推薦的多樣性。

那麼,對於兩個不同的類,什麼樣的類其類內物品之間的相似度高,什麼樣的類其類內物品相似度低呢?一般來說,熱門的類其類內物品相似度一般比較大。如果不進行歸一化,就會推薦比較熱門的類裡面的物品,而這些物品也是比較熱門的。因此,推薦的覆蓋率就比較低。相反,如果進行相似度的歸一化,則可以提高推薦系統的覆蓋率。

最後,利用物品相似度矩陣和用戶打過分的物品記錄就可以對一個用戶進行推薦評分:

基於用戶的協同演算法與基於物品的協同演算法原理類似,只不過基於物品的協同是用戶U購買了A物品,會計算經常有哪些物品與A一起購買(也即相似度),然後推薦給用戶U這些與A相似的物品。而基於用戶的協同則是先計算用戶的相似性(通過計算這些用戶購買過的相同的物品),然後將這些相似用戶購買過的物品推薦給用戶U。

基於用戶的協同過濾演算法主要包括兩個步驟:

步驟(1)的關鍵是計算用戶的興趣相似度,主要是利用用戶的行為相似度計算用戶相似度。給定用戶 u 和 v,N(u) 表示用戶u曾經有過正反饋(譬如購買)的物品集合,N(v) 表示用戶 v 曾經有過正反饋的物品集合。那麼我們可以通過如下的 Jaccard 公式簡單的計算 u 和 v 的相似度:

或通過餘弦相似度:

得到用戶之間的相似度之後,UserCF演算法會給用戶推薦和他興趣最相似的K個用戶喜歡的物品。如下的公式度量了UserCF演算法中用戶 u 對物品 i 的感興趣程度:

首先回顧一下UserCF演算法和ItemCF演算法的推薦原理:UserCF給用戶推薦那些和他有共同興趣愛好的用戶喜歡的物品, 而ItemCF給用戶推薦那些和他之前喜歡的物品具有類似行為的物品。

(1)從推薦場景考慮
首先從場景來看,如果用戶數量遠遠超過物品數量,如購物網站淘寶,那麼可以考慮ItemCF,因為維護一個非常大的用戶關系網是不容易的。其次,物品數據一般較為穩定,因此物品相似度矩陣不必頻繁更新,維護代價較小。

UserCF的推薦結果著重於反應和用戶興趣相似的小群體的熱點,而ItemCF的推薦結果著重於維系用戶的歷史興趣。換句話說,UserCF的推薦更社會化,反應了用戶所在小型興趣群體中物品的熱門程度,而ItemCF的推薦更加個性化,反應了用戶自己的個性傳承。因此UserCF更適合新聞、微博或微內容的推薦,而且新聞內容更新頻率非常高,想要維護這樣一個非常大而且更新頻繁的表無疑是非常難的。

在新聞類網站中,用戶的興趣愛好往往比較粗粒度,很少會有用戶說只看某個話題的新聞,而且往往某個話題也不是每天都會有新聞。 個性化新聞推薦更強調新聞熱點,熱門程度和時效性是個性化新聞推薦的重點,個性化是補充,所以 UserCF 給用戶推薦和他有相同興趣愛好的人關注的新聞,這樣在保證了熱點和時效性的同時,兼顧了個性化。

(2)從系統多樣性(也稱覆蓋率,指一個推薦系統能否給用戶提供多種選擇)方面來看,ItemCF的多樣性要遠遠好於UserCF,因為UserCF更傾向於推薦熱門物品。而ItemCF具有較好的新穎性,能夠發現長尾物品。所以大多數情況下,ItemCF在精度上較小於UserCF,但其在覆蓋率和新穎性上面卻比UserCF要好很多。

在介紹本節基於矩陣分解的隱語義模型之前,讓我們先來回顧一下傳統的矩陣分解方法SVD在推薦系統的應用吧。

基於SVD矩陣分解在推薦中的應用可分為如下幾步:

SVD在計算前會先把評分矩陣 A 缺失值補全,補全之後稀疏矩陣 A 表示成稠密矩陣,然後將分解成 A' = U∑V T 。但是這種方法有兩個缺點:(1)補成稠密矩陣後需要耗費巨大的儲存空間,對這樣巨大的稠密矩陣進行儲存是不現實的;(2)SVD的計算復雜度很高,對這樣大的稠密矩陣中進行計算式不現實的。因此,隱語義模型就被發明了出來。

更詳細的SVD在推薦系統的應用可參考 奇異值分解SVD簡介及其在推薦系統中的簡單應用 。

隱語義模型(Latent Factor Model)最早在文本挖掘領域被提出,用於找到文本的隱含語義。相關的演算法有LSI,pLSA,LDA和Topic Model。本節將對隱語義模型在Top-N推薦中的應用進行詳細介紹,並通過實際的數據評測該模型。

隱語義模型的核心思想是通過隱含特徵聯系用戶興趣和物品。讓我們通過一個例子來理解一下這個模型。

現有兩個用戶,用戶A的興趣涉及偵探小說、科普圖書以及一些計算機技術書,而用戶B的興趣比較集中在數學和機器學習方面。那麼如何給A和B推薦圖書呢?

我們可以對書和物品的興趣進行分類。對於某個用戶,首先得到他的興趣分類,然後從分類中挑選他可能喜歡的物品。簡言之,這個基於興趣分類的方法大概需要解決3個問題:

對於第一個問題的簡單解決方案是找相關專業人員給物品分類。以圖書為例,每本書出版時,編輯都會給出一個分類。但是,即使有很系統的分類體系,編輯給出的分類仍然具有以下缺點:(1)編輯的意見不能代表各種用戶的意見;(2)編輯很難控制分類的細粒度;(3)編輯很難給一個物品多個分類;(4)編輯很難給一個物品多個分類;(5)編輯很難給出多個維度的分類;(6)編輯很難決定一個物品在某一個類別中的權重。

為了解決上述問題,研究員提出可以從數據出發,自動找到那些分類,然後進行個性化推薦。隱語義模型由於採用基於用戶行為統計的自動聚類,較好地解決了上面提出的5個問題。

LFM將矩陣分解成2個而不是3個:

推薦系統中用戶和物品的交互數據分為顯性反饋和隱性反饋數據。隱式模型中多了一個置信參數,具體涉及到ALS(交替最小二乘法,Alternating Least Squares)中對於隱式反饋模型的處理方式——有的文章稱為「加權的正則化矩陣分解」:

一個小細節:在隱性反饋數據集中,只有正樣本(正反饋)沒有負反饋(負樣本),因此如何給用戶生成負樣本來進行訓練是一個重要的問題。Rong Pan在其文章中對此進行了探討,對比了如下幾種方法:

用戶行為很容易用二分圖表示,因此很多圖演算法都可以應用到推薦系統中。基於圖的模型(graph-based model)是推薦系統中的重要內容。很多研究人員把基於領域的模型也稱為基於圖的模型,因為可以把基於領域的模型看作基於圖的模型的簡單形式。

在研究基於圖的模型之前,需要將用戶行為數據表示成圖的形式。本節的數據是由一系列用戶物品二元組 (u, i) 組成的,其中 u 表示用戶對物品 i 產生過行為。

令 G(V, E) 表示用戶物品二分圖,其中 V=V U UV I 由用戶頂點 V U 和物品節點 V I 組成。對於數據集中每一個二元組 (u, i) ,圖中都有一套對應的邊 e(v u , v i ),其中 v u ∈V U 是用戶對應的頂點,v i ∈V I 是物品i對應的頂點。如下圖是一個簡單的物品二分圖,其中圓形節點代表用戶,方形節點代表物品,用戶物品的直接連線代表用戶對物品產生過行為。比如下圖中的用戶A對物品a、b、d產生過行為。

度量圖中兩個頂點之間相關性的方法很多,但一般來說圖中頂點的相關性主要取決於下面3個因素:

而相關性高的一對頂點一般具有如下特徵:

舉個例子,如下圖,用戶A和物品c、e沒有邊直連,但A可通過一條長度為3的路徑到達c,而Ae之間有兩條長度為3的路徑。那麼A和e的相關性要高於頂點A和c,因而物品e在用戶A的推薦列表中應該排在物品c之前,因為Ae之間有兩條路徑。其中,(A,b,C,e)路徑經過的頂點的出度為(3,2,2,2),而 (A,d,D,e) 路徑經過了一個出度比較大的頂點D,所以 (A,d,D,e) 對頂點A與e之間相關性的貢獻要小於(A,b,C,e)。

基於上面3個主要因素,研究人員設計了很多計算圖中頂點相關性的方法,本節將介紹一種基於隨機遊走的PersonalRank演算法。

假設要給用戶u進行個性化推薦,可以從用戶u對應的節點 v u 開始在用戶物品二分圖上進行隨機遊走。遊走到任一節點時,首先按照概率α決定是繼續遊走還是停止這次遊走並從 v u 節點重新開始遊走。若決定繼續遊走,則從當前節點指向的節點中按照均勻分布隨機選擇一個節點作為遊走下次經過的節點。這樣,經過很多次隨機遊走後,每個物品被訪問到的概率會收斂到一個數。最終的推薦列表中物品的權重就是物品節點的訪問概率。

上述演算法可以表示成下面的公式:

雖然通過隨機遊走可以很好地在理論上解釋PersonalRank演算法,但是該演算法在時間復雜度上有明顯的缺點。因為在為每個用戶進行推薦時,都需要在整個用戶物品二分圖上進行迭代,知道所有頂點的PR值都收斂。這一過程的時間復雜度非常高,不僅無法在線進行實時推薦,離線計算也是非常耗時的。

有兩種方法可以解決上面PersonalRank時間復雜度高的問題:
(1)減少迭代次數,在收斂之前停止迭代。但是這樣會影響最終的精度。

(2)從矩陣論出發,重新涉及演算法。另M為用戶物品二分圖的轉移概率矩陣,即:

網路社交是當今社會非常重要甚至可以說是必不可少的社交方式,用戶在互聯網上的時間有相當大的一部分都用在了社交網路上。

當前國外最著名的社交網站是Facebook和Twitter,國內的代表則是微信/QQ和微博。這些社交網站可以分為兩類:

需要指出的是,任何一個社交網站都不是單純的社交圖譜或興趣圖譜。如QQ上有些興趣愛好群可以認識不同的陌生人,而微博中的好友也可以是現實中認識的。

社交網路定義了用戶之間的聯系,因此可以用圖定義社交網路。我們用圖 G(V,E,w) 定義一個社交網路,其中V是頂點集合,每個頂點代表一個用戶,E是邊集合,如果用戶va和vb有社交網路關系,那麼就有一條邊 e(v a , v b ) 連接這兩個用戶,而 w(v a , v b )定義了邊的權重。一般來說,有三種不同的社交網路數據:

和一般購物網站中的用戶活躍度分布和物品流行度分布類似,社交網路中用戶的入度(in degree,表示有多少人關注)和出度(out degree,表示關注多少人)的分布也是滿足長尾分布的。即大部分人關注的人都很少,被關注很多的人也很少。

給定一個社交網路和一份用戶行為數據集。其中社交網路定義了用戶之間的好友關系,而用戶行為數據集定義了不同用戶的歷史行為和興趣數據。那麼最簡單的演算法就是給用戶推薦好友喜歡的物品集合。即用戶u對物品i的興趣 p ui 可以通過如下公式計算。

用戶u和用戶v的熟悉程度描述了用戶u和用戶在現實社會中的熟悉程度。一般來說,用戶更加相信自己熟悉的好友的推薦,因此我們需要考慮用戶之間的熟悉度。下面介紹3中衡量用戶熟悉程度的方法。

(1)對於用戶u和用戶v,可以使用共同好友比例來計算他們的相似度:

上式中 out(u) 可以理解為用戶u關注的用戶合集,因此 out(u) ∩ out(v) 定義了用戶u、v共同關注的用戶集合。

(2)使用被關注的用戶數量來計算用戶之間的相似度,只要將公式中的 out(u) 修改為 in(u):

in(u) 是指關注用戶u的集合。在無向社交網路中,in(u)和out(u)是相同的,而在微博這種有向社交網路中,這兩個集合的含義就不痛了。一般來說,本方法適合用來計算微博大V之間的相似度,因為大v往往被關注的人數比較多;而方法(1)適用於計算普通用戶之間的相似度,因為普通用戶往往關注行為比較豐富。

(3)除此之外,還可以定義第三種有向的相似度:這個相似度的含義是用戶u關注的用戶中,有多大比例也關注了用戶v:

這個相似度有一個缺點,就是在該相似度下所有人都和大v有很大的相似度,這是因為公式中的分母並沒有考慮 in(v) 的大小,所以可以把 in(v) 加入到上面公式的分母,來降低大v與其他用戶的相似度:

上面介紹了3種計算用戶之間相似度(或稱熟悉度)的計算方法。除了熟悉程度,還需要考慮用戶之間的興趣相似度。我們和父母很熟悉,但很多時候我們和父母的興趣確不相似,因此也不會喜歡他們喜歡的物品。因此,在度量用戶相似度時,還需要考慮興趣相似度,而興趣相似度可以通過和UserCF類似的方法度量,即如果兩個用戶喜歡的物品集合重合度很高,兩個用戶的興趣相似度很高。

最後,我們可以通過加權的形式將兩種權重合並起來,便得到了各個好有用戶的權重了。

有了權重,我們便可以針對用戶u挑選k個最相似的用戶,把他們購買過的物品中,u未購買過的物品推薦給用戶u即可。打分公式如下:

其中 w' 是合並後的權重,score是用戶v對物品的打分。

node2vec的整體思路分為兩個步驟:第一個步驟是隨機遊走(random walk),即通過一定規則隨機抽取一些點的序列;第二個步驟是將點的序列輸入至word2vec模型從而得到每個點的embedding向量。

隨機遊走在前面基於圖的模型中已經介紹過,其主要分為兩步:(1)選擇起始節點;(2)選擇下一節點。起始節點選擇有兩種方法:按一定規則抽取一定量的節點或者以圖中所有節點作為起始節點。一般來說會選擇後一種方法以保證所有節點都會被選取到。

在選擇下一節點方法上,最簡單的是按邊的權重來選擇,但在實際應用中需要通過廣度優先還是深度優先的方法來控制遊走范圍。一般來說,深度優先發現能力更強,廣度優先更能使社區內(較相似)的節點出現在一個路徑里。

斯坦福大學Jure Leskovec教授給出了一種可以控制廣度優先或者深度優先的方法。

以上圖為例,假設第一步是從t隨機遊走到v,這時候我們要確定下一步的鄰接節點。本例中,作者定義了p和q兩個參數變數來調節遊走,首先計算其鄰居節點與上一節點t的距離d,根據下面的公式得到α:

一般從每個節點開始遊走5~10次,步長則根據點的數量N遊走根號N步。如此便可通過random walk生成點的序列樣本。

得到序列之後,便可以通過word2vec的方式訓練得到各個用戶的特徵向量,通過餘弦相似度便可以計算各個用戶的相似度了。有了相似度,便可以使用基於用戶的推薦演算法了。

推薦系統需要根據用戶的歷史行為和興趣預測用戶未來的行為和興趣,因此大量的用戶行為數據就成為推薦系統的重要組成部分和先決條件。如何在沒有大量用戶數據的情況下設計個性化推薦系統並且讓用戶對推薦結果滿意從而願意使用推薦系統,就是冷啟動問題。

冷啟動問題主要分為三類:

針對用戶冷啟動,下面給出一些簡要的方案:
(1)有效利用賬戶信息。利用用戶注冊時提供的年齡、性別等數據做粗粒度的個性化;
(2)利用用戶的社交網路賬號登錄(需要用戶授權),導入用戶在社交網站上的好友信息,然後給用戶推薦其好友喜歡的物品;
(3)要求用戶在登錄時對一些物品進行反饋,手機用戶對這些物品的興趣信息,然後給用推薦那些和這些物品相似的物品;
(4)提供非個性化推薦。非個性化推薦的最簡單例子就是熱門排行榜,我們可以給用戶推薦熱門排行榜,然後等到用戶數據收集到一定的時候,在切換為個性化推薦。

對於物品冷啟動,可以利用新加入物品的內容信息,將它們推薦給喜歡過和他們相似的物品的用戶。

對於系統冷啟動,可以引入專家知識,通過一定高效的方式快速建立起物品的相關度表。

在上面介紹了一些推薦系統的基礎演算法知識,這些演算法大都是比較經典且現在還在使用的。但是需要注意的是,在實踐中,任何一種推薦演算法都不是單獨使用的,而是將多種推薦演算法結合起來,也就是混合推薦系統,但是在這里並不準備介紹,感興趣的可以查閱《推薦系統》或《推薦系統與深度學習》等書籍。此外,在推薦中非常重要的點擊率模型以及基於矩陣的一些排序演算法在這里並沒有提及,感興趣的也可自行學習。

雖然現在用的很多演算法都是基於深度學習的,但是這些經典演算法能夠讓我們對推薦系統的發展有一個比較好的理解,同時,更重要的一點——「推陳出新」,只有掌握了這些經典的演算法,才能提出或理解現在的一些更好地演算法。

❷ 推薦系統產品和演算法概述丨產品雜談系列

本文主要是對最近所學的推薦系統的總結,將會簡單概述非個性化範式、群組個性化範式、完全個性化範式、標的物關聯標的物範式、笛卡爾積範式等5種常用的推薦範式的設計思路。

許多產品的推薦演算法都依賴於三類數據:標的物相關的描述信息(如推薦鞋子,則包括鞋子的版型、適用對象、材質等信息、用戶畫像數據(指的是用戶相關數據,如性別、年齡、收入等)、用戶行為數據(例如用戶在淘寶上的瀏覽、收藏、購買等)。這三類數據是推薦模型的主要組成部分,除此之外一些人工標注的數據(例如為商品人工打上標簽)、第三方數據也能夠用於補充上述的三類數據。

服務端在有以上數據的基礎上,就可以從三個維度進行推薦:

根據個性化推薦的顆粒度,我們可以將基於用戶維度的推薦分為非個性化推薦、群組個性化推薦及完全個性化推薦三種類型。

非個性化推薦指的是每個用戶看到的推薦內容都是一樣的 在互聯網產品中,我們最常見的非個性化推薦的例子是各種排行榜,如下圖是酷狗音樂的排行榜推薦,通過各個維度計算各類榜單,不管是誰看到這個榜單,上面的排序和內容都是一致的。

群組個性化推薦指的是將具有相同特徵的用戶聚合成一組,同一組用戶在某些方面具備相似性,系統將為這一組用戶推薦一樣的內容 。這種推薦方式是很多產品進行用戶精細化運營時會採用的方式,通過用戶畫像系統圈定一批批用戶,並對這批用戶做統一的運營。例如音樂軟體的推薦播放,若以搖滾樂為基準將一批用戶聚合成組,則為這些用戶提供的每日推薦歌單是相同的內容和順序,但與另一組愛聽民謠的用戶相比,兩組用戶看到的每日推薦內容將是不同的。

完全個性化指的是為每個用戶推薦的內容都不一樣,是根據每一位用戶的行為及興趣來為用戶做推薦,是當今互聯網產品中最常用的一種推薦方式 。大多數情況下我們所說的推薦就是指這種形式的推薦,例如淘寶首頁的「猜你喜歡」就是一個完全個性化的推薦,千人千面,每個人看到的推薦尚品都不一樣。

完全個性化可以只基於用戶行為進行推薦,在構建推薦演算法時只考慮到用戶個人的特徵和行為 ,不需要考慮其他用戶,這也是最常見的內容推薦方式。除此之外, 還可以基於群組行為進行完全個性化推薦,除了利用用戶自身的行為外,還依賴於其他用戶的行為構建推薦演算法模型 。例如,用戶屬性和行為相似的一群用戶,其中90%的用戶買了A商品後也買了B商品,則當剩下的10%用戶單獨購買B商品時,我們可以為該用戶推薦商品A。

基於群組行為進行的完全個性化推薦可以認為是全體用戶的協同進化,常見的協同過濾、基於模型的推薦等都屬於這類推薦形式。

基於標的物的推薦指的是用戶在訪問標的物詳情頁或者退出標的物詳情頁時,可以根據標的物的描述信息為用戶推薦一批相似的或者相關的標的物,對應的是最開始提到的「標的物關聯標的物範式」 。如下圖酷狗的相似歌曲推薦,

除了音樂產品外,視頻網站、電商、短視頻等APP都大量使用基於標的物維度的推薦。如下圖便是YouTube基於標的物關聯標的物的推薦。在YouTube上我觀看一個周傑倫的音樂視頻時,YouTube在該頁面下方為我推薦更多與周傑倫有關的視頻。

基於用戶和標的物交叉維度的推薦指的是將用戶維度和標的物維度結合起來,不同用戶訪問同一標的物的詳情頁時看到的推薦內容也不一樣,對應的是開頭提到的笛卡爾積推薦範式。 拿酷狗音樂對相似歌曲的推薦來舉例,如果該推薦採用的是用戶和標的物交叉維度的推薦的話,不同用戶看到的「沒有理想的人不傷心」這首歌曲,下面的相似歌曲是不一樣的。拿淘寶舉例的話,一樣是搜索「褲子」這一關鍵詞,不同的人搜索得到的搜索結果和排序是不同的,可能用戶A搜索出來優先展示的是牛仔褲,而用戶B優先展示的是休閑褲,淘寶將結合搜索關鍵詞與用戶個人的歷史行為特徵展示對應的搜索結果和排序。

對於基於笛卡爾積推薦範式設計的推薦系統來說,由於每個用戶在每個標的物上的推薦列表都不一樣,我們是沒辦法是先將所有組合計算出來並儲存(組合過多,數量是非常巨大的),因此對於系統來說,能否在用戶請求的過程中快速地為用戶計算個性化推薦的標的物列表將會是一個比較大的挑戰,對於整個推薦系統的架構也有更高的要求,因此在實際應用中,該種推薦方式用的比較少。

非個性化範式指的是為所有用戶推薦一樣的標的物列表,常見的各種榜單就是基於此類推薦規則,如電商APP中的新品榜、暢銷榜等。排行榜就是基於某個規則來對標的物進行排序,將排序後的部分標的物推薦給用戶。例如新品榜是按照商品上架的時間順序來倒序排列,並將排序在前列的產品推薦給用戶。而暢銷榜則是按照商品銷量順序降序排列,為用戶推薦銷量靠前的商品。

根據具體的產品和業務場景,即使同樣是非個性化範式推薦,在具體實施時也可能會比較復雜。例如在電商APP中暢銷榜的推薦可能還會將地域、時間、價格等多個維度納入考慮范圍內,基於每個維度及其權重進行最終的排序推薦。

大部分情況下,非個性化範式推薦可以基於簡單的計數統計來生成推薦,不會用到比較復雜的機器學習演算法,是一種實施門檻較低的推薦方式。基於此,非個性化範式推薦演算法可以作為產品冷啟動或者默認的推薦演算法。

完全個性化範式是目前的互聯網產品中最常用的推薦模式,可用的推薦方法非常多。下面對常用的演算法進行簡單梳理。

該推薦演算法只需要考慮到用戶自己的歷史行為而不需要考慮其他用戶的行為,其核心思想是:標的物是有描述屬性的,用戶對標的物的操作行為為用戶打上了相關屬性的烙印,這些屬性就是用戶的興趣標簽,那麼我們就可以基於用戶的興趣來為用戶生成推薦列表。還是拿音樂推薦來舉例子,如果用戶過去聽了搖滾和民謠兩種類型的音樂,那麼搖滾和民謠就是這個用戶聽歌時的偏好標簽,此時我們就可以為該用戶推薦更多的搖滾類、民謠類歌曲。

基於內容的個性化推薦在實操中有以下兩類方式。

第一種是基於用戶特徵標識的推薦。
標的物是有很多文本特徵的,例如標簽、描述信息等,我們可以將這些文本信息基於某種演算法轉化為特徵向量。有了標的物的特徵向量後,我們可以將用戶所有操作過的標的物的特徵向量基於時間加權平均作為用戶的特徵向量,並根據用戶特徵向量與標的物特徵向量的乘積來計算用戶與標的物的相似度,從而計算出該用戶的標的物推薦列表。

第二種是基於倒排索引查詢的推薦。
如果我們基於標的物的文本特徵(如標簽)來表示標的物屬性,那麼基於用戶對該標的物的歷史行為,我們可以構建用戶畫像,該畫像即是用戶對於各個標簽的偏好,並且對各個標簽都有相應的偏好權重。

在構建完用戶畫像後,我們可以基於標簽與標的物的倒排索引查詢表,以標簽為關鍵詞,為用戶進行個性化推薦。

舉個粗暴的例子,有歌曲A、B、C分別對應搖滾、民謠、古風三個音樂標簽,我聽了歌曲A、B,則在我身上打了搖滾和民謠的標簽,又基於我聽這兩個歌曲的頻率,計算了我對「搖滾」和「民謠」的偏好權重。
在倒排索引查詢表中,搖滾和民謠又會分別對應一部分歌曲,所以,可以根據我對搖滾和民謠的偏好權重從查詢表中篩選一部分歌曲並推薦給我。

基於倒排索引查詢的推薦方式是非常自然直觀的,只要用戶有一次行為,我們就可以據此為用戶進行推薦。但反過來,基於用戶興趣給用戶推薦內容,容易局限推薦范圍,難以為用戶推薦新穎的內容。

基於協同過濾的推薦演算法,核心思想是很樸素的」物以類聚、人以群分「的思想。所謂物以類聚,就是計算出每個標的物最相似的標的物列表,我們就可以為用戶推薦用戶喜歡的標的物相似的標的物,這就是基於物品的協同過濾。所謂人以群分,就是我們可以將與該用戶相似的用戶喜歡過的標的物(而該用戶未曾操作過)的標的物推薦給該用戶,這就是基於用戶的協同過濾。

常見的互聯網產品中,很多會採用基於標的物的協同過濾,因為相比之下用戶的變動概率更大,增長速度可能較快,這種情況下,基於標的物的協同過濾演算法將會更加的穩定。

協同過濾演算法思路非常簡單直觀,也易於實現,在當今的互聯網產品中應用廣泛。但協同過濾演算法也有一些難以避免的問題,例如產品的冷啟動階段,在沒有用戶數據的情況下,沒辦法很好的利用協同過濾為用戶推薦內容。例如新商品上架時也會遇到類似的問題,沒有收集到任何一個用戶對其的瀏覽、點擊或者購買行為,也就無從基於人以群分的概念進行商品推薦。

基於模型的推薦演算法種類非常多,我了解到的比較常見的有遷移學習演算法、強化學習演算法、矩陣分解演算法等,且隨著近幾年深度學習在圖像識別、語音識別等領域的進展,很多研究者和實踐者也將其融入到推薦模型的設計當中,取得了非常好的效果。例如阿里、京東等電商平台,都是其中的佼佼者。

由於該演算法涉及到比較多的技術知識,在下也處於初步學習階段,就不班門弄斧做過多介紹了,有興趣的朋友可以自行進行學習。

群組個性化推薦的第一步是將用戶分組,因此,採用什麼樣的分組原則就顯得尤為重要。常見的分組方式有兩種。

先基於用戶的人口統計學數據(如年齡、性別等)或者用戶行為數據(例如對各種不同類型音樂的播放頻率)構建用戶畫像。用戶畫像一般用於做精準的運營,通過顯示特徵將一批人圈起來形成同一組,對這批人做針對性的運營。因為前頭已經提到此演算法,這里不再重復介紹。

聚類是非常直觀的一種分組思路,將行為偏好相似的用戶聚在一起成為一個組,他們有相似的興趣。常用的聚類策略有如下兩類。

標的物關聯標的物就是為每個標的物推薦一組標的物。該推薦演算法的核心是怎麼從一個標的物關聯到其他的標的物。這種關聯關系可以是相似的(例如嘉士伯啤酒和喜力啤酒),也可以是基於其他維度的關聯(例如互補品,羽毛球拍和羽毛球)。常用的推薦策略是相似推薦。下面給出3種常用的生成關聯推薦的策略。

這類推薦方式一般是利用已知的數據和標的物信息來描述一個標的物,通過演算法的方式將其向量化,從而根據不同標的物向量之間的相似度來急速標的物之間的相似度,從而實現相識標的物的推薦。

在一個成熟的產品中,我們可以採集到的非常多的用戶行為,例如在電商平台中,我們可以手機用戶搜索、瀏覽、收藏、點贊等行為,這些行為就代表了用戶對某個標的物的某種偏好,因此,我們可以根據用戶的這些行為來進行關聯推薦。

例如,可以將用戶的行為矩陣分解為用戶特徵矩陣和物品特徵矩陣,物品特徵矩陣可以看成是衡量物品的一個向量,利用該向量我們就可以計算兩個標的物之間的相似度了,從而為該用戶推薦相似度高的其他產品。

再例如, 採用購物籃的思路做推薦,這種思路非常適合圖書、電商等的推薦 。 以電商為例,我們可以把用戶經常一起瀏覽(或者購買)的商品形成一個列表,將過去一段時間所有的列表收集起來。對於任何一個商品,我們都可以找到與它一起被瀏覽或者購買的其他商品及其次數,並根據次數來判斷其關聯性,從而進行關聯推薦。

我們可以對用戶進行分組,同樣,我們也能夠對標的物進行聚類分組。通過某位參考維度,我們將一些列具有相似性的標的物分成一組,當我們為用戶進行推薦的時候,便可以將同一組內的其他標的物作為推薦對象,推薦給用戶。

笛卡爾積範式的推薦演算法一般是先採用標的物關聯標的物範式計算出待推薦的標的物列表。再根據用戶的興趣來對該推薦列表做調整(例如根據不同興趣的權重重新調整推薦列表的排序)、增加(例如基於個性化增加推薦對象)、刪除(例如過濾掉已經看過的),由於其復雜程度較高在實際業務場景中應用較少,這邊不再詳細介紹。

好了,本次的介紹就到此為止了。本次主要是做了一個非常簡單的推薦演算法概述,在實際的業務場景中,還經常需要與產品形態或者更多的未讀(如時間、地點等)相結合,是一個很有意思的領域,有興趣的朋友可以進一步了解。

❸ 高等數學三重積分

這是二重積分

❹ 向大家請教矩陣的奇異值分解的具體演算法

schmit正交化方法,你上網查吧,實在打不出來,線性代數任何一本教材中應該都有的

❺ 矩陣分解的奇異值分解法

奇異值分解 (singular value decomposition,SVD) 是另一種正交矩陣分解法;SVD是最可靠的分解法,但是它比QR 分解法要花上近十倍的計算時間。[U,S,V]=svd(A),其中U和V分別代表兩個正交矩陣,而S代表一對角矩陣。 和QR分解法相同, 原矩陣A不必為正方矩陣。使用SVD分解法的用途是解最小平方誤差法和數據壓縮
MATLAB以svd函數來執行svd分解法, 其語法為[S,V,D]=svd(A)。

❻ 正定矩陣因子分解法(PMF)

3.2.4.1 方法建立

就全國范圍而言,我國地下水質量總體較好,根據國家《地下水質量標准》(GB/T 14848—93),我國63%的地區地下水可直接飲用,17%經適當處理後可供飲用,12%不宜飲用,剩餘8%為天然的鹹水和鹽水,由此可見,不宜飲用的地下水和天然鹹水、鹽水佔到了20%,對於這些地下水型水源地飲用水指標並不一定受到污染而存在超標現象,其水質可能受到地下水形成演化影響更為明顯,因此,考慮選擇反映地下水形成、演化的地下水水化學類型常規指標,進行影響因素解析。地下水水質指標在取樣與分析過程中,由於取樣和樣品處理、試劑和水純度、儀器量度和儀器潔凈、採用的分析方法、測定過程以及數據處理等過程均會產生測量誤差(系統誤差,隨機誤差,過失誤差)。從取樣到分析結果計算誤差都絕對存在,雖然在各個過程中進行質量控制,但無法完全消除不確定性的影響,為確保分析結果的可靠性,採用PMF法對地下水水質指標考慮一定的不確定性誤差,使分析數據能夠准確地反映實際情況。

PMF(Positive Matrix Factorization)與主成分分析(PCA)、因子分析(FA)都是利用矩陣分解來解決實際問題的分析方法,在這些方法中,原始的大矩陣被近似分解為低秩的V=WH形式。但PMF與PCA和FA不同,PCA、FA方法中因子W和H中的元素可為正或負,即使輸入的初始矩陣元素全是正的,傳統的秩削減演算法也不能保證原始數據的非負性。在數學上,從計算的觀點看,分解結果中存在負值是正確的,但負值元素在實際問題中往往是沒有意義的。PMF是在矩陣中所有元素均為非負數約束條件之下的矩陣分解方法,在求解過程中對因子載荷和因子得分均做非負約束,避免矩陣分解的結果中出現負值,使得因子載荷和因子得分具有可解釋性和明確的物理意義。PMF使用最小二乘方法進行迭代運算,能夠同時確定污染源譜和貢獻,不需要轉換就可以直接與原始數據矩陣作比較,分解矩陣中元素非負,使得分析的結果明確而易於解釋,可以利用不確定性對數據質量進行優化,是美國國家環保局(EPA)推薦的源解析工具。

3.2.4.2 技術原理

PMF:模型是一種基於因子分析的方法,具有不需要測量源指紋譜、分解矩陣中元素非負、可以利用數據標准偏差來進行優化等優點。目前PMF模型此方法成功用於大氣氣溶膠、土壤和沉積物中持久性有毒物質的源解析,已有成熟的應用模型 PMF1.1,PMF2.0,PMF3.0等。PMF模型基本方程為:

Xnm=GnpFpm+E (3.7)

式中:n——取樣點數;

m——各取樣點測試的成分數量;

p——污染源個數;

Xnm——取樣點各成分含量;

Gnp——主要源的貢獻率;

Fpm——源指紋圖譜。

基本計算過程如下:

1)樣品數據無量綱化,無量綱化後的樣品數據矩陣用D表示。

2)協方差矩陣求解,為計算特徵值和特徵向量,可先求得樣品數據的協方差矩陣,用D′為D的轉置,演算法為:

Z=DD′ (3.8)

3)特徵值及特徵向量求解,用雅各布方法可求得協方差矩陣Z的特徵值矩陣E和特徵向量矩陣Q,Q′表示Q的轉置。這時,協方差矩陣可表示為:

Z=QEQ′ (3.9)

4)主要污染源數求解,為使高維變數空間降維後能盡可能保留原來指標信息,利用累計方差貢獻率提取顯著性因子,判斷條件為:

地下水型飲用水水源地保護與管理:以吳忠市金積水源地為例

式中:n——顯著性因子個數;

m——污染物個數;

λ——特徵值。

5)因子載荷矩陣求解,提取顯著性因子後,利用求解得到的特徵值矩陣E和特徵向量矩陣Q進一步求得因子載荷矩陣S和因子得分矩陣C,這時,因子載荷矩陣可表示為:

S=QE1/2 (3.11)

因子得分矩陣可表示為:

C=(S′S)-1S′D (3.12)

6)非負約束旋轉,由步驟5求得的因子載荷矩陣S和因子得分矩陣C分別對應主要污染源指紋圖譜和主要污染源貢獻,為解決其值可能為負的現象,需要做非負約束的旋轉。

7)首先利用轉換矩陣T1對步驟5求得的因子載荷矩陣S和因子得分矩陣C按下式進行旋轉:

地下水型飲用水水源地保護與管理:以吳忠市金積水源地為例

C1=T1C (3.14)

式中:S1——旋轉後的因子載荷矩陣;

C1——旋轉後的因子得分矩陣;

T1——轉換矩陣,且T1=(CC′)(CC′)-1(其中:C為把C中的負值替換為零後的因子得分矩陣)。

8)利用步驟7中旋轉得到的因子載荷矩陣S1構建轉換矩陣T2對步驟5中旋轉得到的因子載荷矩陣S1和因子得分矩陣C1繼續旋轉:

S2=S1T2 (3.15)

地下水型飲用水水源地保護與管理:以吳忠市金積水源地為例

式中:S2——二次旋轉後的因子載荷矩陣;

C2——二次旋轉後的因子得分矩陣;

T2——二次轉換矩陣,且T2=(S′1+S1-1(S′1+

)(其中:

為S1中的負值換為零後的因子載荷矩陣)。

9):重復步驟7、8,直到因子載荷中負值的平方和小於某一設定的誤差精度e而終止,最終得到符合要求的因子載荷矩陣S,即主要污染源指紋圖譜。

3.2.4.3 方法流程

針對受體采樣數據直接進行矩陣分解,得到各污染源組分及其貢獻率的統計方法(圖3.5)。

圖3.5 方法流程圖

(1)缺失值處理

正定矩陣因子分析是基於多元統計的分析方法,對數據有效性具有一定的要求,因此在進行分析之前首先對數據進行預處理。根據已有數據的特徵結合實際情況主要有以下5種處理方法。

1)采樣數據量充足的情況下直接丟棄含缺失數據的記錄。

2)存在部分缺失值情況下用全局變數或屬性的平均值來代替所有缺失數據。把全局變數或是平均值看作屬性的一個新值。

3)先根據歐式距離或相關分析來確定距離具有缺失數據樣本最近的K個樣本,將這K個值加權平均來估計該樣本的缺失數據。

4)採用預測模型來預測每一個缺失數據。用已有數據作為訓練樣本來建立預測模型,如神經網路模型預測缺失數據。該方法最大限度地利用已知的相關數據,是比較流行的缺失數據處理技術。

5)對低於數據檢測限的數據可用數據檢測限值或1/2檢測限以及更小比例檢測限值代替。

(2)不確定性處理

計算數據不確定性。

地下水型飲用水水源地保護與管理:以吳忠市金積水源地為例

式中:s——誤差百分數;

c——指標濃度值;

l——因子數據檢出限。

(3)數據合理性分析

本研究所用數據在放入模型前以信噪比S/N(Signal to Noise)作為標准進行篩選,信噪比S/N為:

地下水型飲用水水源地保護與管理:以吳忠市金積水源地為例

式中:xij——第i采樣點第j個樣品的濃度;

sij——第i采樣點第j個樣品的標准偏差。

信噪比小,說明樣品的雜訊大,信噪比越大則表示樣品檢出的可能性越大,越適合模型。

(4)數據輸入及因子分析

與其他因子分析方法一樣,PMF不能直接確定因子數目。確定因子數目的一般方法是嘗試多次運行軟體,根據分析結果和誤差,Q值以及改變因子數目時Q值的相對變化等來確定合理的因子數目。

3.2.4.4 適用范圍

PMF對污染源和貢獻施加了非負限制,並考慮了原始數據的不確定性,對數據偏差進行了校正,使結果更具有科學的解釋。PMF使用最小二乘方法,得到的污染源不需要轉換就可以直接與原始數據矩陣作比較,PMF方法能夠同時確定污染源和貢獻,而不需要事先知道源成分譜。適用於水文地質條件簡單,觀測數據量較大,污染源和污染種類相對較少的地區,運用簡便,可應用分析軟體進行計算。

3.2.4.5 NMF 源解析

NMF在實現上較PMF演算法簡單易行,非負矩陣分解根據目的的不同大致可以分為兩種:一是在保證數據某些性質的基礎上,將高維空間的樣本點映射到某個低維空間上,除去一些不重要的細節,獲得原數據的本質信息;二是在從復雜混亂的系統中得到混合前的獨立信息的種類和強度。因此,基於非負矩陣分解過程應用領域的不同,分解過程所受的約束和需要保留的性質都不相同。本書嘗試性地將NMF演算法應用於水質影響因素的分離計算中(表3.2)。

表3.2 RMF矩陣分解權值表

依照非負矩陣分解理論的數學模型,尋找到一個分解過程V≈WH,使WH和V無限逼近,即盡可能縮小二者的誤差。在確保逼近的效果,定義一個相應的衡量標准,這個衡量標准就叫作目標函數。目標函數一般採用歐氏距離和散度偏差來表示。在迭代過程中,採用不同的方法對矩陣W和H進行初始化,得到的結果也會不同,演算法的性能主要取決於如何對矩陣W和H進行初始化。傳統的非負矩陣演算法在對矩陣W和H賦初值時採用隨機方法,這樣做雖然簡單並且容易實現,但實驗的可重復性以及演算法的收斂速度是無法用隨機初始化的方法來控制的,所以這種方法並不理想。許多學者提出改進W和H的初始化方法,並發展出專用性比較強的形式眾多的矩陣分解演算法,主要有以下幾種:局部非負矩陣分解(Local Non-negative Matrix Factorization,LNMF)、加權非負矩陣分解(Weighted Non-negative Matrix Factorization,WNMF)、Fisher非負矩陣分解(Fisher Non-negative Matrix Factorization,FNMF)、稀疏非負矩陣分解(Sparse Non-negative Matrix Factorization,SNMF)、受限非負矩陣分解(Constrained Non-negative Matrix Factorization,CNMF)、非平滑非負矩陣分解(Non-smooth Non-negative Matrix Factorization,NSNMF)、稀疏受限非負矩陣分解(Nonnegative Matrix Factorization with Sparseness Constraints,NMF-SC)等理論方法,這些方法針對某一具體應用領域對NMF演算法進行了改進。

本書嘗試應用MATLAB工具箱中NNMF程序與改進的稀疏非負矩陣分解(SNMF)對研究區11項指標(同PMF數據)進行分解,得到各元素在綜合成分中的得分H,初始W0,H0採用隨機法取初值。r為分解的基向量個數,合適的r取值主要根據試演算法確定,改變r值觀察誤差值變化情況,本書利用SMNF演算法計算時,r分別取2,3,4,採用均方誤差對迭代結果效果進行評價,結果顯示當r取2,4時誤差值為0.034,取3時誤差值為0.016,因此r=3是較合理的基向量個數。採用NNMF演算法進行計算時,利用MATLAB工具箱提供的兩種計演算法分別進行計算,乘性法則(Multiplicative Update Algorithm)計算結果誤差項比最小二乘法(Alternating Least-squares Algorithm)計算誤差值小且穩定,但總體NNMF計算誤差較大,改變初始W0,H0取值和增加迭代次數誤差均未明顯減小,調整r取值,隨著r值的增大誤差逐漸減小。

對比SNMF和NNMF演算法所得權值結果,兩種方法所得權值趨勢一致,但得分值有所不同,由於SNMF演算法對矩陣進行了稀疏性約束,計算結果中較小的權值更趨近於0,兩次結果中在三個基向量上總體權值較大的元素項為T-Hard、

、Mg2+、Ca2+

,從盲源分離的角度來看該幾種元素對地下水具有較大的影響,但從地下水水質影響因素來看,該方法對數據的分析偏重於突出局部數據的特徵,在各因素相關性較大但含量不高的情況下,容易忽略了關鍵的影響因素。從權值得分來看,SNMF法解析的第一個基向量上的元素包括EC、T-Hard、NH4—N、

、TDS;第二基向量主要有Na+、Mg2+、Cl-;第三個基向量

、Ca2+,從結果可以看出該方法進行矩陣分解並未得到可合理解釋的源項結果,方法有待進一步研究及驗證。

❼ 簡要智能閱讀中智能推薦的技術原理

智能推薦演算法總的來說分為兩種:基於內容的推薦演算法和協同過濾推薦演算法。

基於內容的推薦演算法:

根據內容的相似度(靜態的東西)進行推薦,內容不好提取的可以採取貼標簽的形式來區分計算內容的相似程度。然後根據用戶的喜好設置,關注等進行相似內容推薦。

協同過濾推薦演算法:

根據動態信息來進行推薦,即推薦的過程是自動的,推薦結果的產生是系統從用戶的購買行為或瀏覽記錄等隱式信息拿到的,無需用戶通過填表格等方式來明確自己的喜好。因為這些數據都是要讀到內存中進行運算的,所以又叫基於內存的協同過濾(Memory-based Collaborative Filtering),另一種協同過濾演算法則是基於模型的協同過濾(Model-based Collaborative Filtering);m個物品,m個用戶的數據,只有部分用戶和部分數據之間是有評分數據的,其它部分評分是空白,此時我們要用已有的部分稀疏數據來預測那些空白的物品和數據之間的評分關系,找到最高評分的物品推薦給用戶。對於這個問題,用機器學習的思想來建模解決,主流的方法可以分為:用關聯演算法,聚類演算法,分類演算法,回歸演算法,矩陣分解,神經網路,圖模型以及隱語義模型來解決。

(https://www.cnblogs.com/chenliyang/p/6548306.html)

而基於內存的協同過濾又有兩種:

  • 基於user的協同過濾(用戶相似度):通過相似用戶的喜好來推薦

  • 基於item的協同過濾(內容相似度):通過用戶對項目的不同評分推薦可能讓用戶打高評分的項目,是項目之間的相似度。

  • 任何一種單一推薦演算法都有缺點,我們在實際項目中,可以採用混合推薦演算法,融合以上方法,通過串聯並聯等融合,構造出自己的一套推薦體系。

❽ 怎麼樣在真實推薦系統中應用矩陣分解演算法

裡面有自帶的LU分解函數,你可在幫助文檔搜索 LU 給你一個我自己寫的LU分解函數 function [myl,myu,x]=MYLU(A,b) %依據《現代電力系統分析》編制的LU分解程序。 %matlab自帶的lu函數與書上所講略有不同,不方便參照課本步驟進行後續計算。 %A為待分解的矩陣,myl為分解後下三角矩陣,myu為分解後的上三角矩陣,未考慮單獨的對角陣D %clc %A=[5,0,0,5,1;2,1,1,0,0;0,1,2,0,10;1,0,5,1,0;1,1,0,3,10] %兩組測試用矩陣方程 %b=[1,3,3,4,1]'; %M=[1,2,1,1;2,1,0,0;1,0,1,0;1,0,0,1] %b=[-1,1,2,0]' %A=[2,3,1;3,7,-1;5,-4,2] %b=[12,13,5]' n=length(A); myl=speye(n); %可以先不分配內存,由系統自動分配內存 myu=speye(n); %==============LU分解================ for i=1:n for j=1:n if (i<j) x=0; for k=1:i-1 x=x+myl(i,k)*myu(k,j); end myu(i,j)=(A(i,j)-x)/myl(i,i); end if(i>=j) x=0; for k=1:j-1 x=x+myl(i,k)*myu(k,j); end myl(i,j)=A(i,j)-x; end end end %B=myl*myu %測試LU分解矩陣,B=A表明結果正確 %===============解方程Ax=b================ y=(zeros(1,n))'; x=(zeros(1,n))'; y(1)=b(1)/myl(1,1);%解Ly=b for i=2:n p=0; for k=1:i-1 p=p+myl(i,k)*y(k); end y(i)=(b(i)-p)/myl(i,i); end %C=(myl*y) %測試Ly=b,如果相等表明結果正確 x(n)=y(n); for i=1:n-1 p=0; for k=n-i+1:n p=p+myu(n-i,k)*x(k); end x(n-i)=y(n-i)-p; end %D=myl*myu*x 裡面注釋部分可以刪除

❾ 矩陣分解在協同過濾推薦演算法中的應用

矩陣分解在協同過濾推薦演算法中的應用
推薦系統是當下越來越熱的一個研究問題,無論在學術界還是在工業界都有很多優秀的人才參與其中。近幾年舉辦的推薦系統比賽更是一次又一次地把推薦系統的研究推向了高潮,比如幾年前的Neflix百萬大獎賽,KDD CUP 2011的音樂推薦比賽,去年的網路電影推薦競賽,還有最近的阿里巴巴大數據競賽。這些比賽對推薦系統的發展都起到了很大的推動作用,使我們有機會接觸到真實的工業界數據。我們利用這些數據可以更好地學習掌握推薦系統,這些數據網上很多,大家可以到網上下載。
推薦系統在工業領域中取得了巨大的成功,尤其是在電子商務中。很多電子商務網站利用推薦系統來提高銷售收入,推薦系統為Amazon網站每年帶來30%的銷售收入。推薦系統在不同網站上應用的方式不同,這個不是本文的重點,如果感興趣可以閱讀《推薦系統實踐》(人民郵電出版社,項亮)第一章內容。下面進入主題。
為了方便介紹,假設推薦系統中有用戶集合有6個用戶,即U={u1,u2,u3,u4,u5,u6},項目(物品)集合有7個項目,即V={v1,v2,v3,v4,v5,v6,v7},用戶對項目的評分結合為R,用戶對項目的評分范圍是[0, 5]。R具體表示如下:

推薦系統的目標就是預測出符號「?」對應位置的分值。推薦系統基於這樣一個假設:用戶對項目的打分越高,表明用戶越喜歡。因此,預測出用戶對未評分項目的評分後,根據分值大小排序,把分值高的項目推薦給用戶。怎麼預測這些評分呢,方法大體上可以分為基於內容的推薦、協同過濾推薦和混合推薦三類,協同過濾演算法進一步劃分又可分為基於基於內存的推薦(memory-based)和基於模型的推薦(model-based),本文介紹的矩陣分解演算法屬於基於模型的推薦。
矩陣分解演算法的數學理論基礎是矩陣的行列變換。在《線性代數》中,我們知道矩陣A進行行變換相當於A左乘一個矩陣,矩陣A進行列變換等價於矩陣A右乘一個矩陣,因此矩陣A可以表示為A=PEQ=PQ(E是標准陣)。
矩陣分解目標就是把用戶-項目評分矩陣R分解成用戶因子矩陣和項目因子矩陣乘的形式,即R=UV,這里R是n×m, n =6, m =7,U是n×k,V是k×m。直觀地表示如下:

高維的用戶-項目評分矩陣分解成為兩個低維的用戶因子矩陣和項目因子矩陣,因此矩陣分解和PCA不同,不是為了降維。用戶i對項目j的評分r_ij =innerproct(u_i, v_j),更一般的情況是r_ij =f(U_i, V_j),這里為了介紹方便就是用u_i和v_j內積的形式。下面介紹評估低維矩陣乘積擬合評分矩陣的方法。
首先假設,用戶對項目的真實評分和預測評分之間的差服從高斯分布,基於這一假設,可推導出目標函數如下:

最後得到矩陣分解的目標函數如下:

從最終得到得目標函數可以直觀地理解,預測的分值就是盡量逼近真實的已知評分值。有了目標函數之後,下面就開始談優化方法了,通常的優化方法分為兩種:交叉最小二乘法(alternative least squares)和隨機梯度下降法(stochastic gradient descent)。
首先介紹交叉最小二乘法,之所以交叉最小二乘法能夠應用到這個目標函數主要是因為L對U和V都是凸函數。首先分別對用戶因子向量和項目因子向量求偏導,令偏導等於0求駐點,具體解法如下:

上面就是用戶因子向量和項目因子向量的更新公式,迭代更新公式即可找到可接受的局部最優解。迭代終止的條件下面會講到。
接下來講解隨機梯度下降法,這個方法應用的最多。大致思想是讓變數沿著目標函數負梯度的方向移動,直到移動到極小值點。直觀的表示如下:

其實負梯度的負方向,當函數是凸函數時是函數值減小的方向走;當函數是凹函數時是往函數值增大的方向移動。而矩陣分解的目標函數L是凸函數,因此,通過梯度下降法我們能夠得到目標函數L的極小值(理想情況是最小值)。
言歸正傳,通過上面的講解,我們可以獲取梯度下降演算法的因子矩陣更新公式,具體如下:

(3)和(4)中的γ指的是步長,也即是學習速率,它是一個超參數,需要調參確定。對於梯度見(1)和(2)。
下面說下迭代終止的條件。迭代終止的條件有很多種,就目前我了解的主要有
1) 設置一個閾值,當L函數值小於閾值時就停止迭代,不常用
2) 設置一個閾值,當前後兩次函數值變化絕對值小於閾值時,停止迭代
3) 設置固定迭代次數
另外還有一個問題,當用戶-項目評分矩陣R非常稀疏時,就會出現過擬合(overfitting)的問題,過擬合問題的解決方法就是正則化(regularization)。正則化其實就是在目標函數中加上用戶因子向量和項目因子向量的二范數,當然也可以加上一范數。至於加上一范數還是二范數要看具體情況,一范數會使很多因子為0,從而減小模型大小,而二范數則不會它只能使因子接近於0,而不能使其為0,關於這個的介紹可參考論文Regression Shrinkage and Selection via the Lasso。引入正則化項後目標函數變為:

(5)中λ_1和λ_2是指正則項的權重,這兩個值可以取一樣,具體取值也需要根據數據集調參得到。優化方法和前面一樣,只是梯度公式需要更新一下。
矩陣分解演算法目前在推薦系統中應用非常廣泛,對於使用RMSE作為評價指標的系統尤為明顯,因為矩陣分解的目標就是使RMSE取值最小。但矩陣分解有其弱點,就是解釋性差,不能很好為推薦結果做出解釋。
後面會繼續介紹矩陣分解演算法的擴展性問題,就是如何加入隱反饋信息,加入時間信息等。

熱點內容
聊天軟體編程 發布:2024-09-17 03:00:07 瀏覽:725
linuxoracle安裝路徑 發布:2024-09-17 01:57:29 瀏覽:688
兩個安卓手機照片怎麼同步 發布:2024-09-17 01:51:53 瀏覽:207
cf編譯後沒有黑框跳出來 發布:2024-09-17 01:46:54 瀏覽:249
安卓怎麼禁用應用讀取列表 發布:2024-09-17 01:46:45 瀏覽:524
win10設密碼在哪裡 發布:2024-09-17 01:33:32 瀏覽:662
情逢敵手迅雷下載ftp 發布:2024-09-17 01:32:35 瀏覽:337
安卓如何讓軟體按照步驟自動運行 發布:2024-09-17 01:28:27 瀏覽:197
Z包解壓命令 發布:2024-09-17 01:27:51 瀏覽:221
吉林ipfs存儲伺服器雲主機 發布:2024-09-17 01:27:38 瀏覽:685