k競爭演算法
1. k均值聚類演算法原理
演算法:
第一步:選K個初始聚類中心,z1(1),z2(1),…,zK(1),其中括弧內的序號為尋找聚類中心的迭代運算的次序號。聚類中心的向量值可任意設定,例如可選開始的K個模式樣本的向量值作為初始聚類中心。
第二步:逐個將需分類的模式樣本{x}按最小距離准則分配給K個聚類中心中的某一個zj(1)。
假設i=j時, ,則 ,其中k為迭代運算的次序號,第一次迭代k=1,Sj表示第j個聚類,其聚類中心為zj。
第三步:計算各個聚類中心的新的向量值,zj(k+1),j=1,2,…,K
求各聚類域中所包含樣本的均值向量:
其中Nj為第j個聚類域Sj中所包含的樣本個數。以均值向量作為新的聚類中心,可使如下聚類准則函數最小:
在這一步中要分別計算K個聚類中的樣本均值向量,所以稱之為K-均值演算法。
第四步:若 ,j=1,2,…,K,則返回第二步,將模式樣本逐個重新分類,重復迭代運算;
若 ,j=1,2,…,K,則演算法收斂,計算結束。
2. K均值演算法的計算耗
您問的是K均值演算法的計算吧。計算過程有6步。
傳統K均值的計算過程:
1.從D中隨機取K個元素,作為K個簇的各自的中心。
2.計算剩下的元素到各個中心點的相異度(一般按照歐式距離的遠近),將這些元素歸納到相異度最低的簇。
3.根據聚類結果,重新計算K個簇各自的中心,計算方法是取簇中所有元素各自維度的算數平均數(一般為簇內所有元素點到簇中心的距離和的平均數)。
4.將D中所有的元素按照新的中心重新聚類。
5.重復第4步,直到聚類結果不再變化。
6.將結果輸出。
K均值屬於比較簡單的聚類問題,所謂的聚類問題,就是給定一個元素集合D,其中每個元素具有n個可觀察屬性,使用某種演算法將D分成K個子集,要求每個子集內部的元素之間的相異度盡可能的小,而不同子集的元素相異度盡可能的大。其中每一個子集叫做一個簇。
3. K平均演算法的介紹
k-means algorithm演算法是一個聚類演算法,把n的對象根據他們的屬性分為k個分割,k < n。它與處理混合
正態分布的最大期望演算法很相似,因為他們都試圖找到數據中自然聚類的中心。它假設對象屬性來自於空間向量,並且目標是使各個群組內部的均方誤差總和最小。假設有k個群組Si, i=1,2,...,k。μi是群組Si內所有元素xj的重心,或叫中心點。
4. 關聯分析,數據分析,k演算法中任選其一,寫 不少於1000字的文章
自己動手!豐衣足食!
5. 詢問化學里的競爭平衡常數的定義及計算方法
定義:是指在一定溫度下,可逆反應無論從正反應開始,還是從逆反應開始,也無論反應物起始濃度的大小,最後都能達到平衡,這時各種生成物濃度冪之積與反應物濃度的冪之積的比值是個常數,這個常數就是該反應的化學平衡常數(簡稱平衡常數),用K表示。
化學平衡常數計算方法:
(5)k競爭演算法擴展閱讀:
化學平衡常數的意義
1、化學平衡常數值的大小是可逆反應進行程度的標志。它能夠表示出可逆反應進行的完全程度。可以說,化學平衡常數是一定溫度下一個反應本身固有的內在性質的定量體現。
2、一個反應的K值越大,說明平衡時生成物的濃度越大,反應物的濃度越小,正向反應進行程度越大,反應進行的越完全,反應物轉化率也越大。反之亦然。一般當,K>105時,該反應進行得基本完全;K<10-5時,則該反應很難進行。
6. K均值演算法和塊匹配演算法有什麼區別
聚類是一個將數據集中在某些方面相似的數據成員進行分類組織的過程,聚類就是一種發現這種內在結構的技術,聚類技術經常被稱為無監督學習。
k均值聚類是最著名的劃分聚類演算法,由於簡潔和效率使得他成為所有聚類演算法中最廣泛使用的。給定一個數據點集合和需要的聚類數目k,k由用戶指定,k均值演算法根據某個距離函數反復把數據分入k個聚類中。
7. k的計算方法,詳細
8. k均值聚類演算法、c均值聚類演算法、模糊的c均值聚類演算法的區別
k均值聚類:---------一種硬聚類演算法,隸屬度只有兩個取值0或1,提出的基本根據是「類內誤差平方和最小化」准則;
模糊的c均值聚類演算法:-------- 一種模糊聚類演算法,是k均值聚類演算法的推廣形式,隸屬度取值為[0 1]區間內的任何一個數,提出的基本根據是「類內加權誤差平方和最小化」准則;
這兩個方法都是迭代求取最終的聚類劃分,即聚類中心與隸屬度值。兩者都不能保證找到問題的最優解,都有可能收斂到局部極值,模糊c均值甚至可能是鞍點。
至於c均值似乎沒有這么叫的,至少從我看到文獻來看是沒有。不必糾結於名稱。如果你看的是某本模式識別的書,可能它想表達的意思就是k均值。
實際上k-means這個單詞最先是好像在1965年的一篇文獻提出來的,後來很多人把這種聚類叫做k均值。但是實際上十多年前就有了類似的演算法,但是名字不一樣,k均值的歷史相當的復雜,在若干不同的領域都被單獨提出。追尋演算法的名稱與歷史沒什麼意義,明白具體的實現方法就好了。
9. K-means的演算法缺點
① 在 K-means 演算法中 K 是事先給定的,這個 K 值的選定是非常難以估計的。很多時候,事先並不知道給定的數據集應該分成多少個類別才最合適。這也是 K-means 演算法的一個不足。有的演算法是通過類的自動合並和分裂,得到較為合理的類型數目 K,例如 ISODATA 演算法。關於 K-means 演算法中聚類數目K 值的確定在文獻中,是根據方差分析理論,應用混合 F統計量來確定最佳分類數,並應用了模糊劃分熵來驗證最佳分類數的正確性。在文獻中,使用了一種結合全協方差矩陣的 RPCL 演算法,並逐步刪除那些只包含少量訓練數據的類。而文獻中使用的是一種稱為次勝者受罰的競爭學習規則,來自動決定類的適當數目。它的思想是:對每個輸入而言,不僅競爭獲勝單元的權值被修正以適應輸入值,而且對次勝單元採用懲罰的方法使之遠離輸入值。
② 在 K-means 演算法中,首先需要根據初始聚類中心來確定一個初始劃分,然後對初始劃分進行優化。這個初始聚類中心的選擇對聚類結果有較大的影響,一旦初始值選擇的不好,可能無法得到有效的聚類結果,這也成為 K-means演算法的一個主要問題。對於該問題的解決,許多演算法採用遺傳演算法(GA),例如文獻 中採用遺傳演算法(GA)進行初始化,以內部聚類准則作為評價指標。
③ 從 K-means 演算法框架可以看出,該演算法需要不斷地進行樣本分類調整,不斷地計算調整後的新的聚類中心,因此當數據量非常大時,演算法的時間開銷是非常大的。所以需要對演算法的時間復雜度進行分析、改進,提高演算法應用范圍。在文獻中從該演算法的時間復雜度進行分析考慮,通過一定的相似性准則來去掉聚類中心的侯選集。而在文獻中,使用的 K-means 演算法是對樣本數據進行聚類,無論是初始點的選擇還是一次迭代完成時對數據的調整,都是建立在隨機選取的樣本數據的基礎之上,這樣可以提高演算法的收斂速度。
10. K均值聚類演算法的k均值演算法
先隨機選取K個對象作為初始的聚類中心。然後計算每個對象與各個種子聚類中心之間的距離,把每個對象分配給距離它最近的聚類中心。聚類中心以及分配給它們的對象就代表一個聚類。一旦全部對象都被分配了,每個聚類的聚類中心會根據聚類中現有的對象被重新計算。這個過程將不斷重復直到滿足某個終止條件。終止條件可以是以下任何一個:
1)沒有(或最小數目)對象被重新分配給不同的聚類。
2)沒有(或最小數目)聚類中心再發生變化。
3)誤差平方和局部最小。