數據變異演算法
⑴ 分析化學中變異系數怎麼算
分析化學中變異系數(cv),就是 相對標准偏差。
具體演算法要點是:
1)有一組數據,例如,n=6個數據。按照公式,計算出其算術平均值(D),和標准偏差s 值;
2)計算變異系數:cv=s/D x100%
⑵ 遺傳演算法的基本原理
遺傳演算法的基本原理和方法
一、編碼
編碼:把一個問題的可行解從其解空間轉換到遺傳演算法的搜索空間的轉換方法。
解碼(解碼):遺傳演算法解空間向問題空間的轉換。
二進制編碼的缺點是漢明懸崖(Hamming Cliff),就是在某些相鄰整數的二進制代碼之間有很大的漢明距離,使得遺傳演算法的交叉和突變都難以跨越。
格雷碼(Gray Code):在相鄰整數之間漢明距離都為1。
(較好)有意義的積木塊編碼規則:所定編碼應當易於生成與所求問題相關的短距和低階的積木塊;最小字元集編碼規則,所定編碼應採用最小字元集以使問題得到自然的表示或描述。
二進制編碼比十進制編碼搜索能力強,但不能保持群體穩定性。
動態參數編碼(Dynamic Paremeter Coding):為了得到很高的精度,讓遺傳演算法從很粗糙的精度開始收斂,當遺傳演算法找到一個區域後,就將搜索現在在這個區域,重新編碼,重新啟動,重復這一過程,直到達到要求的精度為止。
編碼方法:
1、 二進制編碼方法
缺點:存在著連續函數離散化時的映射誤差。不能直接反映出所求問題的本身結構特徵,不便於開發針對問題的專門知識的遺傳運算運算元,很難滿足積木塊編碼原則
2、 格雷碼編碼:連續的兩個整數所對應的編碼之間僅僅只有一個碼位是不同的,其餘碼位都相同。
3、 浮點數編碼方法:個體的每個基因值用某一范圍內的某個浮點數來表示,個體的編碼長度等於其決策變數的位數。
4、 各參數級聯編碼:對含有多個變數的個體進行編碼的方法。通常將各個參數分別以某種編碼方法進行編碼,然後再將他們的編碼按照一定順序連接在一起就組成了表示全部參數的個體編碼。
5、 多參數交叉編碼:將各個參數中起主要作用的碼位集中在一起,這樣它們就不易於被遺傳運算元破壞掉。
評估編碼的三個規范:完備性、健全性、非冗餘性。
二、選擇
遺傳演算法中的選擇操作就是用來確定如何從父代群體中按某種方法選取那些個體遺傳到下一代群體中的一種遺傳運算,用來確定重組或交叉個體,以及被選個體將產生多少個子代個體。
常用的選擇運算元:
1、 輪盤賭選擇(Roulette Wheel Selection):是一種回放式隨機采樣方法。每個個體進入下一代的概率等於它的適應度值與整個種群中個體適應度值和的比例。選擇誤差較大。
2、 隨機競爭選擇(Stochastic Tournament):每次按輪盤賭選擇一對個體,然後讓這兩個個體進行競爭,適應度高的被選中,如此反復,直到選滿為止。
3、 最佳保留選擇:首先按輪盤賭選擇方法執行遺傳演算法的選擇操作,然後將當前群體中適應度最高的個體結構完整地復制到下一代群體中。
4、 無回放隨機選擇(也叫期望值選擇Excepted Value Selection):根據每個個體在下一代群體中的生存期望來進行隨機選擇運算。方法如下
(1) 計算群體中每個個體在下一代群體中的生存期望數目N。
(2) 若某一個體被選中參與交叉運算,則它在下一代中的生存期望數目減去0.5,若某一個體未被選中參與交叉運算,則它在下一代中的生存期望數目減去1.0。
(3) 隨著選擇過程的進行,若某一個體的生存期望數目小於0時,則該個體就不再有機會被選中。
5、 確定式選擇:按照一種確定的方式來進行選擇操作。具體操作過程如下:
(1) 計算群體中各個個體在下一代群體中的期望生存數目N。
(2) 用N的整數部分確定各個對應個體在下一代群體中的生存數目。
(3) 用N的小數部分對個體進行降序排列,順序取前M個個體加入到下一代群體中。至此可完全確定出下一代群體中M個個體。
6、無回放余數隨機選擇:可確保適應度比平均適應度大的一些個體能夠被遺傳到下一代群體中,因而選擇誤差比較小。
7、均勻排序:對群體中的所有個體按期適應度大小進行排序,基於這個排序來分配各個個體被選中的概率。
8、最佳保存策略:當前群體中適應度最高的個體不參與交叉運算和變異運算,而是用它來代替掉本代群體中經過交叉、變異等操作後所產生的適應度最低的個體。
9、隨機聯賽選擇:每次選取幾個個體中適應度最高的一個個體遺傳到下一代群體中。
10、排擠選擇:新生成的子代將代替或排擠相似的舊父代個體,提高群體的多樣性。
三、交叉
遺傳演算法的交叉操作,是指對兩個相互配對的染色體按某種方式相互交換其部分基因,從而形成兩個新的個體。
適用於二進制編碼個體或浮點數編碼個體的交叉運算元:
1、單點交叉(One-pointCrossover):指在個體編碼串中只隨機設置一個交叉點,然後再該點相互交換兩個配對個體的部分染色體。
2、兩點交叉與多點交叉:
(1) 兩點交叉(Two-pointCrossover):在個體編碼串中隨機設置了兩個交叉點,然後再進行部分基因交換。
(2) 多點交叉(Multi-pointCrossover)
3、均勻交叉(也稱一致交叉,UniformCrossover):兩個配對個體的每個基因座上的基因都以相同的交叉概率進行交換,從而形成兩個新個體。
4、算術交叉(ArithmeticCrossover):由兩個個體的線性組合而產生出兩個新的個體。該操作對象一般是由浮點數編碼表示的個體。
四、變異
遺傳演算法中的變異運算,是指將個體染色體編碼串中的某些基因座上的基因值用該基因座上的其它等位基因來替換,從而形成以給新的個體。
以下變異運算元適用於二進制編碼和浮點數編碼的個體:
1、基本位變異(SimpleMutation):對個體編碼串中以變異概率、隨機指定的某一位或某幾位僅因座上的值做變異運算。
2、均勻變異(UniformMutation):分別用符合某一范圍內均勻分布的隨機數,以某一較小的概率來替換個體編碼串中各個基因座上的原有基因值。(特別適用於在演算法的初級運行階段)
3、邊界變異(BoundaryMutation):隨機的取基因座上的兩個對應邊界基因值之一去替代原有基因值。特別適用於最優點位於或接近於可行解的邊界時的一類問題。
4、非均勻變異:對原有的基因值做一隨機擾動,以擾動後的結果作為變異後的新基因值。對每個基因座都以相同的概率進行變異運算之後,相當於整個解向量在解空間中作了一次輕微的變動。
5、高斯近似變異:進行變異操作時用符號均值為P的平均值,方差為P2的正態分布的一個隨機數來替換原有的基因值。
⑶ 變異系數計算公式是什麼
變異系數的計算公式為:變異系數 C·V =( 標准偏差 SD / 平均值Mean )× 100%變異系數只在平均值不為零時有定義,而且一般適用於平均值大於零的情況。變異系數也被稱為標准離差率或單位風險。
⑷ SPSS 中變異系數如何計算
變異系數的計算公式為:變異系數
C·V
=(
標准偏差
SD
/
平均值Mean
)×
100%。
變異系數(coefficient
of
variation)只在平均值不為零時有定義,而且一般適用於平均值大於零的情況。變異系數也被稱為標准離差率或單位風險。
變異系數只對由比率標量計算出來的數值有意義。舉例來說,對於一個氣溫的分布,使用開爾文或攝氏度來計算的話並不會改變標准差的值,但是溫度的平均值會改變,因此使用不同的溫標的話得出的變異系數是不同的。也就是說,使用區間標量得到的變異系數是沒有意義的。
(4)數據變異演算法擴展閱讀
變異系數在概率論的許多分支中都有應用,比如說在更新理論、排隊理論和可靠性理論中。在這些理論中,指數分布通常比正態分布更為常見。
由於指數分布的標准差等於其平均值,所以它的變異系數等於一。變異系數小於一的分布,比如愛爾朗分布稱為低差別的,而變異系數大於一的分布,如超指數分布則被稱為高差別的。
參考資料來源:網路-變異系數
⑸ 數據分析有哪些手段
1.分類
分類是一種基本的數據分析方式,數據根據其特點,可將數據對象劃分為不同的部分和類型,再進一步分析,能夠進一步挖掘事物的本質。
2.回歸
回歸是一種運用廣泛的統計分析方法,可以通過規定因變數和自變數來確定變數之間的因果關系,然後建立回歸模型,並且根據實測數據來求解模型的各個參數,之後再評價回歸模型是否可以擬合實測數據,如果能夠很好的擬合,則可以根據自變數作進一步預測。
3.聚類
聚類是根據數據的內在性質將數據分成一些聚合類,每一聚合類中的元素盡可能具有相同的特性,不同聚合類之間的特性差別盡可能大的一種分類方式,其與分類分析不同,所劃分的類是未知的,因此,聚類分析也稱為無指導或無監督的學習。
4.相似匹配
相似匹配是通過一定的方法,來計算兩個數據的相似程度,相似程度通常會用一個是百分比來衡量。相似匹配演算法被用在很多不同的計算場景,如數據清洗、用戶輸入糾錯、推薦統計、剽竊檢測系統、自動評分系統、網頁搜索和DNA序列匹配等領域。
5.頻繁項集
頻繁項集是指事例中頻繁出現的項的集合,如啤酒和尿不濕,Apriori演算法是一種挖掘關聯規則的頻繁項集演算法,其核心思想是通過候選集生成和情節的向下封閉檢測兩個階段來挖掘頻繁項集,目前已被廣泛的應用在商業、網路安全等領域。
6.統計描述
統計描述是根據數據的特點,用一定的統計指標和指標體系,表明數據所反饋的信息,是對數據分析的基礎處理工作,主要方法包括:平均指標和變異指標的計算、資料分布形態的圖形表現等。
⑹ 統計檢驗中的變異數是什麼意思
統計檢驗中的變異數是是概率分布離散程度的一個歸一化量度,其定義為標准差與平均值之比。
當需要比較兩組數據離散程度大小的時候,如果兩組數據的測量尺度相差太大,或者數據量綱的不同,直接使用標准差來進行比較不合適,此時就應當消除測量尺度和量綱的影響,而變異系數可以做到這一點,它是原始數據標准差與原始數據平均數的比。
沒有量綱,這樣就可以進行客觀比較了。事實上,可以認為變異系數和極差、標准差和方差一樣,都是反映數據離散程度的絕對值。其數據大小不僅受變數值離散程度的影響,而且還受變數值平均水平大小的影響。
(6)數據變異演算法擴展閱讀
變異系數的計算公式為:變異系數 C·V =( 標准偏差 SD / 平均值Mean )× 100%
在進行數據統計分析時,如果變異系數大於15%,則要考慮該數據可能不正常,應該剔除。
比起標准差來,變異系數的好處是不需要參照數據的平均值。變異系數是一個無量綱量,因此在比較兩組量綱不同或均值不同的數據時,應該用變異系數而不是標准差來作為比較的參考。
變異系數在概率論的許多分支中都有應用,比如說在更新理論、排隊理論和可靠性理論中。在這些理論中,指數分布通常比正態分布更為常見。
由於指數分布的標准差等於其平均值,所以它的變異系數等於一。變異系數小於一的分布,比如愛爾朗分布稱為低差別的,而變異系數大於一的分布,如超指數分布則被稱為高差別的。
⑺ 統計分析學習之數值分析方法
統計分析學習之數值分析方法
最近補了一些統計學的知識,大多都在這些年的學習中接觸過,這里做個總結,以便回頭方便看。
從以下幾個方面對數值進行分析:
數值的位置
平均數與中位數
這個最常見的就是平均值和中位數了,平均值指的是數據在數值上的中心位置,是所有數和的平均,而中位數是一個樣本序列在數值上的中間,序列長度為奇數是,中位數就是最中間的那個。我們可以吧平均數理解為樣本序列在數學上的中間位置,把中位數理解為樣本序列在物理上的中間位置。
加權平均數
權值對於學過演算法或者圖論的小夥伴都不陌生,權值不同則認為每個數據的權值(可以簡單理解為重要性)不同,在上邊提到的平均數中是認為每個數的權值相同。那加權平均數就是求平均時對每個數值乘上了他的權值。
ps,加權的樣本序列就比普通的樣本序列多了一維的信息量。
幾何平均數
這是個很有意思的平均數,在之前並沒有接觸過,它是n個數值乘積的n次方根,既然是幾何平均數,那小夥伴們可以把它放在歐幾里得空間來理解它的意義。
眾數
樣本序列中出現次數最多的數,這個在一些基本演算法的面試題中經常出現,比如怎麼在海量數據中找出重復次數最多的一個?(這個主要是採用分而治之的思想,外加hash等方法,有興趣的可以網路一下)
四分位數
四分位數是百分位數的一種特殊情況,但是這個數值的位置具有比較高的工程使用價值,在統計分析中出現頻率很高,比如後邊用到的箱形分析法等跟此關系很大。
數值的離散程度
數據的離散程度也可以成為數據的變異程度,學過聚類演算法的小夥伴說離散程度應該比變異程度更容易理解一些。有極差、四分位數間距、方差、標准差等指標(MAE、MSE等指標對機器學習的小夥伴應該都不陌生)。這個變異程度可以放在歐幾里得幾何空間來理解,都是描述數值之間分散的程度。注意:1.極值是最容易計算的,但是它比較容易受到異常值影響,單獨計算時的工程意義並不大。2.四分位數間距能很好的避免異常值影響,甚至能進一步的檢測異常值。(箱形法)
3.樣本方差是總體方差的無偏估計,標准差是方差的正平方根。
分布形態和相對位置
偏度
偏度是分布形態的最常用度量。偏度的計算公式這里就不貼出來了,也可以通過平均數和中位數的關系來判斷偏度。其關系如下所示:偏度為正值 = 數據右偏 = (平均數>中位數)偏度為0 = 數據對稱 = (平均數=中位數)
偏度為負值 = 數據左偏 = (平均數<中位數)
切比雪夫定理
學概率論的時候都接觸過這個,這里就不做過多解釋。他能幫我們指出與平均數的距離在某個特定個數的標准差之內的數據值所佔的比例。(與平均數的距離在z個標准差之內的數據項所佔比例至少為(1-1/z^2),其中z是大於1的任何實數)。
異常點的檢測
異常點也成為離群點(outlier),對於機器學習的小夥伴也不陌生,在統計工程上常用的方法有簡單的統計量分析,比如最大值最小值是否超出合理的范圍,還有就是比較經典的箱形法。
以上方法是基於統計的方法,其在多維數據上表現的很無力。除此之外還有基於位置,基於偏差和基於密度的方法。還有一些比較新的論文,是基於信息熵(Correntropy)和深度學習的異常點檢測演算法。有興趣的小夥伴可以下一些論文看看。
⑻ 數據挖掘技術在客戶關系管理中的應用
數據挖掘技術在客戶關系管理中的應用
隨著計算機技術、網路技術、通訊技術和Internet技術的發展,電子商務中 企業內部會產生了大量業務數據,如何從豐富的客戶數據中挖掘有價值的信息,為企業管理者提供有效的輔助決策,是企業真正關心的問題。其中,客戶分類是分析 型客戶關系管理的重要功能之一。通過客戶分類,區分客戶的霞要程度,並針對不同霞要級別的客戶制定專門的營銷方案和客戶關系管理策略,可以幫助企業降低營 銷成本,提高利潤和企業競爭力。客戶也可從食業制定的專門的營銷方案和客戶關系管理策略中獲得適合的交易體驗。數據挖掘是分析型CRM實現其「分析」功能 的必要手段,也是實現客戶分類的有效工具。
1 客戶關系管理(CRM)
CRM(Customer Relation Managemen)是一種旨在改善企業與客戶之間關系的新型管理機制,它實施於企業的市場營銷、銷售、服務與技術支持等領域,它的目標是提供更優質、更快捷的服務吸引並保持客戶,通過業務流程的全面管理降低倉業成本。
在電子商務環 境下,CRM使網站企業在所有的業務環節下更好地滿足客戶需求以及提供更優質的服務,從而使站點企業在這種不存在時空差異的新型商務環境中保留現有客戶和 發掘潛在客戶。以提高市場競爭力。同時CRM又可以提供客戶需求、市場分布、回饋信息等重要信息,為企業和經營活動提供智能化分析的依據,因此,CRM為 企業帶來了成功實現電子商務的基礎。
個性化服務是增強競爭力的有力武器,CRM就是以客戶為中心並為客戶提供最合適的服務。互聯網成為 實施客戶關系管理應用的理想渠道,記住顧客的名字及他們的偏好,根據顧客的不同而提供不同內容,顧客再次光顧的可能性會大大增加。CRM可以增加客戶忠誠 度,提高購買比率,使每個顧客產生更多的購買需求,及更長時間的需求,並提高顧客滿意度。
2 數據挖掘技術
如何對這些海量的數據進行分析發現,為商業決策提供有價值的信息,使企業獲得利潤,強有力的工具就是數據挖掘。
在分析型CRM系統中,數據挖掘是其中的核心技術,數據挖掘是從大量的數據中,抽取出潛在的、有價值的知識、模型或規則的過程。對於企業而言,數據挖掘 可以有助於發現業務發展的趨勢,揭示已知的事實,預測未知的結果,並幫助企業分析出完成任務所需的關鍵因素,以達到增加收入、降低成本,使企業處於更有利 的競爭位置的目的。
2.1 數據挖掘常用的演算法
(1)決策樹(decision tree)決策演算法。決策樹是一個類似於流程圖的樹結構。其中每個內部節點表示在一個屬性上的測試,每個分枝代表一個測試輸出,而每個樹葉節點代表類或類 分布。決策樹演算法包括樹的構造和樹的剪枝,有兩種常用的剪枝方法:先剪枝和後剪枝。
(2)神經網路(Neural Network)。神經網路是一組連接的輸入,輸出單元,其中每個連接都與一個權相連,在學習階段,通過調整神經網路的權,使得能夠預測輸入樣本的正確類標號來學習。
(3)遺傳演算法(Genetic Algorithms)。遺傳演算法根據適者生存的原則,形成由當前群體巾最適合的規則組成新的群體,以及這些規則的後代。遺傳演算法用於分類和其他優化問題。
(4)粗糙集方法。粗糙集方法基於給定訓練數據內部的等價類的建立。它將知識理解為對數據的劃分,每一被劃分的集合稱為概念,利用已知的知識庫來處理或刻臧不精確或不確定的知識。粗糙集用於特徵歸約和相關分析。
(5)模糊集方法。基於規則的分類系統有一個缺點:對於連續屬性,他們有陡峭的截斷。將模糊邏輯引入,允許定義「模糊」邊界,提供了在高抽象層處理的便利。
其它還有貝葉斯網路、可視化技術、臨近搜索方法和公式發現等方法。
2.2 數據挖掘常用的分析方法
(1)分類和預測。主要用於客戶細分(分群)處理,如價值客戶群的分級,分類和預測是兩種數據分析形式,可以用於提取描述重要數據類的模型或預測未來的 數姑趨勢。數據分類(data elassfication)是一個兩步過程,第一步,建立一個模型,描述預定的數據類集或概念集,通過分析有屬性描述的資料庫元組來構造模型。第二步, 使用模型進行分類。首先評估模犁的預測准確率,如果認為模型的准確率可以接受,就可以用來對類標號未知的數據遠祖或對象進行分類。
預測 技術,主要用於對客戶未來行為的發現,如客戶流失分析中,用神經元網路方法學習各種客戶流失前的行為變化,進而預測(預警)可能出現的存價值客戶的流失。 預測足構造和使用模型評估無標號樣本類,或評估給定樣本可能具有的屬性值或值區間。分類和預測具有廣泛的應用,如信譽證實、醫療診斷、性能預測和選擇購 物。分類和預測常用的演算法包括決策樹歸納、貝葉斯分類、貝葉斯網路、神經網路、K-最臨近分類、遺傳演算法、粗糙集和模糊集技術。
(2) 聚類分析。聚類是將數據對象分組成為多個類或簇(cluster),在同一個簇中的對象之同具有較高的相似度,而不周簇中的對象差別較大。作為統計學的一 個分支,聚類分析已被廣泛的研究了許多年,現在主要集中在基於距離的聚類分析,基於k-means(k-平均值)、k-medoids(k-中心點)和其 他的一些聚類分析工具也有不少的應用。
(3)關聯規則。關聯規則挖掘給定數據集中項之間的有趣聯系。設I={i1,i2,…im}是項 的集合,任務相關的數據D是資料庫事務的集合,其中每個事務T是項的集合,使得T包含於I。關聯規則是形如A=>B的蘊涵式,其中A∈I,B∈I, 並且A∩B為空。關聯規則的挖掘分成兩步:①找出所有頻繁項集,這些項集出現的頻繁性至少和預定義的最小支持計數一樣。②由頻繁項集產生強關聯規則。這些 規則必須滿足最小支持度和最小置信度。
(4)序列模式。序列模式分析和關聯規則分析類似,也是為了挖掘數據項之間的聯系,不過序列模式分析的是數據項在時間維上的先後序列關系,如一個顧客在購買了計算機半年後可能再購買財務分析軟體。
(5)孤立點分析。孤立點是度量錯誤或固有的數據變異性的結果。許多數據挖掘演算法都試圖使孤立點的影響最小,或排除它們。一個人的雜訊可能是另一個人的 信號,在有些時候。孤立點是非常有用的。孤立點挖掘可以描述如下:給定一個n個數據點或對象的集合,以及預期的孤立點的數目k,發現與剩餘的數據相比是顯 著相異的或不一致的頭k個對象。孤立點探測方法可分為三類:統計學方法,基於距離的方法和基於偏移的方法。
3 應用方法
3.1 了解業務
最初的階段,著眼於了解業務特點,並把它還原成為數據分析的條件和參數。例如:在零售行業中,我們的第一個步驟是了解客戶購買的頻率,購買頻率和每次消費金額之間是否有明顯的相關關系。
3.2 分析數據
這個階段著眼於對現有的數據進行規整。我們發現,在不少行業中,可分析的數據和前面提出的分析目標是不匹配的。例如:消費者的月收入水平可能與許多購買 行為相關,但是,原始的數據積累中卻不一定具備這螳數據。對這一問題的解決方法是從其它的相關數據中進行推理,例如,通過抽樣調查,我們發現,一次性購買 大量衛生紙的客戶,其月收入水平集中在1000-3000RMB的檔次,如果這一結論基本成立。我們可以從消費習慣中推理出現有客戶有多大的百分比是月收 入水平在這個檔次中的;另外,可以根據抽樣調查的方法。在問卷調查的基礎上推理整個樣本人群的收入水平曲線。
3.3 數據准備
這個階段的著眼點是轉換、清理和導入數據,可能從多個數據源抽取並加以組合,以形成data cube。對於缺失的少量數據,是用均值補齊,還是忽略,還是按照現有樣本分配,這是在這個階段需要處理的問題之一。
3.4 建模
現在已經有各種各樣的模型方法可以利用。讓最好的一種應用於我們要著眼的主要問題中。是這個階段的主要任務。例如,對於利潤的預測是否應當採用回歸方式預測,預測的基礎是什麼等,這些問題需要行業專家和數據分析專家協商並達成共識。
3.5 評估與應用
優秀的評估方法是利用不同的時間段,讓系統對已經發生的消費情況進行預測,然後比較預測結果和實際狀況,這樣模型的評估就容易進行了。完成了上述的步驟 之後,多數的分析工具都支持保存並重復應用已經建立起來的模型。更為重要的是,在這個過程中,對數據分析的方法和知識應當已經由客戶方的市場分析人員或決 策者所了解,我們提供的,不僅僅是最終結果,而且是獲得這一結果的方法。「要把金針度與人」正是TurboCRM咨詢服務不同於單純的軟體提供商的區別所 在。
最後,在軟體架構方面,分析資料庫與運營資料庫應當是分離的,避免影響運營資料庫在操作方面的的實時響應速度。
4 結束語
數據挖掘可以把大量的客戶分成不同的類,在每個類里的客戶擁有相似的屬性,而不同類里的客戶的屬性也不同,可以給這兩類客戶提供完全不同的服務來提高客戶的滿意度,細致而切實可行的客戶分類對企業的經營策略有很大益處。
⑼ 偏差的計算公式
偏差的計算公式如下:
偏差是指某一尺寸(實際尺寸,極限尺寸,等等)減其基本尺寸所得的代數差。 尺寸偏差:某一尺寸減其基本尺寸所得的代數差,稱為尺寸偏差,簡稱偏差。 基本偏差用拉丁字母表示。大寫字母代表孔,小寫字母代表軸。當公差帶在零線上方時,基本偏差為下偏差;當公差帶在零線下方時,基本偏差為上偏差。
實際偏差=實際尺寸一基本尺寸
最大極限尺寸減其基本尺寸所得的代數差,稱為上偏差;最小極限尺寸減其基本尺寸所得的代數差,稱為下偏差。上偏差和下偏差統稱為極限偏差。國家標准規定,孔的上偏差代號為ES,軸的上偏差代號為es,孔的下偏差代號為EI,軸的下偏差代號為ei。則:
ES=孔的最大極限尺-孔的基本尺寸
cs=軸的最大極限尺寸-軸的基本尺寸
EI=孔的最小極限尺寸-孔的基本尺寸
ei=軸的最小極限尺寸-軸的奧基本尺寸
偏差值可以為正、負或零值。
拓展資料:
平均偏差是指單項測定值與平均值的偏差(取絕對值)之和,除以測定次數。
相對標准偏差是指標准偏差佔平均值的百分率。平均偏差和相對平均偏差都是正值。
標准偏差,統計學名詞。一種量度數據分布的分散程度之標准,用以衡量數據值偏離算術平均值的程度。標准偏差越小,這些值偏離平均值就越少,反之亦然。標准偏差的大小可通過標准偏差與平均值的倍率關系來衡量。
⑽ 遺傳演算法的變異率問題
應該是後者.
因為這是從120*101的染色體中任取一個染色體,那麼就有0.01*120*101個.