python分類器
㈠ python如何得到""最佳分類器
解決方案:文件開頭增加 # -*- coding: utf-8 -*-
案例:代碼內容如
# -*- coding:utf-8 -*-
print("Hello world!!");
print("歡迎來到python世界!!!");
㈡ python怎麼構建二類分類模型
向量空間模型(Vector Space Model,簡稱VSM)表示通過向量的方式來表徵文本。一個文檔(Document)被描述為一系列關鍵詞(Term)的向量。
簡言之,判斷一篇文章是否是你喜歡的文章,即將文章抽象成一個向量,該向量由n個詞Term組成,每個詞都有一個權重(Term Weight),不同的詞根據自己在文檔中的權重來影響文檔相關性的重要程度。
Document = { term1, term2, …… , termN }
Document Vector = { weight1, weight2, …… , weightN }
㈢ xgb用python寫的時候基分類器可以換別的么
可以呀,有很多種的
from sklearn import ensemble
集成分類器(ensemble):
1.bagging(ensemble.bagging.BaggingClassifier)
對隨機選取的子樣本集分別建立基本分類器,然後投票決定最終的分類結果
2.RandomForest(ensemble.RandomForestClassifier)
對隨機選取的子樣本集分別建立m個CART(Classifier and Regression Tree),然後投票決定最終的分類結果
Random在此處的意義:
1)Bootstrap 中的隨機選擇子樣本集
2)Random subspace 的演算法從屬性中隨機選擇k個屬性,每個樹節點分裂時從這隨機的k個屬性中,選擇最優的
3.Boosting(ensemble.weight_boosting)
在選擇分類超平面時給樣本加了一個權值,使得loss function盡量考慮那些分錯類的樣本。(i.e.分錯類的樣本weight 大)
-boosting 重采樣的不是樣本,而是樣本的分布。最後的分類結果是幾個弱分類器的線性加權和。注意這幾個弱分類器都是一種base classifier類別。
-與bagging的區別:bagging 的訓練集是隨機的,各訓練集是獨立的;而boosting訓練集的選擇不是獨立的,每次選擇的訓練集都依賴於上一次學習的結果;
bagging的每個預測函數(即弱假設)沒有權重,而Boosting根據每一次訓練的訓練誤差得到該次預測函數的權重;
bagging的各個預測函數可以並行生成,而boosting的只能順序生成。對於神經網路這樣極為耗時的學習方法,Bagging可通過並行訓練節省大量的時間開銷。
-與bagging的共同點:都可以通過使用for循環給estimator賦不同的分類器類型,以實現集成多種分類器,而不是單一的某一種(比如決策樹)。
代表演算法 Adaboost 和 Realboost。總的來說,Adaboost 簡單好用,Realboost 准確
4.Stacking
在stacking(堆疊)方法中,每個單獨分類器的輸出會作為更高層分類器的輸入,更高層分類器可以判斷如何更好地合並這些來自低層的輸出。
㈣ python分類演算法有哪些
常見的分類演算法有:
K近鄰演算法
決策樹
樸素貝葉斯
SVM
Logistic Regression
㈤ 用shell或Python分類求和
public static void main(String[] args) {
// Integer[] arr = {1,2,2,3,4};
Object[] arr = {'a','b','c'};
sortAll(arr,0);
}
㈥ 如何用python實現隨機森林分類
大家如何使用scikit-learn包中的類方法來進行隨機森林演算法的預測。其中講的比較好的是各個參數的具體用途。
這里我給出我的理解和部分翻譯:
參數說明:
最主要的兩個參數是n_estimators和max_features。
n_estimators:表示森林裡樹的個數。理論上是越大越好。但是伴隨著就是計算時間的增長。但是並不是取得越大就會越好,預測效果最好的將會出現在合理的樹個數。
max_features:隨機選擇特徵集合的子集合,並用來分割節點。子集合的個數越少,方差就會減少的越快,但同時偏差就會增加的越快。根據較好的實踐經驗。如果是回歸問題則:
max_features=n_features,如果是分類問題則max_features=sqrt(n_features)。
如果想獲取較好的結果,必須將max_depth=None,同時min_sample_split=1。
同時還要記得進行cross_validated(交叉驗證),除此之外記得在random forest中,bootstrap=True。但在extra-trees中,bootstrap=False。
這里也給出一篇老外寫的文章:調整你的隨機森林模型參數http://www.analyticsvidhya.com/blog/2015/06/tuning-random-forest-model/
這里我使用了scikit-learn自帶的iris數據來進行隨機森林的預測:
[python]view plain
fromsklearn.
fromsklearn.
importnumpyasnp
fromsklearn.datasetsimportload_iris
iris=load_iris()
#printiris#iris的4個屬性是:萼片寬度萼片長度花瓣寬度花瓣長度標簽是花的種類:setosaversicolourvirginica
printiris['target'].shape
rf=RandomForestRegressor()#這里使用了默認的參數設置
rf.fit(iris.data[:150],iris.target[:150])#進行模型的訓練
#
#隨機挑選兩個預測不相同的樣本
instance=iris.data[[100,109]]
printinstance
print'instance0prediction;',rf.predict(instance[0])
print'instance1prediction;',rf.predict(instance[1])
printiris.target[100],iris.target[109]
- 返回的結果如下:
- (150,)
- [[ 6.3 3.3 6. 2.5]
- [ 7.2 3.6 6.1 2.5]]
- instance 0 prediction; [ 2.]
- instance 1 prediction; [ 2.]
- 2 2
- 在這里我有點困惑,就是在scikit-learn演算法包中隨機森林實際上就是一顆顆決策樹組成的。但是之前我寫的決策樹博客中是可以將決策樹給顯示出來。但是隨機森林卻做了黑盒處理。我們不知道內部的決策樹結構,甚至連父節點的選擇特徵都不知道是誰。所以我給出下面的代碼(這代碼不是我的原創),可以顯示的顯示出所有的特徵的貢獻。所以對於貢獻不大的,甚至是負貢獻的我們可以考慮刪除這一列的特徵值,避免做無用的分類。
fromsklearn.cross_validationimportcross_val_score,ShuffleSplit
X=iris["data"]
Y=iris["target"]
names=iris["feature_names"]
rf=RandomForestRegressor()
scores=[]
foriinrange(X.shape[1]):
score=cross_val_score(rf,X[:,i:i+1],Y,scoring="r2",
cv=ShuffleSplit(len(X),3,.3))
scores.append((round(np.mean(score),3),names[i]))
printsorted(scores,reverse=True)
- 顯示的結果如下:
- [(0.934, 'petal width (cm)'), (0.929, 'petal length (cm)'), (0.597, 'sepal length (cm)'), (0.276, 'sepal width (cm)')]
- 這里我們會發現petal width、petal length這兩個特徵將起到絕對的貢獻,之後是sepal length,影響最小的是sepal width。這段代碼將會提示我們各個特徵的貢獻,可以讓我們知道部分內部的結構。
[python]view plain
㈦ 怎樣用python實現SVM分類器,用於情感分析的二分類
用的什麼庫做SVM呢?如果這個庫支持多分類SVM的話就很容易改成識別-的--
㈧ 請問python如何按照屬性分類
step1:解析行,得到行中的parid
step2:建立以parid為key的字典採集行
step3:按字典的key輸出文件
#!/usr/bin/python
#coding:utf-8
#
#date:Dec.,2013
importre
patt=re.compile(r".*[parid=(?P<parid>[^]]*)].*")
deffileparser(filename):
buff=[]
withopen(filename)ashandle:
forlninhandle:
ifln.startswith('[fn]')ornotbuff:
buff.append(ln)
else:
buff[-1]+=ln
returnbuff
collector={}
forlninfileparser('fn_test.txt'):
collector.setdefault(patt.match(ln).groupdict().get("parid"),[]).append(ln)
#storagetotextfile
forparid,lnsincollector.items():
withopen("%s.txt"%parid,'wt')ashandle:
handle.writelines(lns)
㈨ python 樸素貝葉斯分類器有哪些
為了能夠處理Unicode數據,同時兼容Python某些內部模塊,Python 2.x中提供了Unicode這種數據類型,通過decode和encode方法可以將其它編碼和Unicode編碼相互轉化,但同時也引入了UnicodeDecodeError和UnicodeEncodeError異常。