matlabsvm演算法
㈠ 粒子群優化演算法(PSO)的matlab運行程序~~謝謝大家啦!
%不知道你具體的問題是什麼,下面是一個最基本的pso演算法解決函數極值問題,如果是一些大型的問題,需要對速度、慣性常數、和自適應變異做進一步優化,希望對你有幫助
function y = fun(x)
y=-20*exp(-0.2*sqrt((x(1)^2+x(2)^2)/2))-exp((cos(2*pi*x(1))+cos(2*pi*x(2)))/2)+20+2.71289;
%下面是主程序
%% 清空環境
clc
clear
%% 參數初始化
%粒子群演算法中的兩個參數
c1 = 1.49445;
c2 = 1.49445;
maxgen=200; % 進化次數
sizepop=20; %種群規模
Vmax=1;%速度限制
Vmin=-1;
popmax=5;%種群限制
popmin=-5;
%% 產生初始粒子和速度
for i=1:sizepop
%隨機產生一個種群
pop(i,:)=5*rands(1,2); %初始種群
V(i,:)=rands(1,2); %初始化速度
%計算適應度
fitness(i)=fun(pop(i,:)); %染色體的適應度
end
%找最好的染色體
[bestfitness bestindex]=min(fitness);
zbest=pop(bestindex,:); %全局最佳
gbest=pop; %個體最佳
fitnessgbest=fitness; %個體最佳適應度值
fitnesszbest=bestfitness; %全局最佳適應度值
%% 迭代尋優
for i=1:maxgen
for j=1:sizepop
%速度更新
V(j,:) = V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:));
V(j,find(V(j,:)>Vmax))=Vmax;
V(j,find(V(j,:)<Vmin))=Vmin;
%種群更新
pop(j,:)=pop(j,:)+0.5*V(j,:);
pop(j,find(pop(j,:)>popmax))=popmax;
pop(j,find(pop(j,:)<popmin))=popmin;
%自適應變異(避免粒子群演算法陷入局部最優)
if rand>0.8
k=ceil(2*rand);%ceil朝正無窮大方向取整
pop(j,k)=rand;
end
%適應度值
fitness(j)=fun(pop(j,:));
%個體最優更新
if fitness(j) < fitnessgbest(j)
gbest(j,:) = pop(j,:);
fitnessgbest(j) = fitness(j);
end
%群體最優更新
if fitness(j) < fitnesszbest
zbest = pop(j,:);
fitnesszbest = fitness(j);
end
end
yy(i)=fitnesszbest;
end
%% 結果分析
plot(yy)
title(['適應度曲線 ' '終止代數=' num2str(maxgen)]);
xlabel('進化代數');ylabel('適應度');
㈡ 識別數字,bp神經網路演算法,卷積神經網路演算法,svm演算法,adaboost演算法哪種好
看數字圖片而定。如果圖片較小並且質量還不錯,那麼通過2層的神經網路就能勝任。
對於MNIst數據集(28*28的手寫數字),2層神經網路准確率可達99%,svm也有98%以上。
以上實現非常簡單,matlab已經有現成工具箱。
卷積神經網路通常用於更加復雜的場合,閉合是被圖像內容等。在MNIST數據集上cnn可達99.7%准確率,但是實現起來較為復雜,需要通過開源框架caffe,keras等進行編程。
如果對准確率要求沒有達到小數點後兩位的程度,用簡單的svm,神經網路,softmax等調調參數就行了。
㈢ 有誰下過Matlab的SVM-KM中的m-svm代碼嗎新手求助
向量機類型應是最經典簡單的svm,核函數可以是多項式,高斯,小波等核函數,向量機求解用的是二次規劃演算法,也就是QP演算法(quadratic programming algorithm )