當前位置:首頁 » 操作系統 » 極限學習機演算法

極限學習機演算法

發布時間: 2022-07-15 04:12:00

㈠ 與傳統bp神經網路相比,極限學習機有哪些優點

極限學習機(ELM)演算法,隨機產生輸入層與隱含層間的連接權值及隱含層神經元的閾值,且在訓練過程中無需調整,只需設置隱含層神經元的個數,便可獲得唯一的最優解,與傳統的BP神經網路演算法相比,ELM方法學習速度快、泛化性能好。

㈡ 誰有人群密度檢測的matlab代碼

close all
if ~exist('aaa')||(aaa~=1)
clc
clear
%加入gabor工具箱
addpath gaborpca;
path_pos='.\pos\';
path_nes='.\nes\';
pos_dir=dir(path_pos);
nes_dir=dir(path_nes);

%構建一個gabor濾波器組
filter_bank = construct_Gabor_filters(8, 5, [128 128]);
%提取正樣本得gabor特徵
feature_pos_train=[];
for i=3:158
im=imread([path_pos pos_dir(i).name]);
im=rgb2gray(im);
im = imresize(im,[128 128],'bilinear'); %採用'bilinear':採用雙線性插值演算法擴展為128*128
raw_feature = filter_image_with_Gabor_bank(im,filter_bank,32);%%提取小波特徵
feature_pos_train=[feature_pos_train,raw_feature];
end

%提取負樣本得gabor特徵
feature_nes_train=[];
for i=3:174
im=imread([path_nes nes_dir(i).name]);
im=rgb2gray(im);
im = imresize(im,[128 128],'bilinear'); %採用'bilinear':採用雙線性插值演算法擴展為128*128
feature_nes_train=[feature_nes_train,raw_feature];
end

p_train=[feature_pos_train,feature_nes_train];
t_train=[ones(156,1);2*ones(172,1)];

%對提取得gabor特徵進行壓縮降維處理
[mappedX, mapping]=pca(p_train,111);
p_train=mapping.M;

p_train=mapminmax(p_train',0,1)';

%載入極限學習機工具箱
addpath kernelelm %%添加極限學習機演算法包

%訓練極限學習機
[model_elm]=kernel_elm_muti_train(p_train',t_train', 'gaussian',3.5,10);%%根據訓練中的目標得出模型
[TT,TrainingAccuracy] = kernel_elm_muti_predict(p_train',t_train',model_elm);

end

%測試視頻
aaa=1;
raw_feature2=[];
for i=1:1200
X=imread(strcat('picture\',num2str(i),'.jpg'));
im=rgb2gray( X);
im = imresize(im,[128 128],'bilinear'); %採用'bilinear':採用雙線性插值演算法擴展為128*128
feature222 = filter_image_with_Gabor_bank(im,filter_bank,32);%%提取小波特徵
raw_feature2=[raw_feature2,feature222];
disp(sprintf('%i ',i));
end

raw_feature2=mapminmax(raw_feature2',0,1);
p_test=raw_feature2*mappedX;
p_test=mapminmax(p_test',0,1)';
[TT,TrainingAccuracy] = kernel_elm_muti_predict(p_test',ones(1200,1)',model_elm);

clc
%輸出每幀圖得計算結果
for i=1:1200
if(TT(i)==2)
disp(sprintf('第%i幀圖正常',i));
else
disp(sprintf('第%i幀圖報警',i));
end
end

㈢ elm極限學習機做預測為什麼預測不準

matlab 運行極限學習機為什麼每次運行正確率不一樣?這是因為每次給出的初始值不同,而造成誤差。教你一招,不妨試一下每次調用matlab後去運行該程序的結果是否基本一致。

㈣ 誰能解釋極限學習機牛X在哪裡

極限學習機(extreme learning machine)ELM是一種簡單易用、有效的單隱層前饋神經網路SLFNs學習演算法。2004年由南洋理工大學黃廣斌副教授提出。傳統的神經網路學習演算法(如BP演算法)需要人為設置大量的網路訓練參數,並且很容易產生局部最優解。極限學習機只需要設置網路的隱層節點個數,在演算法執行過程中不需要調整網路的輸入權值以及隱元的偏置,並且產生唯一的最優解,因此具有學習速度快且泛化性能好的優點。

㈤ 極限學習機是怎麼對數據進行分類的

只要個體是31,和性格是加速度的,譜尼100級的時候,速度會是極限,這些先刷學習力,和後刷學習力,都一樣,都不會改變譜尼31個體的極限速度。

例如: 個體是31的譜尼,性格天真
100級後,速度351 非刻印極限
100級後,特功339

如果譜尼是減特功,那特功就會減掉20左右的數值

如:1級的譜尼個體31 性格膽小
從1級刷毛毛 到一百級極限速度351 非刻印
而先分配二十萬()經驗,升到50級左右
用小號刷學習力。加6倍學習力,加一個雙倍學習機,刷一次加216的努力值
譜尼一百級時,極限速度也一樣351

㈥ 新加坡機器學習方向有什麼學術牛人

新加坡南洋理工大學的黃廣斌還可以吧,號稱首次提出了極限學習機演算法(ELM),把支持向量機也納入到他提出的ELM框架了,說支持向量機是ELM的一種特例。(機器學習演算法與Python學習)

㈦ 極限學習機的Boosting集成演算法matlab怎麼編碼急著做實驗自己現編有點來不及了,有沒有成熟的代碼

你的極限學習機的Boosting集成演算法,能跟我分享一下嗎,謝謝。

熱點內容
a演算法解決八數碼問題 發布:2025-01-22 14:32:39 瀏覽:273
python編譯exe 發布:2025-01-22 14:31:11 瀏覽:451
現在密碼箱多少錢 發布:2025-01-22 14:30:26 瀏覽:970
aspnet訪問access 發布:2025-01-22 14:14:15 瀏覽:924
鴻蒙系統和安卓的哪個耗電 發布:2025-01-22 14:12:46 瀏覽:577
上海大眾壓縮機 發布:2025-01-22 14:02:31 瀏覽:48
讀取excel的sql 發布:2025-01-22 13:59:58 瀏覽:865
帕里斯演算法 發布:2025-01-22 13:56:51 瀏覽:62
thinkphp模板php 發布:2025-01-22 13:41:22 瀏覽:894
老牛腳本 發布:2025-01-22 13:32:08 瀏覽:284