极限学习机算法
㈠ 与传统bp神经网络相比,极限学习机有哪些优点
极限学习机(ELM)算法,随机产生输入层与隐含层间的连接权值及隐含层神经元的阈值,且在训练过程中无需调整,只需设置隐含层神经元的个数,便可获得唯一的最优解,与传统的BP神经网络算法相比,ELM方法学习速度快、泛化性能好。
㈡ 谁有人群密度检测的matlab代码
close all
if ~exist('aaa')||(aaa~=1)
clc
clear
%加入gabor工具箱
addpath gaborpca;
path_pos='.\pos\';
path_nes='.\nes\';
pos_dir=dir(path_pos);
nes_dir=dir(path_nes);
%构建一个gabor滤波器组
filter_bank = construct_Gabor_filters(8, 5, [128 128]);
%提取正样本得gabor特征
feature_pos_train=[];
for i=3:158
im=imread([path_pos pos_dir(i).name]);
im=rgb2gray(im);
im = imresize(im,[128 128],'bilinear'); %采用'bilinear':采用双线性插值算法扩展为128*128
raw_feature = filter_image_with_Gabor_bank(im,filter_bank,32);%%提取小波特征
feature_pos_train=[feature_pos_train,raw_feature];
end
%提取负样本得gabor特征
feature_nes_train=[];
for i=3:174
im=imread([path_nes nes_dir(i).name]);
im=rgb2gray(im);
im = imresize(im,[128 128],'bilinear'); %采用'bilinear':采用双线性插值算法扩展为128*128
feature_nes_train=[feature_nes_train,raw_feature];
end
p_train=[feature_pos_train,feature_nes_train];
t_train=[ones(156,1);2*ones(172,1)];
%对提取得gabor特征进行压缩降维处理
[mappedX, mapping]=pca(p_train,111);
p_train=mapping.M;
p_train=mapminmax(p_train',0,1)';
%载入极限学习机工具箱
addpath kernelelm %%添加极限学习机算法包
%训练极限学习机
[model_elm]=kernel_elm_muti_train(p_train',t_train', 'gaussian',3.5,10);%%根据训练中的目标得出模型
[TT,TrainingAccuracy] = kernel_elm_muti_predict(p_train',t_train',model_elm);
end
%测试视频
aaa=1;
raw_feature2=[];
for i=1:1200
X=imread(strcat('picture\',num2str(i),'.jpg'));
im=rgb2gray( X);
im = imresize(im,[128 128],'bilinear'); %采用'bilinear':采用双线性插值算法扩展为128*128
feature222 = filter_image_with_Gabor_bank(im,filter_bank,32);%%提取小波特征
raw_feature2=[raw_feature2,feature222];
disp(sprintf('%i ',i));
end
raw_feature2=mapminmax(raw_feature2',0,1);
p_test=raw_feature2*mappedX;
p_test=mapminmax(p_test',0,1)';
[TT,TrainingAccuracy] = kernel_elm_muti_predict(p_test',ones(1200,1)',model_elm);
clc
%输出每帧图得计算结果
for i=1:1200
if(TT(i)==2)
disp(sprintf('第%i帧图正常',i));
else
disp(sprintf('第%i帧图报警',i));
end
end
㈢ elm极限学习机做预测为什么预测不准
matlab 运行极限学习机为什么每次运行正确率不一样?这是因为每次给出的初始值不同,而造成误差。教你一招,不妨试一下每次调用matlab后去运行该程序的结果是否基本一致。
㈣ 谁能解释极限学习机牛X在哪里
极限学习机(extreme learning machine)ELM是一种简单易用、有效的单隐层前馈神经网络SLFNs学习算法。2004年由南洋理工大学黄广斌副教授提出。传统的神经网络学习算法(如BP算法)需要人为设置大量的网络训练参数,并且很容易产生局部最优解。极限学习机只需要设置网络的隐层节点个数,在算法执行过程中不需要调整网络的输入权值以及隐元的偏置,并且产生唯一的最优解,因此具有学习速度快且泛化性能好的优点。
㈤ 极限学习机是怎么对数据进行分类的
只要个体是31,和性格是加速度的,谱尼100级的时候,速度会是极限,这些先刷学习力,和后刷学习力,都一样,都不会改变谱尼31个体的极限速度。
例如: 个体是31的谱尼,性格天真
100级后,速度351 非刻印极限
100级后,特功339
如果谱尼是减特功,那特功就会减掉20左右的数值
如:1级的谱尼个体31 性格胆小
从1级刷毛毛 到一百级极限速度351 非刻印
而先分配二十万()经验,升到50级左右
用小号刷学习力。加6倍学习力,加一个双倍学习机,刷一次加216的努力值
谱尼一百级时,极限速度也一样351
㈥ 新加坡机器学习方向有什么学术牛人
新加坡南洋理工大学的黄广斌还可以吧,号称首次提出了极限学习机算法(ELM),把支持向量机也纳入到他提出的ELM框架了,说支持向量机是ELM的一种特例。(机器学习算法与Python学习)
㈦ 极限学习机的Boosting集成算法matlab怎么编码急着做实验自己现编有点来不及了,有没有成熟的代码
你的极限学习机的Boosting集成算法,能跟我分享一下吗,谢谢。