自适应算法
A. 请问一下GRE考试的自适应模式算法是什么样的呀
虽然官方没有公布自适应算法,但根据模考和大量考生数据可以推理出如下模型:
第一套算分的section一定是medium难度的,然后如果你对0-6个,下一个同类型section就会进入easy模式;7-13个,进入median模式;14-20个,进入hard模式。
easy模式并不代表好拿分,因为得分不仅和正确题数有关,还和这个部分的难度系数有关。
ETS没有公布官方的算分方式,但是根据多方信息汇总,大致可以得出如下数据:
easy模式的题以难度系数1,2,3为主;
medium模式的题以难度系数3,4为主;
hard模式的题以难度系数4,5为主。
比如第一个section对了14题,那么第二个section=就进入到了hard模式,但这时只对了7题,最后的分数大概是155;
如果第一个section对了8题,那么第二个section进入到了medium模式,这时需要对16题才能拿到155分。
如果第一个section对了6题,那么第二个section进入到了easy模式,这时哪怕第二个section全对,也只有151分。
B. 自适应算法的性能指标
一种算法性能的好坏可以通过几个常用的指标来衡量,例如收敛速度:通常用算法达到稳定状态(即与最优值的接近程度达到一定值)的迭代次数表示;误调比:实际均方误差相对于算法的最小均方误差的平均偏差;运算复杂度:完成一次完整迭代所需的运算次数;跟踪性能:对信道时变统计特性的自适应能力。
C. 操作系统中自适应算法的自适应性指
任务管理算法,不同的任务分配的运行时间片根据需要和重要性划分,这样可以提高效率。这对于多线程性能具有较大的提升。最为简单的方法,每个任务都分配相同的运行时间,时间到,中断,压栈,运行另一个任务,....。这样效率不高。自适应算法可以动态辨识和调整每个任务的运行时间。
D. 变步长LMS自适应滤波算法的MATLAB程序
clear all
close all
N=10; %滤波器阶数
sample_N=500; %采样点数
A=1; %信号幅度
snr=10; %信噪比
t=1:sample_N;
length_t=100; %期望信号序列长度
d=A*sin(2*pi*t/length_t); %期望信号
M=length(d); %M为接收数据长度
x=awgn(d,snr); %经过信道(加噪声)
delta=1/(10*N*(A^2)); %计算能够使LMS算法收敛的delta
y=zeros(1,M);
h=zeros(1,N); %LMS滤波器系数
h_normalized=zeros(1,N); %归一化LMS滤波器系数
y1=zeros(1,N);
for n=N:M %系数调整LMS算法
x1=x(n:-1:n-N+1);
%LMS算法
y(n)=h*x1';
e(n)=d(n)-y(n);
h=h+delta*e(n)*x1;
%NLMS算法
y_normalized(n)=h_normalized*x1';
e_normalized(n)=d(n)-y_normalized(n);
h_normalized=h_normalized+e_normalized(n)*x1/(x1*x1');
end
error=e.^2; %LMS算法每一步迭代的均方误差
error_normalized=e_normalized.^2; %NLMS算法每一步迭代的均方误差
for n=N:M %利用求解得到的h,与输入信号x做卷积,得到滤波后结果
x2=x(n:-1:n-N+1);
y1(n)=h*x2';
y2(n)=h_normalized*x2';
end
subplot(411)
plot(t,d);
axis([1,sample_N,-2,2]);
subplot(412)
plot(t,x);
subplot(413)
plot(t,y);
subplot(414)
plot(t,y_normalized);
figure(2)
plot(t,error,'r',t,error_normalized,'b');
E. 自适应算法和学习算法的区别
个人感觉比较有道理的答案
http://blog.csdn.net/mituan1234567/article/details/45916917
F. 在自适应算法中,步长对算法的影响是怎样的怎样合理选用步长
自适应滤波器的收敛速度在很大程度上取决
于步长因子.当步长参数较大时,滤波器收敛到稳
态需要迭代次数较少,但滤波效果比步长较小时差,而
且均方误差的稳态值随着步长的变大而增大;但是当
步长参数较小时,收敛速度则会降低,因此只有选择
合适的步长参数,才能使该滤波器的性能稳定.
G. 求:matlab 自适应算法 程序!
%lms算法源程序
clear all
close all
%channel system order
sysorder = 5 ;
% Number of system points
N=2000;
inp = randn(N,1);
n = randn(N,1);
[b,a] = butter(2,0.25);
Gz = tf(b,a,-1);
%This function is submitted to make inverse Z-transform (Matlab central file exchange)
%The first sysorder weight value
%h=ldiv(b,a,sysorder)';
% if you use ldiv this will give h :filter weights to be
h= [0.0976;
0.2873;
0.3360;
0.2210;
0.0964;];
y = lsim(Gz,inp);
%add some noise
n = n * std(y)/(10*std(n));
d = y + n;
totallength=size(d,1);
%Take 60 points for training
N=60 ;
%begin of algorithm
w = zeros ( sysorder , 1 ) ;
for n = sysorder : N
u = inp(n:-1:n-sysorder+1) ;
y(n)= w' * u;
e(n) = d(n) - y(n) ;
% Start with big mu for speeding the convergence then slow down to reach the correct weights
if n < 20
mu=0.32;
else
mu=0.15;
end
w = w + mu * u * e(n) ;
end
%check of results
for n = N+1 : totallength
u = inp(n:-1:n-sysorder+1) ;
y(n) = w' * u ;
e(n) = d(n) - y(n) ;
end
hold on
plot(d)
plot(y,'r');
title('System output') ;
xlabel('Samples')
ylabel('True and estimated output')
figure
semilogy((abs(e))) ;
title('Error curve') ;
xlabel('Samples')
ylabel('Error value')
figure
plot(h, 'k+')
hold on
plot(w, 'r*')
legend('Actual weights','Estimated weights')
title('Comparison of the actual weights and the estimated weights') ;
axis([0 6 0.05 0.35])
% RLS 算法
randn('seed', 0) ;
rand('seed', 0) ;
NoOfData = 8000 ; % Set no of data points used for training
Order = 32 ; % Set the adaptive filter order
Lambda = 0.98 ; % Set the forgetting factor
Delta = 0.001 ; % R initialized to Delta*I
x = randn(NoOfData, 1) ;% Input assumed to be white
h = rand(Order, 1) ; % System picked randomly
d = filter(h, 1, x) ; % Generate output (desired signal)
% Initialize RLS
P = Delta * eye ( Order, Order ) ;
w = zeros ( Order, 1 ) ;
% RLS Adaptation
for n = Order : NoOfData ;
u = x(n:-1:n-Order+1) ;
pi_ = u' * P ;
k = Lambda + pi_ * u ;
K = pi_'/k;
e(n) = d(n) - w' * u ;
w = w + K * e(n) ;
PPrime = K * pi_ ;
P = ( P - PPrime ) / Lambda ;
w_err(n) = norm(h - w) ;
end ;
% Plot results
figure ;
plot(20*log10(abs(e))) ;
title('Learning Curve') ;
xlabel('Iteration Number') ;
ylabel('Output Estimation Error in dB') ;
figure ;
semilogy(w_err) ;
title('Weight Estimation Error') ;
xlabel('Iteration Number') ;
ylabel('Weight Error in dB') ;
H. 2、路由选择算法主要分哪几类分布式自适应算法的基本思想是什么
路由选择算法主要分两类:静态路由选择算法和动态路由选择算法
分布自适应路由选择算法的网络,所有节点定其地与其每个相邻节点交换路由选择信息。每个节点均存储一张以网络中其它每个节点为索引的路由选择表,网络中每个节点占用表中一项,每一项又分为两个部分,即所希望使用的到目的节点的输出线路和估计到目的节点所需要的延迟或距离。度量标准可以是毫秒或链路段数、等待的分组数、剩余的线路和容量等。对于延迟,节点可以直接发送一个特殊的称作“回声”(echo)的分组,接收该分组的节点将其加上时间标记后尽快送回,这样便可测出延迟。有了以上信息,节点可由此确定路由选择。
I. 小波分层自适应算法的matlab程序
谢邀,不会。
建议去matlab论坛下载,或者自行google网络(code: matlab 小波???)
J. 自适应算法的介绍
自适应( self-adaptive)是指处理和分析过程中,根据处理数据的数据特征自动调整处理方法、处理顺序、处理参数、边界条件或约束条件,使其与所处理数据的统计分布特征、结构特征相适应,以取得最佳的处理效果。