当前位置:首页 » 操作系统 » 阈值算法

阈值算法

发布时间: 2022-01-08 06:46:18

‘壹’ 什么是神经网络算法的阈值

神经元是一个多输入单输出的非线性单元,输入之和需要超过一定数值时,输出才会有反应,这个数值一般称为阈值

‘贰’ canny 算法的阈值,有两个,到底是做什么用的

第一个是低阈值,第二个高阈值
高阈值比较严格,求的边缘很少,认为高阈值的边缘都是有效。低阈值宽松,求的边缘很多(一般包括了高阈值求到的边缘),其中不少是无效的边缘(反正不想要的)。
先用高阈值求边缘。canny求得的边缘希望是连在一起的(通常是封闭的),但高阈值求的边缘一般断断续续。断开的地方如果低阈值求的边缘存在,就用低阈值的边缘接上去,目的让边缘尽量都连在一起。其它情况下低阈值的边缘是不用的。

两个阈值是有区别的,高的那个阈值是将要提取轮廓的物体与背景区分开来,就像阈值分割的那个参数一样,是决定目标与背景对比度的,低的那个阈值是用来平滑边缘的轮廓,有时高的阈值设置太大了,可能边缘轮廓不连续或者不够平滑,通过低阈值来平滑轮廓线,或者使不连续的部分连接起来

‘叁’ 动态阈值一般有什么算法谢谢啦,没钱。。。

%本程序是利用最大类间方差算法求解自适应阈值,对图像进行分割
clear;
warning off;

web -browser
SE = strel('diamond',4);
BW1 = imread('img1.bmp');
BW2 = imerode(BW1,SE);
BW3 = imdilate(BW2,SE);
BW4 = BW1-BW3;

%rgb转灰度
if isrgb(BW4)==1
I_gray=rgb2gray(BW4);
else
I_gray=BW4;
end
figure,imshow(I_gray);
I_double=double(I_gray);%转化为双精度
[wid,len]=size(I_gray);
colorlevel=256; %灰度级
hist=zeros(colorlevel,1);%直方图
%threshold=128; %初始阈值

%计算直方图
for i=1:wid
for j=1:len
m=I_gray(i,j)+1;
hist(m)=hist(m)+1;
end
end
hist=hist/(wid*len);%直方图归一化
miuT=0;
for m=1:colorlevel
miuT=miuT+(m-1)*hist(m);
end
xigmaB2=0;

for mindex=1:colorlevel
threshold=mindex-1;
omega1=0;
omega2=0;
for m=1:threshold-1
omega1=omega1+hist(m);
end
omega2=1-omega1;
miu1=0;
miu2=0;

for m=1:colorlevel
if m<threshold
miu1=miu1+(m-1)*hist(m);
else
miu2=miu2+(m-1)*hist(m);
end
end
miu1=miu1/omega1;
miu2=miu2/omega2;
xigmaB21=omega1*(miu1-miuT)^2+omega2*(miu2-miuT)^2;
xigma(mindex)=xigmaB21;
if xigmaB21>xigmaB2
finalT=threshold;
xigmaB2=xigmaB21;
end
end
fT=finalT/255 %阈值归一化
T=graythresh(I_gray)%matlab函数求阈值
for i=1:wid
for j=1:len
if I_double(i,j)>finalT
bin(i,j)=1;
else
bin(i,j)=0;
end
end
end
figure,imshow(bin);
figure,plot(1:colorlevel,xigma);
已发送,请查收,发送邮箱[email protected] ,你的邮箱名是错的,弹回来了。反正这里也有,不发了。

‘肆’ 什么是差分阈值法

差分阈值法是一种适合于对实时性较高的心电信号QRS波检测的快速算法,其基本原理是:由于QRS波是心电信号波形变化最剧烈的地方,其波形的上升斜率或是下降斜率与其他波形相比有显着不同,所以可以同过检测心电信号序列对时间的导数即斜率的变化情况来检测R波的位置。通常在R波的上升沿和下降沿是是心电波形斜率变化最大的区域,在这范围内出现的一阶导数过零点,二阶导数极值点即我们所要检测的R波位置。通过多滤波后的心电信号进行一阶差分或二阶差分并结合确定的阈值,检测出R波。

‘伍’ 机器学习中,有没有给定的阈值返回聚类结果的算法

机器学习通过从数据里提取规则或模式来把数据转换成信息。主要的方法有归纳学习法和分析学习法。数据首先被预处理,形成特征,然后根据特征创建某种模型。机器学习算法分析收集到的数据,分配权重、阈值和其他参数达到学习目的。如果只想把数据分成不同的类,那么“聚类”算法就够了;如果需要预测,则需要一个“分类”算法。OpenCV库里面包含的是基于概率统计的机器学习方法,贝叶斯网络、马尔科夫随机场、图模型等较新的算法还在成长过程中,所以OpenCV还没有收录。
机器学习的算法有很多很多:1、Mahalanobis
2、K-means 非监督的聚类方法3、朴素贝叶斯分类器 特征是高斯分布&&统计上相互独立 条件比较苛刻4、决策数 判别分类器,根据阈值分类数据,速度快。ID3,C4.5
5、Boosting 多个判别子分类器的组合6、随机森林 由多个决策树组成7、人脸检测/Haar分类器 使用Boosting算法8、期望最大化EM 用于聚类的非监督生成算法
9、K-近邻 最简单的分类器10、神经网络(多层感知器) 训练分类器很慢,但是识别很快11、支持向量机 SVM 可以分类,也可以回归。通过分类超平面实现在高维空间里的最优分类
12、遗传算法 借鉴生物遗传机制 ,随机化埂攻第煌郢号电铜钉扩非线性计算算法总之呢,个人觉得,机器学习、数据挖掘、模式识别、专家系统等方向和领域目前还是一种比较混乱的局面。学术界和商业界可能是不同的,关于算法的理论研究和使用这些方法生成商品是分别关注的。按照不同的领域、不同的方法可以划分出众多的分支。但是有一点是肯定的,这些在上世纪80年代提出来的公式和证明,如今正在变成一行行的代码,在一些猫(tomcat)、IIS等服务器的支持下,爬上了网络,到处寻觅对主人有用的信息,然后运送到网络中,最终生成产品,或者半产品。看看你电脑上的那根网线,它那么小,但是很难想象它从你的电脑上拿走了什么,又给你送来了什么。有些远了,继续说数据这些事。目前我接触过的算法有:(太多了,一时间真不好说出来) 神经网络(感知器、BP、RBF等很多的算法),遗传算法,支持向量机,层次分析法,各种回归,灰色系统(国产的方法,用于不确定知识的预测),粗糙集,贝叶斯网络,时间序列分析(也有很多)。学习和研究纸面的算法公式只是第一步,不可以忽略的基础,如何使用这些方法,在浩瀚的互联网上找到自己需要的、满足客户需要的数据和信息,从而让需要的人能够更加方便地得到,是今后的重头戏了。貌似很多的企业已经进军数据仓库这一块,并尝到了巨大的甜头,也有企业养着一队预备军,专注研发,随时准备奔赴前线,占领市场。无线网络市场的竞争已经到了激烈的局面,普适计算的时代也快到了吧。它依赖于硬件产品的可穿戴,和软件产品的内嵌、快速响应。总而言之,越来越人性化,谁都不愿意抱着笔记本电脑蹲厕所,是吧?

‘陆’ 神经网络算法中权值W和阈值的定义是什么

因为高斯距离在欧式几何中定义的。(就是说这个最短)权值就是类似于方程y=ax+b,中a的值。训练好的神经网络对于新的数据不一定是最优的。甚至不一定可以用来预测。

‘柒’ matlab中面积阈值算法是什么跪求!!!!谢谢了!!!

第一类是阈值方法,这种方法是根据图像灰度值得分布特性确定某个阈值来进行图像分割...MATLAB图像处理工具箱中的watershed函数可以用于显示分水岭算法。

‘捌’ 怎样理解变换编码中的阈值编码

.com/kekewutao/blog/item/0bafc700d2849011728b65fd.html" target="_blank">http://hi..com/kekewutao/blog/item/0bafc700d2849011728b65fd.html

使用MATLAB设计小波变换程序中的若干问题3[转贴]
使用MATLAB设计小波变换程序中的若干问题仍需探讨的问题:为什么使用PNG存储经小波变换后的重构图像变大? 我曾在清华大学的多媒体课程的教师答疑中写了“老师:尊重事实:DB9阈值10的PNG文件就是比原文件大”和“续一:尊重事实:DB9阈值10的PNG文件就是比原文件大”,在林老师的鼓励和指导下,我进行了继续试验、分析,与刘赵璧(Anna)同学进行了探讨,并得到了Lily(姓名还不知道)同学的帮助,同时同学们也做了各自不同的实验,现在的实验结果可以说基本上比较明确,那就是有些图像就是会变大,这与图像的种类、纹理等密切相关。林老师曾经鼓励我去研究一下PNG的压缩方法,无奈我资质不够,至今在这方面的进展不大。由于临近期末考试,作业也要抓紧,所以我暂且将没有搞明白的内容搁置,待寒假期间再进行,希望对这些问题有各种看法也有兴趣研究的同学对此发表意见。以下是我最近试验、分析和阅读到的一些相关信息。试验结果 我首先根据老师第三章的Haar矩阵算法推演出DB9的系数矩阵,并实现了分解重构及阈值处理程序,对几种照片进行了比较,然后使用3.1节的simplecmp进行了相同照片的实验,结果相当一致。细小差别是因为我的程序对边界的扩展与MATLAB不一样,在设置阈值后引起了边界上小部分不一致造成的。表一:真彩色图像百合花的处理结果阈值 Png
Haar(Mat/Mine) 0数
Haat
(Mat/Mine) PNG
Db9
(MAT / Mine) 0数
Db9
(MAT / Mine)
95973 / 95973
0 95973 / 95973 27524 / 24268 95973 / 95973 27 / 9
5 74552 / 74292 135838 / 136063 101882 / 101992 167412 /165662
10 51976 / 51504 163423 / 163741 98411 / 98861 199200 / 195730
20 32474 / 32346 180167 / 180267 92295 / 93660 220629 / 217214
从对比表中我们能够看到2个程序的结果相当一致,因此,我不再给出两种程序的对比,而是使用simplecmp直接处理的结果说明。 将百合花图像使用[I,map]=rgb2ind(x,255);转换成为彩色图像处理,在将伪彩色图像转换为连续变换的灰度图像(如2.4常见问题中讨论的方法)进行处理:表二:百合花的伪彩色图像和处理后的灰度(gray)图像的处理结果阈值 Png
Haar(Index/Gray) 0数
Haar(Index/Gray) PN
Db9(Index/Gray) 0数
Db9
(Index/Gray)
48535 / 43235
0 48535 / 43235 6096/ 7430 48535/ 43235 18 / 22
5 53207 / 36450 9473/ 43626 60362 / 49927 7009 / 52852
10 58025 / 23602 13362/ 54344 64916 / 47813 13202 / 65881
20 60193/ 14347 21948 / 60039 66020/ 46014 24468 / 73494
其他伪彩色与进行加工的灰度图的结果与此完全一致,这也就说明了如果伪彩色文件的色板不是单调性递增就不适合小波分解。“The color bar to the right of the image is not smooth and does not monotonically progress from dark to light. This type of indexed image is not suitable for direct wavelet decomposition with the toolbox and needs to be preprocessed.”。我对 Facets进行同样的实验,结果与此一致。这种处理的结果可以从图像象素值的连续性来理解。这是处理与不处理的图像的中间一行的数据图。另外,不连续的图像质量在压缩后会被极大地破坏图2伪彩色文件变化前后的第128行数据的连续性情况对比分析 多种试验图片基本能够反映类似的结果,虽然Indexed Color image有时令Haar小波的分解重构图像出现增大现象,单经过处理之后,这种现象就会消失。然而对于DB9可以看到无论真彩色还是处理后的灰度图像都在阈值5 10处超过原始图像的大小,能不能因此得出DB9不适合进行图像压缩的结论呢?有一些同学确实这样认为,但我认为这种观点因为忽略了如何利用小波进行压缩和还原的过程,这也正是第四章老师为我们讲述的那些编码算法而造成的。在推荐材料[1]中也有类似的说明。图3、JPEG2000的基本结构看一下上图就可以明白为什么PNG不能衡量小波压缩的效率问题。上图的图像原始数据首先经过正变换(Forward Transform)就是小波变换的得到小波系数,变换的小波系数经过阈值处理后进行量化,编码后得到压缩的图像文件JPEG2000,如果你没有JPEG2000的显示程序,那么你就不能看到它。它的显示程序就是由解码器从压缩数据中解出编码,进行反量化,得到小波系数,再实施逆变换(Inverse Transform)就是小波系数重构。最终得到图像的原始数据。因此衡量小波变换的效率是应该看你选择的小波能不能分解出适合“编码器”压缩的小波系数,这种编码器不是PNG的LZ77,因为LZ77压缩小波分解系数的效率不是最好的。这种高效编码器在第四章可以找到。那么我们存储 PNG文件的目的是什么呢?我认为压缩与去噪(de-noising)是同一种方法的两种提法。他们都使用了设置阈值的方法。我们可以仔细分析经过重构的PNG图片的质量来体会这种消除噪音的效果,也可以评定小波压缩后的图片的视觉质量,同时PNG的文件大小也可以让我们从LZ77算法的本质来理解小波变换压缩后的重构图像的内容变化情况。比如,我们可以从表2中的灰度图像在haar变换取阈值20时出现块状象素,文件大小变为14347,而db9却为46014,超过原始的PNG大小,但并不出现块状而是具有波状的特征。这本身说明了采用Harr小波压缩或去噪后重构的图像中相同的‘串’增多,便于PNG方式压缩,而db9则在相同阈值的情况下不会象Haar那样制造‘马赛克’,说明了它的平滑性,这也能帮助我们理解小波的特性。当然,当阈值继续增加后,超过某一界限,即使DB9也仍然会使PNG文件大小减小。这本身也就是由双尺度(Dyadic)小波变换的两种滤波器决定的。低通滤波结果相当于平均值,高通滤波结果相当于差值,差值能够保证重构图像的细节部分丢失最小,如果差值部分被阈值略去的过多,细节就会越来越少,平均意义的值约来越多,直到多到某一个临界值时(该图像的阈值取到40),重构的图像也可能出现较多的相同数字串,这就会提高PNG的压缩结果。下图是我对Haar(蓝色)小波取阈值为20,db9(红色)小波阈值取40时第128行1:32列的数据曲线与原始数据(黑色)曲线的对比。可以看出也db9在阈值=40时出现了较多的平均值,但比haar在阈值=20时的曲线要少的多。图4、haar(蓝色)和db9(红色)压缩后重构图像的第128行,1:32列的数据曲线不过,MATLAB给我们提供了量化的方法来决定如何选取阈值。在HELP Wavelet Toolbox : Advance Concepts: Choosing the Optimal Decomposition中提到了几种利用“熵”的概念来衡量如何选取合适的分解级。感兴趣的同学还可以参看wentropy, wdcbm2, wpdec的帮助。文献[1]中也提到了衡量压缩质量的客观化方法MSE,PNSR并指出小波的重构滤波器的长度越长,形状越规则越能够提供良好的压缩性能。 上面对PNG的讨论因为没有足够的算法分析和程序解读,同时也没有准确的试验数据,因此只能作为猜测。但衡量小波压缩效率的方法我坚持认为不能以PNG文件大小来解说,如果采用图像文件大小来衡量,应该以JPEG2000来衡量。

‘玖’ 计算短时能量阈值的方法算法是什么

去其他网站搜索一下吧

热点内容
多看阅读上传 发布:2024-12-23 14:34:05 浏览:176
编程高性能 发布:2024-12-23 14:33:31 浏览:114
电脑加装固态后需要怎么配置 发布:2024-12-23 14:20:21 浏览:508
如何在服务器上进行序列比对 发布:2024-12-23 14:15:25 浏览:284
ga6选哪个配置车 发布:2024-12-23 14:13:36 浏览:274
鸿蒙为什么比安卓占内存 发布:2024-12-23 14:06:13 浏览:180
sql两表更新 发布:2024-12-23 14:01:29 浏览:207
linux驱动spi 发布:2024-12-23 13:25:22 浏览:115
王思聪为什么配服务器 发布:2024-12-23 13:19:48 浏览:374
安卓型号代表什么 发布:2024-12-23 13:13:29 浏览:780