当前位置:首页 » 操作系统 » 半监督分类算法

半监督分类算法

发布时间: 2023-05-27 15:45:49

⑴ 使用不可靠伪标签的半监督语义分割

CVPR2022

https://arxiv.org/pdf/2203.03884.pdf

Semi-Supervised Semantic Segmentation Using Unreliable Pseudo-Labels

半监督语义分割的关键是为未标记图像的像素分配足够的伪标签。一种常见的做法是选择高置信度的预测作为伪真值,但这会导致一个问题,即大多数像素可能由于不可靠而未被使用。我们认为,每个像素对模型训练都很重要,即使它的预测是模糊的。直觉上,不可靠的预测可能会在顶级类别(即概率最高的类别)中混淆,但雀轿是,它应该对不属于其余类别的像素有信心。因此,对于那些最不可能的类别,这样一个像素可以令人信服地视为负样本。基于这一认识,我们开发了一个有效的管道,以充分利用未标记的数据。具体地说,我们通过预测春拍熵来分离可靠和不可靠像素,将每个不可靠像素推送到由负样本组顷森肆成的类别队列中,并设法用所有候选像素来训练模型。考虑到训练进化,预测变得越来越准确,我们自适应地调整可靠-不可靠划分的阈值。在各种基准和训练环境下的实验结果表明,我们的方法优于最先进的替代方法。

1.导言

语义分割是计算机视觉领域的一项基本任务,随着深度神经网络的兴起,语义分割得到了极大的发展[5,29,35,46]。现有的有监督方法依赖于大规模带注释的数据,在实践中获取这些数据的成本太高。为了缓解这个问题,人们进行了许多尝试[1,4,9,15,21,33,43,48]来实现半监督语义分割,即学习只有少量标记样本和大量未标记样本的模型。在这种情况下,如何充分利用未标记的数据变得至关重要。

典型的解决方案是为没有注释的像素分配伪标签。具体地说,给定一个未标记的图像,现有技术[27,41]从基于标记数据训练的模型中借用预测,并使用像素预测作为“基本事实”,从而增强监督模型。为了缓解确认偏差的问题[2],模型可能会受到错误的伪标签的影响,现有方法建议使用置信度分数过滤预测[42,43,50,51]。换句话说,只有高置信度的预测被用作伪标签,而模糊的预测被丢弃。

然而,仅使用可靠的预测所导致的一个潜在问题是,在整个训练过程中可能永远无法学习某些像素。例如,如果模型不能令人满意地预测某个特定类别(例如,图1中的椅子),则很难为关于该类别的像素分配准确的伪标签,这可能导致训练不足且绝对不平衡。从这个角度出发,我们认为,为了充分利用未标记的数据,每个像素都应该得到适当的利用。

如上所述,直接使用不可靠的预测作为伪标签将导致性能下降[2]。在本文中,我们提出了一种使用不可靠伪标签的替代方法。我们称我们的框架为U2PL。首先,我们观察到,一个不可靠的预测通常只会在少数几个类中混淆,而不是在所有类中混淆。以图2为例,带有白色十字的像素在等级摩托车和人身上接收到相似的概率,但模型非常确定该像素不属于等级汽车和火车。基于这一观察,我们重新考虑那些令人困惑的像素,将其作为那些不太可能的类别的负样本。具体来说,在从未标记图像获得预测后,我们使用每像素熵作为度量(参见图2a),将所有像素分为两组,即可靠和不可靠。所有可靠的预测都被用来导出正的伪标签,而预测不可靠的像素被推入充满负样本的内存库。为了避免所有负面伪标签只来自类别的子集,我们为每个类别使用了一个队列。这样的设计确保了每个类的负样本数量是平衡的。同时,考虑到伪标签的质量随着模型的精确性越来越高,我们提出了一种自适应调整阈值的策略来划分可靠像素和不可靠像素。

我们在广泛的训练环境下,在PASCAL VOC 2012[14]和Cityscapes[10]上评估了提议的U2PL,我们的方法超过了最先进的竞争对手。此外,通过可视化分割结果,我们发现,由于充分使用了不可靠的伪标签,我们的方法在那些模糊区域(例如,不同对象之间的边界)上取得了更好的性能。

2.相关工作

半监督学习有两种典型范例:

一致性正则化[3,15,33,36,42]和熵最小化[4,16]。最近,一个更直观但有效的框架:自训练[27]已成为主流。有几种方法[15,43,44]利用了强大的数据增强功能,例如基于自训练的CutOut[13]、CutMix[45]和ClassMix[31]。然而,这些方法并没有太多关注语义分割的特点,而我们的方法主要关注那些不可靠的像素,这些像素将被大多数基于自训练的方法过滤掉[34,43,44]。

当从教师网络生成输入图像的预测时,伪标签用于防止过度拟合到正确的伪标签[2,27]。FixMatch[37]利用置信阈值来选择可靠的伪标签。UPS[34]是一种基于FixMatch[37]的方法,它考虑了模型不确定性和数据不确定性。然而,在半监督语义分割中,我们的实验表明,在训练中加入不可靠的像素可以提高性能。

计算机视觉中的模型不确定性主要通过贝叶斯深度学习方法进行测量[12,23,30]。在我们的环境中,我们不关注如何测量不确定性。我们简单地使用像素概率分布的熵作为度量。

对比学习被许多成功的研究成果应用于自监督学习[7,8,17]。在语义切分中,对比学习已经成为一种很有前途的新范式[1,28,40,47,49]。然而,这些方法忽略了半监督分割中常见的假负样本,不可靠的像素可能会在对比丢失中被错误地推开。区分不太可能的不可靠像素类别可以解决这个问题。

负面学习旨在通过降低负面样本的概率来降低错误信息的风险[24,25,34,39],但这些负面样本的选择具有较高的可信度。换言之,这些方法仍然使用可靠的预测。相比之下,我们建议充分利用这些不可靠的预测进行学习,而不是将其过滤掉。

3.方法

在这一节中,我们从数学上建立了我们的问题,并在第二节中概述了我们提出的方法。3.1首先。我们过滤可靠伪标签的策略将在第二节中介绍。3.2. 最后,我们描述了如何在Sec中使用不可靠的伪标签。3.3.

3.1. 概述

给定一个标记集Dl=(x l i,y l i)Nl i=1和一个更大的未标记集Du={x u i}Nu i=1,我们的目标是通过利用大量未标记数据和较小的标记数据集来训练语义分割模型。

图3给出了U2PL的概述,它遵循典型的自训练框架,具有相同架构的两个模型,分别命名为教师和学生。这两个模型只有在更新权重时才有所不同。学生模型的权重θs更新与常规做法一致,而教师模型的权重θt是由学生模型的权重更新的指数移动平均(EMA)。每个模型由一个基于CNN的编码器h、一个带有分割头f的解码器和一个表示头g组成。在每个训练步骤中,我们对B标记图像Bl和B未标记图像Bu进行同等采样。对于每个标记的图像,我们的目标是最小化等式(2)中的标准交叉熵损失。对于每个未标记的图像,我们首先将其放入教师模型中并进行预测。然后,基于像素级熵,我们在计算等式(3)中的无监督损失时忽略了不可靠的像素级伪标签。这一部分将在第二节中介绍。3.2详细说明。最后,我们使用对比损失来充分利用非监督损失中排除的不可靠像素,这将在第二节中介绍。3.3.

我们的优化目标是最大限度地减少总体损失,具体如下:

其中Ls和Lu分别表示标记图像和未标记图像上的监督损失和非监督损失,Lc表示充分利用不可靠伪标签的对比损失。λu和λc分别是无监督损失和对比损失的权重。Ls和Lu都是交叉熵(CE)损失:

其中,y l i表示第i个标记图像的手注释遮罩标签,yˆu i是第i个未标记图像的伪标签。F◦ h是h和f的合成函数,这意味着图像首先被送入h,然后被送入f以得到分割结果。Lc是像素级信息[32]损耗,定义为:

其中M是锚像素的总数,zci表示类c的第i个锚的表示。每个锚像素后面有一个正样本和N个负样本,其表示为z+ci和z− 分别是cij。注意z=g◦ h(x)是表示头的输出。h·,·i是来自两个不同像素的特征之间的余弦相似性,其范围限制在−1到1,因此需要温度τ。在[28]之后,我们设定M=50,N=256,τ=0.5。

3.2. 伪标记

为了避免过度拟合错误的伪标签,我们利用每个像素概率分布的熵来过滤高质量的伪标签,以便进一步监督。具体来说,我们表示pij∈ R C为教师模型的分割头在像素j处为第i个未标记图像生成的softmax概率,其中C为班级数量。其熵由以下公式计算:

其中,pij(c)是第c维的pij值。

然后,我们将熵在αt上的像素定义为不可靠的伪标签,这种不可靠的伪标签不适合监督。因此,我们将像素j处第i个未标记图像的伪标签定义为:

式中,γt表示第t个训练步骤的熵阈值。我们将γt设为对应于αt的分位数,即γt=np。百分位(H.flatte(),100*(1-αt)),其中H是每像素熵图。为了提高性能,我们在伪标记过程中采用了以下调整策略。

动态分区调整。

在训练过程中,伪标签逐渐趋于可靠。基于这种直觉,我们在每个历元用线性策略调整不可靠像素的比例αt:

其中α0为初始比例,设置为20%,t为当前训练时间。

自适应体重调整。

在获得可靠的伪标签后,我们将其纳入等式(3)中的无监督损失中。该损失的权重λu定义为当前小批量中熵小于阈值γt的像素百分比乘以基本权重η的倒数:

其中1(·)为指示器功能,η设为1。

3.3. 使用不可靠的伪标签

在半监督学习任务中,丢弃不可靠的伪标签或降低其权重被广泛用于防止模型性能下降[37,41,43,50]。我们遵循这一直觉,根据公式(6)过滤掉不可靠的伪标签。

然而,这种对不可靠伪标签的蔑视可能会导致信息丢失。显然,不可靠的伪标签可以提供更好的识别信息。例如,图2中的白色十字是典型的不可靠像素。它的分布显示了模型的不确定性,以区分阶级的人和阶级的摩托车。然而,这种分布也证明了模型的确定性,即不会将该像素区分为普通汽车、普通火车、普通自行车等。这种特性为我们提出使用不可靠的伪标签进行半监督语义分割提供了主要依据。

U2PL的目标是利用不可靠的伪标签信息进行更好的区分,这与最近流行的对比学习范式在区分表征方面是一致的。但由于在半监督语义分割任务中缺少标记图像,我们的U2PL基于更复杂的策略。U2PL有三个组件,分别命名为锚像素、正候选和负候选。这些分量是以抽样的方式从某些集合中获得的,以减少巨大的计算成本。接下来,我们将介绍如何选择:(a)锚定像素(查询);(b) 每个锚的正样本;(c) 每个锚的负样本。锚定像素。在训练期间,我们为当前小批量中出现的每个类采样锚像素(查询)。我们将c类的所有标记候选锚像素的特征集表示为Al c,

其中,yij是标记图像i的第j个像素的基本真值,δp表示特定类别的正阈值,并在[28]之后设置为0.3。zij的意思是

标记图像i的第j个像素的表示。对于未标记数据,对应的Au c可计算为:

它与Al c类似,唯一的区别是我们使用基于等式(6)的伪标签yˆij,而不是手工标注的标签,这意味着合格的锚像素是可靠的,即H(pij)≤ γt。因此,对于c级,所有合格的锚定装置

正样本。

同一类别的所有锚的正样本相同。它是所有可能锚定的中心:

负样本。

我们定义了一个二进制变量nij(c)来识别图像i的第j个像素是否符合c类负样本的条件。

其中,nlij(c)和nuij(c)是标记图像i和未标记图像i的第j个像素是否分别合格为c类负样本的指示符。

对于第i个标记图像,c类合格负样本应为:(a)不属于c类;(b) 很难区分c类和它的基本事实类别。因此,我们引入像素级别的类别顺序Oij=argsort(pij)。显然,我们有Oij(arg max pij)=0和Oij(arg min pij)=C− 1.

其中rl是低秩阈值,设置为3。这两个指标分别反映了特征(a)和(b)。

对于c类样品:(i)对于a类样品,不可靠;(b) 可能不属于c类;(c) 不属于最不可能的类别。类似地,我们也使用Oij来定义nuij(c):其中rh是高阶阈值,设置为20。最后,c类的负样本集是

分类记忆库。

由于数据集的长尾现象,某些特定类别的负面候选数据在小批量中非常有限。为了保持负样本的稳定数量

我们使用分类记忆库Qc(FIFO队列)存储c类的负样本。

最后,算法1展示了使用不可靠伪标签的整个过程。锚的所有特征都与梯度有关,因此来自学生,而正样本和负样本的特征则来自教师。

4.实验

4.1. 安装程序

数据集。

PASCAL VOC 2012[14]数据集是一个标准的语义分割基准,包含20个对象语义类和1个背景语义类。训练集和验证集分别包括1464和1449张图像。在[9,21,43]之后,我们使用SBD[18]作为增广集,增加了9118张额外的训练图像。由于SBD[18]数据集是粗略注释的,PseudoSeg[50]只将标准1464幅图像作为整个标记集,而其他方法[9,21]将所有10582幅图像作为候选标记数据。因此,我们在经典集(1464张候选标记图像)和混合集(10582张候选标记图像)上评估了我们的方法。Cityscapes[10]是一个为城市场景理解而设计的数据集,由2975张带有精细注释的面具的训练图像和500张验证图像组成。对于每个数据集,我们将U2PL与1/2、1/4、1/8和1/16分区协议下的其他方法进行比较。

网络结构。

我们使用在ImageNet[11]上预先训练过的ResNet-101[19]作为主干,使用DeepLabv3+[6]作为解码器。分割头和表示头都由两个Conv BN ReLU块组成,其中两个块都保持特征图分辨率,第一个块将通道数减半。分割头可以看作是一个像素级分类器,将ASPP模块输出的512维特征映射到C类中。表示头将相同的特征映射到256维的表示空间。

评价

按照之前的方法[15,21,33,48],图像被中心裁剪成PASCAL VOC 2012的固定分辨率。对于城市景观,以前的方法适用于幻灯片窗口评估,我们也是。然后,我们采用联合上的相交平均值(mIoU)作为度量来评估这些裁剪图像。所有结果均在城市景观[10]和PASCAL VOC 2012[14]上的val集上测量。在1/4和1/8分区方案下,对搅拌器PASCAL VOC 2012[14]val进行了烧蚀研究。

实施细节。

对于搅拌机和经典PASCAL VOC 2012数据集的训练,我们使用了随机梯度下降(SGD)优化器,初始学习率为0.001,重量衰减为0.0001,作物大小为513×513,批量大小为16,训练时间为80。对于城市景观数据集上的训练,我们还使用了随机梯度下降(SGD)优化器,初始学习率为0.01,权重衰减为0.0005,作物大小为769×769,批量大小为16,训练时间为200。在所有实验中,解码器的学习速度是主干网的十倍。在训练过程中,我们使用poly调度来衰减学习率:lr=lrbase·

4.2. 与现有备选方案的比较

我们将我们的方法与以下最新的半监督语义切分方法进行了比较:均值教师(MT)[38]、CCT[33]、GCT[22]、伪SEG[50]、CutMix[15]、CPS[9]、PC2Seg[48]、AEL[21]。我们重新实现了MT[38],CutMix[45],以进行公平比较。对于城市景观[10],我们还复制了CPS[9]和AEL[21]。所有结果都配备了相同的网络架构(DeepLabv3+作为解码器,ResNet-101作为编码器)。需要注意的是,经典PASCAL VOC 2012数据集和blender PASCAL VOC 2012数据集仅在训练集上有所不同。他们的验证集是相同的,共有1449张图像。

经典PASCAL VOC 2012数据集的结果。

标签。我们的经典VOC-2012数据集与其他最先进的方法PASCAL-1进行了比较。在1/16、1/8、1/4和1/2分区协议下,U2PL的性能分别比监督基线高出+22.21%、+14.23%、+7.78%和+4.47%。为了公平比较,我们只列出在经典PASCAL VOC 2012上测试的方法。在1/16、1/8、1/4和1/2分区协议下,我们的方法U2PL在所有分区协议下的性能分别比PC2Seg高出+10.98%、+2.87%、+3.88%和+3.11%。即使在完全监督下,我们的方法也比PC2Seg高出+5.34%。

blender PASCAL VOC 2012数据集的结果。

标签。2显示了blender PASCAL VOC 2012数据集上的比较结果。在大多数分区协议下,我们的方法U2PL优于所有其他方法。与基线模型(仅使用监督数据进行训练)相比,U2PL在1/16、1/8、1/4和1/2分区协议下分别实现了+9.34%、+7.46%、+3.50%和+3.37%的所有改进。与现有的最先进的方法相比,U2PL在所有分区协议下都优于它们。特别是在1/8协议和1/4协议下,U2PL的性能优于AEL,分别为+1.44%和+1.24%。

城市景观数据集上的结果。

标签。CitySVal 3演示了在Capes集合上的比较结果。在1/16、1/8、1/4和1/2分区协议下,U2PL的性能比仅受监督的基线提高了+9.16%、+3.95%、+4.08%和+1.29%。U2PL的性能显着优于现有的最先进方法。特别是,在1/16、1/8、1/4和1/2分区协议下,U2PL的性能优于AEL,分别为+0.45%、+0.93%、+1.03%和+0.11%。

请注意,当标记数据非常有限时,例如,当我们只有92个标记数据时,我们的U2PL比以前的方法有很大的优势(对于经典的PASCAL VOC 2012,在1/16分割下(+10.98%),证明了使用不可靠伪标签的效率。

4.3. 消融研究

使用不可靠伪标签的有效性。

为了证明我们的核心观点,即使用不可靠的伪标签促进半监督语义分割,我们进行了关于选择可靠性不同的否定候选词(第3.3节)的实验。标签。4演示了PASCAL VOC 2012 val集合上的mIoU结果。“不可靠”优于其他选项,证明使用不可靠的伪标签确实有帮助。附录B显示了在城市景观上使用不可靠伪标签的有效性。

概率等级阈值的有效性。

秒。3.3建议使用概率等级阈值来平衡不可靠像素造成的信息量和混乱。标签。5验证了这种平衡能促进绩效。rl=3和rh=20的表现大大优于其他选项。当rl=1时,假负候选不会被过滤掉,从而导致像素的类内特征被Lc错误区分。当rl=10时,否定候选词倾向于在语义上与相应的锚像素无关,这使得这种区分的信息量较小。附录D.2研究了城市景观的PRT和α0。

组件的有效性。

我们在Tab中进行实验。6.逐步烧蚀U2PL的每个组件。为了公平比较,在blender PASCAL VOC 2012数据集上,所有烧蚀都在1/4分区协议下。最重要的是,我们使用无Lc训练模型作为基线,实现了73.02%的mIoU(表2中的MT)。只需在不使用DPA策略的情况下添加Lc即可将基线提高+4.06%。分类存储库Qc,加上PRT和高熵过滤,比基线提高了+5.47%。动态分区调整(DPA)与高熵过滤相结合,比基线提高了+6.05%。请注意,DPA是一种无需调谐的线性调整(参考等式(7)),它简单而有效。对于概率秩阈值(PRT)分量,我们根据制表符设置相应的参数。5.在没有高熵过滤的情况下,改善率在+4.55%时显着降低。最后,当将所有贡献相加时,我们的方法在1/4分区协议下达到了最新的结果,mIoU为79.30%。根据这个结果,我们在Tab上的所有实验中应用这些组件和相应的参数。2和标签。1.

超消融参数研究。

我们烧蚀了U2PL的以下重要参数。标签。7研究了不同初始可靠不可靠分区的影响。该参数α0对性能有一定影响。我们发现α0=20%达到最佳性能。小的α0会引入不正确的伪标签进行监督,大的α0会使一些高置信度样本的信息未被充分利用。附录D.1研究了其他超参数。

4.4. 定性结果

图4显示了PASCAL VOC 2012 val集合上不同方法的结果。得益于使用不可靠的伪标签,U2PL优于其他方法。请注意,在不过滤那些不可靠像素的情况下使用对比学习,有时会对模型造成损害(参见图4中的第2行和第4行),导致比仅使用标记数据训练模型时更糟糕的结果。

此外,通过对分割结果的可视化,我们发现我们的方法获得了更好的分割效果

这些模糊区域(例如,不同对象之间的边界)上的性能。这种视觉差异证明,我们的方法最终增强了不可靠预测标签的可靠性。

5.结论

我们提出了一个半监督语义切分框架U2PL,该框架将不可靠的伪标签加入到训练中,其性能优于许多现有的最先进的方法,这表明我们的框架为半监督学习研究提供了一个新的有希望的范例。我们的烧蚀实验证明了这项工作的洞察力是非常可靠的。定性结果为其有效性提供了直观的证明,尤其是在语义对象或其他模糊区域之间的边界上表现更好。与完全监督的方法相比,我们的方法的训练非常耗时[5,6,29,35,46],这是半监督学习任务的一个常见缺点[9,20,21,33,43,48]。由于标签的极度缺乏,半监督学习框架通常需要为更高的准确性及时付出代价。未来可以对他们的训练优化进行更深入的探索。

⑵ 机器学习的类型有

机器学习的类型有

是否在人类监督下学习(消稿辩监督学习、非监督学习、半监督学习和强化学习)

是否可以动态的增量学习(在线学习和批量学习)

是简单的将新的数据点和已知的数据点进行匹配,还是像科学家那样对训练数据进行模型检测,然后建立一个预测模型(基于实例的学习和基于模型的学习)

一、监督学习和非监督学习

根据训练期间接受的监督数量和监督类型,可以将机器学习分为以下四种类型:监督学习、非监督学习、半监督学习和强化学习。

1.1 监督学习

在监督学习中,提供给算法的包含所需解决方案的训练数据,成为标签或标记。


简单地说,就是监督学习是包含自变量和因变量(有Y),同时可以用于分类和回归。下来常见的算法都是监督学习算法。

  • K近邻算法

  • 线性回归

  • logistic回归

  • 支持向量机(SVM)

  • 决策树和随机森林

  • 神经网络


  • 1.2 无监督学习

    无监督学习的训练数据都是未经标记的,算法会在没有指导的情况下自动学习。


    简单地说,就是训练数据只有自变量没有因变量(就是没有Y)。

    无监督学习的常见算法如下:

  • 聚类算法

  • K均值算法(K-means)

  • 基于密度的聚类方法(DBSCAN)

  • 最大期望算法

  • 可视化和降维

  • 主成分分析

  • 核主成分分析

  • 关联规则学习

  • Apriori

  • Eclat

  • 比如说,我们有大量的购物访客的数据,包括一个月内的到达次数、购买次数、平均客单价、购物时长、购物种类、数量等,我们可以通过聚类算法,自动的把这些人分成几个类别,分类后,我们可以人工的把这些分类标记,如企业客户、家庭主妇等,也可以分成更细的分类

    ⑶ 人工智能算法简介

    人工智能的三大基石—算法、数据和计算能力,算法作为其中之一,是非常重要的,那么人工智能都会涉及哪些算法呢?不同算法适用于哪些场景呢?

    一、按照模型训练方式不同可以分为监督学习(Supervised Learning),无监督学习(Unsupervised Learning)、半监督学习(Semi-supervised Learning)和强化学习(Reinforcement Learning)四大类。

    常见的监督学习算法包含以下几类:
    (1)人工神经网络(Artificial Neural Network)类:反向传播(Backpropagation)、波尔兹曼机(Boltzmann Machine)、卷积神经网络(Convolutional Neural Network)、Hopfield网络(hopfield Network)、多层感知器(Multilyer Perceptron)、径向基函数网络(Radial Basis Function Network,RBFN)、受限波尔兹曼机(Restricted Boltzmann Machine)、回归神经网络(Recurrent Neural Network,RNN)、自组织映射(Self-organizing Map,SOM)、尖峰神经网络(Spiking Neural Network)等。
    (2)贝叶斯类(Bayesin):朴素贝叶斯(Naive Bayes)、高斯贝叶斯(Gaussian Naive Bayes)、多项朴素贝叶斯(Multinomial Naive Bayes)、平均-依赖性评估(Averaged One-Dependence Estimators,AODE)
    贝叶斯信念网络(Bayesian Belief Network,BBN)、贝叶斯网络(Bayesian Network,BN)等。
    (3)决策树(Decision Tree)类:分类和回归树(Classification and Regression Tree,CART)、迭代Dichotomiser3(Iterative Dichotomiser 3, ID3),C4.5算法(C4.5 Algorithm)、C5.0算法(C5.0 Algorithm)、卡方自动交互检测(Chi-squared Automatic Interaction Detection,CHAID)、决策残端(Decision Stump)、ID3算法(ID3 Algorithm)、随机森林(Random Forest)、SLIQ(Supervised Learning in Quest)等。
    (4)线性分类器(Linear Classifier)类:Fisher的线性判别(Fisher’s Linear Discriminant)
    线性回归(Linear Regression)、逻辑回归(Logistic Regression)、多项逻辑回归(Multionmial Logistic Regression)、朴素贝叶斯分类器(Naive Bayes Classifier)、感知(Perception)、支持向量机(Support Vector Machine)等。

    常见的无监督学习类算法包括:
    (1) 人工神经网络(Artificial Neural Network)类:生成对抗网络(Generative Adversarial Networks,GAN),前馈神经网络(Feedforward Neural Network)、逻辑学习机(Logic Learning Machine)、自组织映射(Self-organizing Map)等。
    (2) 关联规则学习(Association Rule Learning)类:先验算法(Apriori Algorithm)、Eclat算法(Eclat Algorithm)、FP-Growth算法等。
    (3)分层聚类算法(Hierarchical Clustering):单连锁聚类(Single-linkage Clustering),概念聚类(Conceptual Clustering)等。
    (4)聚类分析(Cluster analysis):BIRCH算法、DBSCAN算法,期望最大化(Expectation-maximization,EM)、模糊聚类(Fuzzy Clustering)、K-means算法、K均值聚类(K-means Clustering)、K-medians聚类、均值漂移算法(Mean-shift)、OPTICS算法等。
    (5)异常检测(Anomaly detection)类:K最邻近(K-nearest Neighbor,KNN)算法,局部异常因子算法(Local Outlier Factor,LOF)等。

    常见的半监督学习类算法包含:生成模型(Generative Models)、低密度分离(Low-density Separation)、基于图形的方法(Graph-based Methods)、联合训练(Co-training)等。

    常见的强化学习类算法包含:Q学习(Q-learning)、状态-行动-奖励-状态-行动(State-Action-Reward-State-Action,SARSA)、DQN(Deep Q Network)、策略梯度算法(Policy Gradients)、基于模型强化学习(Model Based RL)、时序差分学习(Temporal Different Learning)等。

    常见的深度学习类算法包含:深度信念网络(Deep Belief Machines)、深度卷积神经网络(Deep Convolutional Neural Networks)、深度递归神经网络(Deep Recurrent Neural Network)、分层时间记忆(Hierarchical Temporal Memory,HTM)、深度波尔兹曼机(Deep Boltzmann Machine,DBM)、栈式自动编码器(Stacked Autoencoder)、生成对抗网络(Generative Adversarial Networks)等。

    二、按照解决任务的不同来分类,粗略可以分为二分类算法(Two-class Classification)、多分类算法(Multi-class Classification)、回归算法(Regression)、聚类算法(Clustering)和异常检测(Anomaly Detection)五种。
    1.二分类(Two-class Classification)
    (1)二分类支持向量机(Two-class SVM):适用于数据特征较多、线性模型的场景。
    (2)二分类平均感知器(Two-class Average Perceptron):适用于训练时间短、线性模型的场景。
    (3)二分类逻辑回归(Two-class Logistic Regression):适用于训练时间短、线性模型的场景。
    (4)二分类贝叶斯点机(Two-class Bayes Point Machine):适用于训练时间短、线性模型的场景。(5)二分类决策森林(Two-class Decision Forest):适用于训练时间短、精准的场景。
    (6)二分类提升决策树(Two-class Boosted Decision Tree):适用于训练时间短、精准度高、内存占用量大的场景
    (7)二分类决策丛林(Two-class Decision Jungle):适用于训练时间短、精确度高、内存占用量小的场景。
    (8)二分类局部深度支持向量机(Two-class Locally Deep SVM):适用于数据特征较多的场景。
    (9)二分类神经网络(Two-class Neural Network):适用于精准度高、训练时间较长的场景。

    解决多分类问题通常适用三种解决方案:第一种,从数据集和适用方法入手,利用二分类器解决多分类问题;第二种,直接使用具备多分类能力的多分类器;第三种,将二分类器改进成为多分类器今儿解决多分类问题。
    常用的算法:
    (1)多分类逻辑回归(Multiclass Logistic Regression):适用训练时间短、线性模型的场景。
    (2)多分类神经网络(Multiclass Neural Network):适用于精准度高、训练时间较长的场景。
    (3)多分类决策森林(Multiclass Decision Forest):适用于精准度高,训练时间短的场景。
    (4)多分类决策丛林(Multiclass Decision Jungle):适用于精准度高,内存占用较小的场景。
    (5)“一对多”多分类(One-vs-all Multiclass):取决于二分类器效果。

    回归
    回归问题通常被用来预测具体的数值而非分类。除了返回的结果不同,其他方法与分类问题类似。我们将定量输出,或者连续变量预测称为回归;将定性输出,或者离散变量预测称为分类。长巾的算法有:
    (1)排序回归(Ordinal Regression):适用于对数据进行分类排序的场景。
    (2)泊松回归(Poission Regression):适用于预测事件次数的场景。
    (3)快速森林分位数回归(Fast Forest Quantile Regression):适用于预测分布的场景。
    (4)线性回归(Linear Regression):适用于训练时间短、线性模型的场景。
    (5)贝叶斯线性回归(Bayesian Linear Regression):适用于线性模型,训练数据量较少的场景。
    (6)神经网络回归(Neural Network Regression):适用于精准度高、训练时间较长的场景。
    (7)决策森林回归(Decision Forest Regression):适用于精准度高、训练时间短的场景。
    (8)提升决策树回归(Boosted Decision Tree Regression):适用于精确度高、训练时间短、内存占用较大的场景。

    聚类
    聚类的目标是发现数据的潜在规律和结构。聚类通常被用做描述和衡量不同数据源间的相似性,并把数据源分类到不同的簇中。
    (1)层次聚类(Hierarchical Clustering):适用于训练时间短、大数据量的场景。
    (2)K-means算法:适用于精准度高、训练时间短的场景。
    (3)模糊聚类FCM算法(Fuzzy C-means,FCM):适用于精确度高、训练时间短的场景。
    (4)SOM神经网络(Self-organizing Feature Map,SOM):适用于运行时间较长的场景。
    异常检测
    异常检测是指对数据中存在的不正常或非典型的分体进行检测和标志,有时也称为偏差检测。
    异常检测看起来和监督学习问题非常相似,都是分类问题。都是对样本的标签进行预测和判断,但是实际上两者的区别非常大,因为异常检测中的正样本(异常点)非常小。常用的算法有:
    (1)一分类支持向量机(One-class SVM):适用于数据特征较多的场景。
    (2)基于PCA的异常检测(PCA-based Anomaly Detection):适用于训练时间短的场景。

    常见的迁移学习类算法包含:归纳式迁移学习(Inctive Transfer Learning) 、直推式迁移学习(Transctive Transfer Learning)、无监督式迁移学习(Unsupervised Transfer Learning)、传递式迁移学习(Transitive Transfer Learning)等。

    算法的适用场景:
    需要考虑的因素有:
    (1)数据量的大小、数据质量和数据本身的特点
    (2)机器学习要解决的具体业务场景中问题的本质是什么?
    (3)可以接受的计算时间是什么?
    (4)算法精度要求有多高?
    ————————————————

    原文链接: https://blog.csdn.net/nfzhlk/article/details/82725769

    ⑷ 回归算法属于半监督算法吗

    回归算法是监督算法,用于查找不同橡并绝变量之间的可能关系,以了解自变量对因变量的影响程度。可以将回归分析视为一个方程,例如,假设有方程蔽纤y = 2x + z,y是因变量,则x,z是自变量。梁姿回归分析就是找出x和z在多大程度上影响y的值。

    ⑸ 半监督学习的基本假设

    SSL的成立依赖于模型假设,当模型假设正确时,无类标签的样例能够帮助改进学习性能。SSL依赖的假设有以下三个:
    1)平滑假设(Smoothness Assumption):位于稠密数据区域的两个距离很近的样例的类标签相似,也就是说,当两个样例被稠密数据区域中的边连接时,它们在很大的概率下有相同的类标签;相反地,当两个样例被稀疏数据区域分开时,它们的类标签趋于不同。
    2)聚类假设(Cluster Assumption):当两个样例位于同一聚类簇时,它们在很大的概率下有相同的类标签。这个假设的等价定义为低密度分离假设(Low Sensity Separation Assumption),即分类决策边界应该穿过稀疏数据区域,而避免将稠密数据区域的样例分到决策边界两侧。
    聚类假设是指样本数据间的距离相互比较近时,则他们拥有相同的类别。根据该假设,分类边界就必须尽可能地通过数据较为稀疏的地方,以能够避免把密集的样本数据点分到分类边界的两侧。在这一假设的前提下,学习算法就可以利用大量未标记的样本数据来分析样本空间中样本数据分布情况,从而指导学习算法对分类边界进行调整,使其尽量通过样本数据布局比较稀疏的区域。例如,Joachims提出的转导支持向量机算法,在训练过程中,算法不断修改分类超平面并交换超平面两侧某些未标记的样本数据的标记,使得分类边界在所有训练数据上最大化间隔,从而能够获得一个通过数据相对稀疏的区域,又尽可能正确划分所有有标记的样本数据的分类超平面。
    3)流形假设(Manifold Assumption):将高维数据嵌入到低维流形中,当两个样例位于低维流形中的一个小局部邻域内时,它们具有相似的类标签。
    流形假设的主要思想是同一个局部邻域内的样本数据具有相似的性质,因此其标记也应该是相似。这一假设体现了决策函数的局部平滑性。和聚类假设的主要不同是,聚类假设主要关注的是整体特性,流形假设主要考虑的是模型的局部特性。在该假设下,未标记的样本数据就能够让数据空间变得更加密集,从而有利于更加标准地分析局部区域的特征,也使得决策函数能够比较完满地进行数据拟合。流形假设有时候也可以直接应用于半监督学习算法中。例如,Zhu 等人利用高斯随机场和谐波函数进行半监督学习,首先利用训练样本数据建立一个图,图中每个结点就是代表一个样本,然后根据流形假设定义的决策函数的求得最优值,获得未标记样本数据的最优标记;Zhou 等人利用样本数据间的相似性建立图,然后让样本数据的标记信息不断通过图中的边的邻近样本传播,直到图模型达到全局稳定状态为止。
    从本质上说,这三类假设是一致的,只是相互关注的重点不同。其中流行假设更具有普遍性。

    ⑹ 半监督学习和无监督学习的区别

    无监督与半监督学习的区别在于一个无教学值,一个有教学值。但是,个人认为他们的区别在于无监督学习一般是采用聚簇等算法来分类不同样本。而半监督学习一般是利用教学值与实际输出值产生的误差,进行误差反向传播修改权值来完成网络修正的。但是无监督学习没有反向传播修改权值操作。

    无监督学习:训练样本的标记信息未知,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础,此类学习任务中研究最多、应用最广的是"聚类" ,其他无监督算法还有:密度估计、异常检测等。
    半监督学习:训练集同时包含有标记样本数据和未标记样本数据,不需要人工干预,让学习器不依赖外界交互、自动地利用未标记样本来提升学习性能。

    想要了解更多有关半监督学习和无监督学习的信息,可以了解一下CDA数据分析师的课程。CDA证书已得到中国成人教育协会的认可和工信部认可,考过CDA认证考生可以得到经管之家CDA数据分析师中文证书,CDAINSTITUTE英文证书以及可额外申请工信部数据分析师证书。帮助学员掌握真正过硬的解决业务问题的数据挖掘能力。点击预约免费试听课。

    ⑺ 半监督学习的起源和发展历程

    SSL的研究历史可以追溯到20世纪70年代,这一时期,出现了自训练(Self-Training)、直推学习(Transctive Learning)、生成式模型(Generative Model)等学习方法。
    90年代,新的理论的出现,以及自然语言处理、文本分类和计算机视觉中的新应用的发展,促进了SSL的发展,出现了协同训练(Co-Training)和转导支持向量机(Transctive Support Vector Machine,TSVM)等新方法。Merz等人在1992年提出了SSL这个术语,并首次将SSL用于分类问题。接着Shahshahani和Landgrebe展开了对SSL的研究。协同训练方法由Blum和Mitchell提出,基于不同的视图训练出两个不同的学习机,提高了训练样本的置信度。Vapnik和Sterin提出了TSVM,用于估计类标签的线性预测函数。为了求解TSVM,Joachims提出了SVM方法,Bie和Cristianini将TSVM放松为半定规划问题从而进行求解。许多研究学者广泛研究将期望最大算法(Expectation Maximum,EM)与高斯混合模型(Gaussian Mixture Model,GMM)相结合的生成式SSL方法。Blum等人提出了最小割法(Mincut),首次将图论应用于解决SSL问题。Zhu等人提出的调和函数法(Harmonic Function)将预测函数从离散形式扩展到连续形式。由Belkin等人提出的流形正则化法(Manifold Regularization)将流形学习的思想用于SSL场景。Klein等人提出首个用于聚类的半监督距离度量学习方法,学习一种距离度量。

    ⑻ 机器学习几个重要概念

    机器学习几个重要概念
    统计学习的算法可以分为以下几个类别:监督学习、非监督学习、半监督学习以及强化学习。
    监督学习的输入数据都有对应的类标签或是一个输出值,其任务是学习一个模型,使模型能够对任意给定的输入,对其相应的输出做出一个好的预测。
    非监督学习就是没有对应的类标签或是输出值。学习中并没有任何标准来告诉你,某个概念是否正确,需要学习器自身形成和评价概念。就是自动地从数据中挖掘出结构信息或是抽取出一些规则。近年来,非监督学习被认为是解决一些重要问题的突破口所在。因为科学的产生就是人类中无监督学习的最佳案例。
    半监督学习就是介于监督学习和非监督学习之间。这在最近的研究领域也是被大家所热烈探讨的,因为对于现实数据来说,有标签的数据总是少量的,往往都需要人工来进行标注。而无标签数据是能够大量获得的。
    增强学习强调如何基于环境而行动,以取得最大化的预期利益。其灵感来源于心理学中的行为主义理论,即有机体如何在环境给予的奖励或惩罚的刺激下,逐步形成对刺激的预期,产生能获得最大利益的习惯性行为。强化学习和标准的监督式学习之间的区别在于,它并不需要出现正确的输入/输出对,也不需要精确校正次优化的行为。(以上内容摘自维基网络)这在机器人、无人机领域中应用的还是非常广泛的。
    在线学习与离线学习
    对于机器学习算法的分类,站在不同的角度就能有不同的分类方法。在具体的应用中还有一种常用的分类方法是:在线学习与离线学习。
    在线学习,是在获取到新的数据后就能够输入到模型中进行学习。这需要学习算法能够在处于任何状态时都能进行参数的更新。而且需要算法对噪声数据有很好的鲁棒性。
    离线学习就正好与在线学习相反,当数据有更新时,需要将其与原来的数据一起对模型的参数进行重新地训练。这时,整个训练的过程能够被很好的控制,因为所有的数据都是已知的,能够对数据进行细致的预处理过程。
    生成模型与判别模型
    这种分类方式是针对于监督学习来进行分类的。这个在我腾讯面试的时候还被问到过这个问题。
    生成模型
    生成方法由数据学习联合概率分布P(X,Y)
    ,然后求出条件概率分布P(Y|X)
    作为预测的模型,即生成模型:

    模型表示了给定输入X产生输出Y的生成关系。典型的生成模型有:朴素贝叶斯方法和隐马尔可夫模型。
    生成模型能够还原出联合概率分布P(X,Y)
    ;生成模型的收敛速度快,当样本容量增加的时候,学到的模型可以更快地收敛于真实模型;当存在隐变量时,仍可以使用生成学习方法,此时判别方法就不能用。
    判别模型
    判别方法由数据直接学习决策函数f(x)
    或者条件概率分友卜中布P(Y|X)
    作为预测的模型,即判别模型。典型的判别模型包括:k近邻法、感知机、决策树、logistic回归模型、最大熵模型、支持向量机、提升方法和条件随机场。
    判别模型直接面对预测,往往学习的准确率越高。可以对数据进行各种程度上的抽好山象、定义特征并使用特征,因此可以简化学习问题。
    算法的归纳偏好
    机器学习算法在学习过程中对某种类型假设的偏好称为‘归纳偏好’。这个‘假设’包含了一个算法方方面面的内容。
    任何一个有效的机器学习算法必有其归纳的偏好,否则它将被假设空间中看似在训练集上‘等效’的假设所迷惑,而无法产生确定的学习结果。例如在分类问题中,如果随机抽选训练集上等效的假设(可以认为所有的正反例并没有区别),那么它的分类结果其实是不确定的,这要根据它所选取的样本来决定,这样的学习显然是没有意义的。
    归纳偏好对应了学习算法本身所做出的关于‘什么样的模型更好’的假设。在具弊睁体的问题中,这个假设是否成立,即算法的归纳偏好是否与问题本身匹配,大多数时候直接决定了算法能否取得好的性能。
    ‘奥卡姆剃刀’就是一个常用的原则,‘若有多个假设与观察一致,则选择最简单的那个’。对于一些以简洁为美的人来说是再正确不过了。在一些工程技术中有一些问题也确实是这样,一个较为简单的方法所取得的效果虽然不是最好,但是它的代价与其效果之比已然是最优。
    对于一个线性回归问题,如下图所示:

    根据‘奥卡姆剃刀’原则,你肯定会选择中间那条经过回归处理之后的直线作为之后预测的标准。在一些场景下,这样选择自然是正确的。如果再给你更多的数据点,你发现这些点正好是在穿过所有红色点的曲线之上,你还会选择那条回归的直线吗?这就牵扯出一个非常有意思的定理,‘没有免费的午餐’。
    这个定理所描述的是,对于任意两个学习算法A和B,它们在任意分布数据上的误差其实是相等的。仔细想想的话确实是那么回事。这个定理有一个重要的前提:所有问题出现的机会相同或是所有问题都是同等重要的。
    这时候你肯定会有疑问,既然所有的学习算法的期望性能都和随机猜测差不多,那学习的过程岂不是并没有什么用。注意到一点,上面所说的相等是在所有数据的分布之下,但是我们所处理的问题的数据往往是某一特定分布的。
    欠拟合与过拟合
    当目标函数给定时,基于目标函数的模型训练误差和模型测试误差就自然成为学习方法的评估标准。注意,学习方法具体采用的目标函数未必是评估时所使用的标准。关于评估标准这一问题会在之后的博客中提到。
    假设学习到的模型是Y=f^(x)
    ,训练误差是模型关于训练数据数据集的平均损失:

    其中N是训练样本容量。
    测试误差是模型关于测试数据集的平均损失:

    其中N’是测试样本容量。
    通常将学习方法对未知数据的预测能力称为泛化能力。显然,我们希望得到泛化误差小的学习器。然而,事先我们并不知道新样本是什么样的,实际能做的是努力使在训练集上的误差最小化。
    如果一味追求提高对训练数据的预测能力,所选模型的复杂度往往会比真模型要高。这种现象称为过拟合。过拟合是指学习时选择的模型包含参数过多,以致于出现这一模型对已知数据预测的很好,但对未知数据预测得很差的现象。与过拟合相对的是欠拟合,这是指对训练样本的一般性质尚未学好。
    欠拟合比较容易克服,一般只需要增加训练的次数。而过拟合是机器学习面临的关键障碍,各类学习算法都必然带有一些针对过拟合的措施;然而必须认识到,过拟合是无法彻底避免的,我们所能做的只是缓解。这是因为,机器学习面临的问题一般是NP难甚至是更难的,而有效的学习算法必然是在多项式时间内完成的。若可以彻底避免过拟合,这就意味着我们构造性地证明了‘NP = P’,那么你就可以获得图灵奖了。只要相信‘P != NP’,过拟合就无法避免。
    关于过拟合与欠拟合图形化的解释,下面那张图中有具体说明。
    方差与偏差
    偏差方差-分解试图对学习算法的期望泛化误差进行分解。推导的过程这里就不写了,直接给出公式。

    这个式子表示的是泛化误差可以分解为偏差、方差与噪声之和。偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力。为什么一个算法会有偏差呢,下面这句话给出了答案:
    Biases are introced by the generalizations made in the model including the configuration of the model and the selection of the algorithm to generate the model.
    我个人的理解是,因为对于算法的选择乃至于调整参数方法的选择导致了算法是有偏差的。因为算法的选择中就蕴含着偏好。
    方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响;噪声则表达了在当前任务上任何学习算法所能到达的期望泛化误差的下界,即刻画了问题本身的难度。
    泛化能力是由学习算法的能力、数据的充分性以及学习任务本身的难度所共同决定的。给定学习任务,为了取得好的泛化性能,则需使偏差较小,即能充分拟合数据,并且使方差较小,即使得数据扰动产生的影响小。
    但偏差与方差是不能同时达到最优的,这称为偏差方差窘境。

    这个图所表达的含义相信不用过多地解释了吧。

    ⑼ 标签传播算法是一种分类算法,还是聚类算法

    在聚类分析中,K-均值聚类算法(k-meansalgorithm)是无监督分类中的一种基本方法,其也称为C-均值算法,其基本思想是:通过迭代的方法,逐次更新各聚类中心的值,直至得到最好的聚类结果.\x0d假设要把样本集分为c个类别,算法如下:\x0d(1)适当选择c个类的初始中心;\x0d(2)在第k次迭代中,对任意一个样本,求其到c个中心的距离,将该样本归到距离最短的中心所在的类,\x0d(3)利用均值等方法更新该类的中心值;\x0d(4)对于所有的c个聚类中心,如果利用(2)(3)的迭代法更新后,值保持不变,则迭代结束,否则继续迭代.\x0d下面介绍作者编写的一个分两类的程序,可以把其作为函数调用.\x0d%%function[samp1,samp2]=kmeans(samp);作为调用函数时去掉注释符\x0dsamp=[11.15066.72222.31395.901811.08275.745913.217413.82434.80050.937012.3576];%样本集\x0d[l0l]=size(samp);\x0d%%利用均值把样本分为两类,再将每类的均值作为聚类中心\x0dth0=mean(samp);n1=0;n2=0;c1=0.0;c1=double(c1);c2=c1;fori=1:lifsamp(i)<th0\x0dc1=c1+samp(i);n1=n1+1;elsec2=c2+samp(i);n2=n2+1;endendc1=c1/n1;c2=c2/n2;%初始聚类中心t=0;cl1=c1;cl2=c2;\x0dc11=c1;c22=c2;%聚类中心whilet==0samp1=zeros(1,l);\x0dsamp2=samp1;n1=1;n2=1;fori=1:lifabs(samp(i)-c11)<abs(samp(i)-c22)\x0dsamp1(n1)=samp(i);\x0dcl1=cl1+samp(i);n1=n1+1;\x0dc11=cl1/n1;elsesamp2(n2)=samp(i);\x0dcl2=cl2+samp(i);n2=n2+1;\x0dc22=cl2/n2;endendifc11==c1&&c22==c2t=1;endcl1=c11;cl2=c22;\x0dc1=c11;c2=c22;\x0dend%samp1,samp2为聚类的结果.\x0d初始中心值这里采用均值的法,也可以根据问题的性质,用经验的方法来确定,或者将样本集随机分成c类,计算每类的均值.\x0dk-均值算法需要事先知道分类的数量,这是其不足之处.

    ⑽ 机器学习的方法有哪些

    机器学习的方法主要有以下几种:

    • 监督学习: 监督学习是机器学习中最常见的方法之一,在监督学习中,系统会被给定一组已知输入和输出的样本数据,系统需要学习到一种函数,使得该函数能够根据给定的输入预测出正确的输出。

    • 无监督学习: 无监督学习是机器学习中另一种常见的方法。在无监督学习中,系统只有输入数据,没有输出数据。系统需要学习到一种函数,使得该函数能够将输入数据自动分类。

    • 半监督学习: 半监督学习是一种混合监督学习和无监督学习的方法。在半监督学习中,系统会被给定一部分已知输入和输出的样本数据和一部分未知的输入数据,系统需要利用已知的样本数据来学习到一种函数,使得该函数能够根据未知的输入数据预测出正确的输出。

    • 强化学习: 强化学习是一种基于环境和反馈的学习方法,系统在不断的交互中学习野败坦到最优策略。

    • 聚类: 聚类是机器学习中的一种无监督学习方法,它的目的是将数据分成不同的群体,使得群体内的数据相似性最大,颂桐群体间的数据相似性最小。

    • 降维: 降维是机器学习中的一种无监督学习方法,它的目的是降低数据的维度,使得数据更容易被分析。

    • 深度学习: 深度学习是机器学习中一种基于神经网络的学习方法,它通过构建多层神经网络来模拟人类大脑进行学习。深度学习在计算机视觉、语音识别、自然语言处理等领域有着广泛的应用。

    • 递归神经网络: 递归神经网络是一种特殊的深度学习方法,它通过递归的方式来处理序列枯雀数据,在自然语言处理、语音识别等领域有着广泛的应用。

    • 贝叶斯学习: 贝叶斯学习是一种基于概率论和统计学的学习方法,它通过贝叶斯定理来进行学习和预测。

    • 统计学习方法: 统计学习方法是一类基于统计学理论的机器学习方法,它通过统计学模型和优化算法来进行学习和预测。包括线性回归、逻辑回归、朴素贝叶斯等。

      这些方法都有其特点和适用范围,在实际应用中要根据问题具体情况来选择合适的方法。

热点内容
scratch少儿编程课程 发布:2025-04-16 17:11:44 浏览:642
荣耀x10从哪里设置密码 发布:2025-04-16 17:11:43 浏览:368
java从入门到精通视频 发布:2025-04-16 17:11:43 浏览:89
php微信接口教程 发布:2025-04-16 17:07:30 浏览:311
android实现阴影 发布:2025-04-16 16:50:08 浏览:794
粉笔直播课缓存 发布:2025-04-16 16:31:21 浏览:346
机顶盒都有什么配置 发布:2025-04-16 16:24:37 浏览:213
编写手游反编译都需要学习什么 发布:2025-04-16 16:19:36 浏览:818
proteus编译文件位置 发布:2025-04-16 16:18:44 浏览:369
土压缩的本质 发布:2025-04-16 16:13:21 浏览:594