高斯算法
1. 用高斯算法算1+2-3+4+5-6+7+8-9+10+……+58+59-60
次数学课上,老师让学生练习算数。于是让他们一个小时内算出1+2+3+4+5+6+……+100的得数。全班只有高斯用了不到20分钟给出了答案,因为他想到了用(1+100)+(2+99)+(3+98)……+(50+51)…………一共有50个101,所以50×101就是1加到一百的得数。后来人们把这种简便算法称作高斯算法。
具体的方法是:
首项加末项乘以项数除以2
项数的计算方法是末项减去首项除以项差(每两项之间的差)加1.
1+2+3+4+5+······+n
字母表示:n(1+n)/2
等差数列求和公式Sn=(a1+an)n/2Sn=n(2a1+(n-1)d)/2; d=公差Sn=An2+Bn;
A=d/2,B=a1-(d/2)
你的这道题
(1+2-3+58+59-60)×10=570
其实就是3个数字一项 一共20项 然后首尾两相相加 乘以项数再除以2
2. 高斯算法是什么
一次数学课上,老师让学生练习算数。于是让他们一个小时内算出1+2+3+4+5+6+……+100的得数。全班只有高斯用了不到20分钟给出了答案,因为他想到了用(1+100)+(2+99)+(3+98)……+(50+51)…………一共有50个101,所以50×101就是1加到一百的得数。后来人们把这种简便算法称作高斯算法。
具体的方法是:
首项加末项乘以项数除以2
项数的计算方法是末项减去首项除以项差(每两项之间的差)加1.
1+2+3+4+5+······+n
字母表示:n(1+n)/2
等差数列求和公式Sn=(a1+an)n/2Sn=n(2a1+(n-1)d)/2; d=公差Sn=An2+Bn; A=d/2,B=a1-(d/2)
3. 高斯算法的介绍
首项加末项乘以末项数除以2这样的算法称为高斯算法。
4. 高斯数学1十到100的公式
(1+100)×100÷2=5050。
高斯求和
德国着名数学家高斯幼年时代聪明过人,上学时,有一天老师出了一道题让同学们计算:1+2+3+4+…+99+100。
老师出完题后,全班同学都在埋头计算,小高斯却很快算出答案等于5050。原来小高斯通过细心观察发现:
1+100=2+99=3+98=…=49+52=50+51
1~100正好可以分成这样的50对数,每对数的和都相等。于是,小高斯把这道题巧算为:
(1+100)×100÷2=5050。
(4)高斯算法扩展阅读:
高斯的故事:
高斯是一对普通夫妇的儿子。他的母亲是一个贫穷石匠的女儿,虽然十分聪明,但却没有接受过教育,近似于文盲。在她成为高斯父亲的第二个妻子之前,她从事女佣工作。他的父亲曾做过园丁,工头,商人的助手和一个小保险公司的评估师。当高斯三岁时便能够纠正他父亲的借债帐目的事情,已经成为一个轶事流传至今。他曾说,他能够在脑袋中进行复杂的计算。
小时候高斯家里很穷,且他父亲不认为学问有何用,但高斯依旧喜欢看书,话说在小时候,冬天吃完饭后他父亲就会要他上床睡觉,以节省燃油,但当他上床睡觉时,他会将芜菁的内部挖空,里面塞入棉布卷,当成灯来使用,以继续读书。
当高斯12岁时,已经开始怀疑元素几何学中的基础证明。当他16岁时,预测在欧氏几何之外必然会产生一门完全不同的几何学,即非欧几里德几何学。他导出了二项式定理的一般形式,将其成功的运用在无穷级数,并发展了数学分析的理论。
等差数列公式
等差数列公式an=a1+(n-1)d
前n项和公式为:Sn=na1+n(n-1)d/2
若公差d=1时:Sn=(a1+an)n/2
若m+n=p+q则:存在am+an=ap+aq
若m+n=2p则:am+an=2ap
以上n均为正整数。和Sn,首相a1,末项an,公差d,项数n。
5. 高斯算法怎么算
高斯算法怎么算
以首项加末项乘以项数除以2用来计算“1+2+3+4+5+···+(n-1)+n”的结果。 这样的算法被称为高斯算法。
6. 什么是高斯算法你能用高斯算发解决一些简单的问题吗
解决等差数列的求和问题 现实中好象在物理的打点计时里用的到
7. 高斯算法求分数
高斯混合模型GMM
首先介绍高斯分布的概率密度函数。一维高斯分布的概率密度函数如下:
多维变量X=(x1,x2,…xn)的联合概率密度函数为:
这里引用李航《统计学习方法》书中的定义
简而言之,GMM是多个高斯分布的加权和,并且权重α之和等于1 。
Sklearn
sklearn.mixture 是一个应用高斯混合模型进行非监督学习的包(支持 diagonal,spherical,tied,full 四种协方差矩阵)。GaussianMixture 对象实现了用来拟合高斯混合模型的期望最大 (EM) 算法。它还可以为多变量模型绘制置信椭圆体,同时计算 BIC(Bayesian Information Criterion,贝叶斯信息准则)来评估数据中聚类的数量。详情见Sklearn中文官网2.1. 高斯混合模型。
期望最大算法EM
这里引用周志华《机器学习》书中的定义
上面是基本概念。关于数学公式推导,真心建议直接看吴恩达老师的课件。这里给出自己推导的结果
示例演示
演示GMM的使用。
import numpy as np
import matplotlib.pyplot as plt
from matplotlib.colors import LogNorm
from sklearn import mixture
n_samples = 300
# generate random sample, two components
np.random.seed(0)
# generate spherical data centered on (20, 20)
shifted_gaussian = np.random.randn(n_samples, 2) + np.array([20, 20])
# generate zero centered stretched Gaussian data
C = np.array([[0., -0.7], [3.5, .7]])
stretched_gaussian = np.dot(np.random.randn(n_samples, 2), C)
# concatenate the two datasets into the final training set
X_train = np.vstack([shifted_gaussian, stretched_gaussian])
# fit a Gaussian Mixture Model with two components
clf = mixture.GaussianMixture(n_components=2, covariance_type='full')
clf.fit(X_train)
# display predicted scores by the model as a contour plot
x = np.linspace(-20., 30.)
y = np.linspace(-20., 40.)
X, Y = np.meshgrid(x, y)
XX = np.array([X.ravel(), Y.ravel()]).T
Z = -clf.score_samples(XX)
Z = Z.reshape(X.shape)
CS = plt.contour(X, Y, Z, norm=LogNorm(vmin=1.0, vmax=1000.0),
levels=np.logspace(0, 3, 10))
CB = plt.colorbar(CS, shrink=0.8, extend='both')
plt.scatter(X_train[:, 0], X_train[:, 1], .8)
plt.title('Negative log-likelihood predicted by a GMM')
plt.axis('tight')
plt.show()
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
运行结果
8. 用高斯算法
首尾相加,乘以项数除以2,共有400项,答案是120.2
9. 高斯算法
2*300000-1