算法的规模
Ⅰ 算法的时间复杂度是O(n²) 规模为n1 耗费时间t1 规模n2 耗费时间多少
你好!你的问题是算法的时间复杂度是O(n²)规模为n1耗费时间t1,规模n2耗费时间多少?这是一个很好的问题,让我们来详细解答一下。
首先,时间复杂度为O(n²)的算法,表示算法的执行时间与输入规模的平方成正比。因此,我们可以得出执行规模n2时的耗费时间t2 = k × n2²,其中k是常数。
为了求解常数k,我们可以利用给出的规模n1和耗费时间t1,因为我们知道t1 = k × n1²,所以k = t1 / n1²。将常数k代入上面的公式中,我们可以得到规模n2时的耗费时间为t2 = t1 × (n2/n1)²。
根据这个公式,我们可以计算出在输入规模从n1增加到n2时,算法的耗费时间增加的比例。如果我们知道了规模n1时算法的耗费时间,那么我们就可以用上面的公式预测规模n2时算法的耗费时间。
需要注意的是,这个公式只适用于时间复杂度为O(n²)的算法。如果算法的时间复杂度不同,那么需要使用不同的公式来计算。
希望我的解答能对你有所帮助!如果你还有其他问题,可以随时问我。
Ⅱ 一文了解以太坊挖矿算法及算力规模2020-09-09
以太坊网络中,想要获得以太坊,也要通过挖矿来实现。当前以太坊也是采用POW共识机制,但是与比特币的POW挖矿有点不一样,以太坊挖矿难度是可以调节的。以太坊系统有一个特殊的公式用来计算之后的每个块的难度。如果某个区块比前一个区块验证的更快,以太坊协议就会增加区块的难度。通过调整区块难度,就可以调整验证区块所需的时间。
以太坊采用的是Ethash 加密算法,在挖矿的过程中,需要读取内存并存储 DAG 文件。由于每一次读取内寸的带宽都是有限的,而现有的计算机技术又很难在这个问题上有质的突破,所以无论如何提高计算机的运算效率,内存读取效率仍然不会有很大的改观。因此,从某种意义上来说,以太坊的Ethash加密算法具有“抗ASIC性”。
加密算法的不同,导致了比特币和以太坊的挖矿设备、算力规模差异很大。
目前,比特币挖矿设备主要是专业化程度非常高的ASIC 矿机,单台矿机的算力最高达到了 112T/s(神马M30S++矿机),全网算力的规模达到139.92EH/s。
以太坊的挖矿设备主要是显卡矿机和定制GPU矿机,专业化的ASIC矿机非常少,一方面是因为以太坊挖矿算法的“抗 ASIC 性”提高了研发ASIC矿机的门槛,另一方面是因为以太坊升级到2.0之后共识机制会转型为PoS,矿机无法继续挖。
和ASIC矿机相比,显卡矿机在算力上相差了2个量级。目前,主流的显卡矿机(8卡)算力约为420MH/s,比较领先的定制GPU矿机算力约在500M~750M,以太坊全网算力约为235.39TH/s。
从过去两年的时间维度上看,以太坊的全网算力增长相对缓慢。
以太坊协议规定,难度的动态调整方式是使全网创建新区块的时间间隔为15秒,网络用15秒时间创建区块链,这样一来,因为时间太快,系统的同步性就大大提升,恶意参与者很难在如此短的时间发动51%(也就是半数以上)的算力去修改历史数据。
Ⅲ 算法分析:如何分析一个算法的效率好坏
当我们说算法分析的时候我们在说什么?(狭义的技术层面的定义):
算法分析指的是: 对算法在运行时间和存储空间这两种资源的利用效率进行研究 。
即时间效率和空间效率。
时间效率指算法运行有多快;
空间效率指算法运行时需要多少额外的存储空间。
(时间效率也叫时间复杂度;空间效率也叫空间复杂度。)
在计算机时代早期,时间和空间这两种资源都是及其昂贵的。但经过半个多世纪的发展,计算机的速度和存储容量都已经提升了好几个数量级。
现在空间效率已经不是我们关注的重点了,但时间效率的重要性并没有减弱到这种可以忽略的程度。
所以,当我们分析一个算法的的时候,我们只关注它的时间效率 。
当我们遇到一个算法时,我们可以用这样一个通用的思路去分析它:
首先第一卜伍知步考虑这个算法的输入规模是什么?即输入参数,再换句话说也就是待解决的问题有多大?
从这里入手是因为一个显而易见的规律就是,不管使用什么算法, 输入规模越大,运行效率肯定会更长 。
输入规模的确定要根据具体要解决的实际问题的细节来决定,相同的问题不同的细节,输入规模是不一样的。比如:一个拼写检查的算法,
如果算法关注的是单独的字符检查,那么字符的数量就是输入规模的大小;
如果算法关注的是词组搭配的检查,那么这个输入规模就要比单独的字符检查的输入规模要小,这里输入规模就是词的数量了。
接下来第二步考虑这个算法的运行时间,即这个算法运行地快慢。
我们可以简单地用计时的方法,即某个算法运行了多少毫秒。
但这个方式有一个缺陷就是在不同计算机上,相同算法的运行时间是不一样,因为有的电脑快有的电脑慢。
所以有没有一种度量方法可以排除这些无关因素?
答案是肯定的,我们可以关注算法执行了多少步,即 操作的运行次数 。而且为了简化问题我们只需关注最重要的操作步骤,即所谓的 基本操作 ,因为基本操作已经足够可以决定这个算法的品质。
比如一个算法通常是最内层的循环中是最费时的操作,那我们就只需要把它循环了多少次作为基本操作进行研究。
这里需要延伸的一点是在大规模的输入情况下考虑执行次数的增长次数。因为针对小规模的输入,在运行时间的差别上不太明显。比如只对100个数字进行排序,不管你用什么排序算法,时间效率都差不多。只有在输入规模变大的时候,算法的差异才变得既明显又重要了起来。
简单来说,
如果一个算法在输入规模变大时,但运行时间平缓增长,那么我们就可以说它就是一个效率高的算法;
而如果一个算法在输入规模变大时,它的运行时间成指数级增长,那就可以说这个算法的效率很差。
总而言之就是,对基本操作的大规模输入情况下的变化的研究才更具有深远意义。
当我们了解了输入规模对算法时间效率的会产生影响,但算法的执行效率却不仅仅只受输入规模的影响,某些情况下,算法的执行效率更取决于输入参数的细节。
比如:一个简单的顺序查找的算法,在数组里查找数字 9:
在数组 l1 = [1, 2, 3, 4, 5, 6, 7, 8, 9 ] 里查找数字 9 和在相同的输入规模的另一个数组 l2 = [ 9 , 1, 2, 3, 4, 5, 6, 7, 8]里查找数字 9,在数组 l2 的执行效率肯定更高。
上面小例子中的两个数组就体现了两个极端: 输入最优情况 和 输入最坏情况 。
相对应的,
在输入最优情况下的算法就叫 最优效率 ;
在输入最坏情况下的算法就叫 最差效率 ;
在这里有两个经验性的规则:
在现实情况下,输入是“随机”的,既不会是最优输入也不会是最坏输入。所以这里又型消要引出一个概念,即: 平均效率 。
首先指出,我们绝不能用“最优效率”和“最差效率”的平均数求得 平均效率 ,即便有时间这个平均数和真正的 平均效率 巧合地一致。
正确的步骤是:我们要对输入规模 n 做一些假设。
对于上面的顺序查找算法的例子,标准的假设有两个:
基于这两个假设求平均效率可得:
由此,平均效率橘燃 C(n) = p(n+1) / 2 + n(1-p)
由此可知,
从这个例子可以发现,平均效率的研究要比最差效率和最优效率的研究困难很多:
我们要将输入规模 n 划分为几种类型,对于同类型的输入,使得算法的执行次数是相同的。
算法是计算机科学的基础,以后会继续更新算法相关的随笔,对算法感兴趣的朋友欢迎关注本博客,也欢迎大家留言讨论。
我们正处于大数据时代,对数据处理感兴趣的朋友欢迎查看另一个系列随笔:
利用Python进行数据分析 基础系列随笔汇总
Introction to The Design and Analysis of Algorithms, Third Edition by Anany Leitin