python的运行速度
‘壹’ 提升python运行速度的5个小技巧
pre{overflow-x: auto}Python 是世界上使用最广泛的编程语言之一。它是一种解释型高级通用编程语言,具有广泛的用途,几乎可以将其用于所有事物。其以简单的语法、优雅的代码和丰富的第三方库而闻名。python除了有很多优点外,但在速度上还有一个非常大的缺点。
虽然Python代码运行缓慢,但可以通过下面分享的5个小技巧提升Python运行速度!
首先,定义一个计时函数timeshow,通过简单的装饰,可以打印指定函数的运行时间。
这个函数在下面的例子中会被多次使用。
def timeshow(func): from time import time def newfunc(*arg, **kw): t1 = time() res = func(*arg, **kw) t2 = time() print(f"{func.__name__: >10} : {t2-t1:.6f} sec") return res return newfunc @timeshow def test_it(): print("hello pytip") test_it() 1. 选择合适的数据结构使用正确的数据结构对python脚本的运行时间有显着影响。Python 有四种内置的数据结构:
列表 : List
元组 : Tuple
集合 : Set
字典 : Dictionary
但是,大多数开发人员在所有情况下都使用列表。这是不正确的做法,应该根据任务使用合适数据结构。
运行下面的代码,可以看到元组执行简单检索操作的速度比列表快。其中dis模块反汇编了一个函数的字节码,这有利于查看列表和元组之间的区别。
import dis def a(): data = [1, 2, 3, 4, 5,6,7,8,9,10] x =data[5] return x def b(): data = (1, 2, 3, 4, 5,6,7,8,9,10) x =data[5] return x print("-----:使用列表的机器码:------") dis.dis(a) print("-----:使用元组的机器码:------") dis.dis(b)运行输出:
-----:使用列表的机器码:------
3 0 LOAD_CONST 1 (1)
2 LOAD_CONST 2 (2)
4 LOAD_CONST 3 (3)
6 LOAD_CONST 4 (4)
8 LOAD_CONST 5 (5)
10 LOAD_CONST 6 (6)
12 LOAD_CONST 7 (7)
14 LOAD_CONST 8 (8)
16 LOAD_CONST 9 (9)
18 LOAD_CONST 10 (10)
20 BUILD_LIST 10
22 STORE_FAST 0 (data)
4 24 LOAD_FAST 0 (data)
26 LOAD_CONST 5 (5)
28 BINARY_SUBSCR
30 STORE_FAST 1 (x)
5 32 LOAD_FAST 1 (x)
34 RETURN_VALUE
-----:使用元组的机器码:------
7 0 LOAD_CONST 1 ((1, 2, 3, 4, 5, 6, 7, 8, 9, 10))
2 STORE_FAST 0 (data)
8 4 LOAD_FAST 0 (data)
6 LOAD_CONST 2 (5)
8 BINARY_SUBSCR
10 STORE_FAST 1 (x)
9 12 LOAD_FAST 1 (x)
14 RETURN_VALUE
看下列表的机器码,冗长而多余!
2. 善用强大的内置函数和第三方库如果你正在使用python并且仍在自己编写一些通用函数(比如加法、减法),那么是在侮辱python。 Python有大量的库和内置函数来帮助你不用编写这些函数。 如果研究下,那么你会惊奇地发现几乎90%的问题已经有第三方包或内置函数来解决。
可以通过访问官方文档查看所有内置函数。你也可以在wiki python上找到更多使用内置函数的场景。
比如,现在我们想合并列表中的所有单词为一个句子,比较法自己编写和调用库函数的区别:
# ❌ 正常人能想到的方法 @timeshow def f1(list): s ="" for substring in list: s += substring return s # ✅ pythonic 的方法 @timeshow def f2(list): s = "".join(list) return s l = ["I", "Love", "Python"] * 1000 # 为了看到差异,我们把这个列表放大了 f1(l) f2(l)运行输出:
f1 : 0.000227 sec
f2 : 0.000031 sec
3. 少用循环
用 列表推导式 代替循环
用 迭代器 代替循环
用 filter() 代替循环
减少循环次数,精确控制,不浪费CPU
## 返回n以内的可以被7整除的所有数字。 # ❌ 正常人能想到的方法: @timeshow def f_loop(n): L=[] for i in range(n): if i % 7 ==0: L.append(i) return L # ✅ 列表推导式 @timeshow def f_list(n): L = [i for i in range(n) if i % 7 == 0] return L # ✅ 迭代器 @timeshow def f_iter(n): L = (i for i in range(n) if i % 7 == 0) return L # ✅ 过滤器 @timeshow def f_filter(n): L = filter(lambda x: x % 7 == 0, range(n)) return L # ✅ 精确控制循环次数 @timeshow def f_mind(n): L = (i*7 for i in range(n//7)) return L n = 1_000_000 f_loop(n) f_list(n) f_iter(n) f_filter(n) f_mind(n)输出为:
f_loop : 0.083017 sec
f_list : 0.056110 sec
f_iter : 0.000015 sec
f_filter : 0.000003 sec
f_mind : 0.000002 sec
谁快谁慢,一眼便知!
filter 配合 lambda 大法就是屌!!!
4. 避免循环重复计算如果你有一个迭代器,必须用它的元素做一些耗时计算,比如匹配正则表达式。你应该将正则表达式模式定义在循环之外,因为最好只编译一次模式,而不是在循环的每次迭代中一次又一次地编译它。
只要有可能,就应该尝试在循环外进行尽可能多的运算,比如将函数计算分配给局部变量,然后在函数中使用它。
# ❌ 应改避免的方式: @timeshow def f_more(s): import re for i in s: m = re.search(r'a*[a-z]?c', i) # ✅ 更好的方式: @timeshow def f_less(s): import re regex = re.compile(r'a*[a-z]?c') for i in s: m = regex.search(i) s = ["abctestabc"] * 1_000 f_more(s) f_less(s)输出为:
f_more : 0.001068 sec
f_less : 0.000365 sec
内存占用是指程序运行时使用的内存量。为了让Python代码运行得更快,应该减少程序的内存使用量,即尽量减少变量或对象的数量。
Python 访问局部变量比全局变量更有效。在有必要之前,应该始终尝试忽略声明全局变量。一个在程序中定义过的全局变量会一直存在,直到整个程序编译完成,所以它一直占据着内存空间。另一方面,局部变量访问更快,且函数完成后即可回收。因此,使用多个局部变量比使用全局变量会更好。
# ❌ 应该避免的方式: message = "Line1 " message += "Line2 " message += "Line3 " # ✅ 更好的方式: l = ["Line1","Line2","Line3"] message = ' '.join(l) # ❌ 应该避免的方式: x = 5 y = 6 def add(): return x+y add() # ✅ 更好的方式: def add(): x = 5 y = 6 return x+y add()总结
本篇文章就到这里了,希望能够给你带来帮助,也希望您能够多多关注的更多内容!
‘贰’ Python运行速度是一秒多少次
导读:很多朋友问到关于Python运行速度是一秒多少次的相关问题,本文首席CTO笔记就来为大家做个详细解答,供大家参考,希望对大家有所帮助!一起来看看吧!
python中运行js的速度python中运行js的速度为每秒处理1000个字节。根据查询相关资料信息,python中运行js时执行应用程序的平均速度分别比C++应用程序慢8.01倍,单次速度为每秒处理1000个字节。Python由荷兰数学和计算机科学研究学会的吉多范罗苏姆于1990年代初设计,作为一门叫做ABC语言的替代品。
python一秒钟可以执行多少行代码
一秒可以执行一行代码。
python一般一秒钟默认是执行一行代码,一般使用python的Thread类的子类Timer,该子类可控制指定函数在特定时间后执行一次,如果为了实现多次定时执行某函数,只需要在一个while循环中多次新建Timer即可。
Python是由GuidovanRossum在八十年代末和九十年代初,在荷兰国家数学和计算机科学研究所设计出来的。Python本身也是由诸多其他语言发展而来的,这包括ABC、Mola3、C、Algol68、SmallTalk、Unixshell和其他的脚本语言等等。
python爬虫一秒钟最快爬多少条数据我见过3秒钟喝完一“瓶”啤酒的人,也见过一小时才喝完一“杯”啤酒的人;
我见过一口吃完像巴掌大的面包的人,也见过几天才吃完像手指头大的面包;
——————我是一条可爱的分割线——————
回到正题:
爬虫能爬多少,能爬多快。取决于算法和网速。当然,说白了还是和工程师自己的实力有关。
#好的爬虫一秒可以爬上万条数据,
#有的爬虫一天只能爬一条。
print“人生苦短,python当歌”
次循环要多久'>python跑10^>次循环要多久1.for循环一万次耗时2毫秒
2.for循环十万次耗时22毫秒
3.for循环一百万次耗时304毫秒
4.for循环一千万次耗时2337毫秒,也就是2.3秒
5.for循环一亿次耗时23468毫秒,也就是23.4秒
python处理大数据程序运行的越来越慢的问题最近编写并运行了一个处理1500万个数据的程序,本来最初每秒可以处理150个左右的数据,预计大概15个小时的时间就可以处理完,晚上的时候就开始运行,本以为等到第二天中午就可以得到结果呢,,,
可是,等我第二天的时候一看,什么???还没处理完,当前的数据处理速度变成了一秒5个左右,然后还需要等待300个小时。
然后就查了一下这个问题,原来同样也有很多人在处理大数据的时候遇到了这个问题,大多数的文章分析的原因都是说由于GC(垃圾回收)造成的性能下降。
Python的垃圾回收机制的工作原理为每个对象维护一个引用计数,每次内存对象的创建与销毁都必须修改引用计数,从而在大量的对象创建时,需要大量的执行修改引用计数操作,对于程序执行过程中,额外的性能开销是令人可怕的。回收的触发时机有两种可能,一是用户主动调用gc.collect(),二是对象数量超过阈值。
所以正是GC拖慢了程序的性能,所以我们可以考虑在处理的时候禁止垃圾回收。
通过这样的改进之后速度确度会有很大的提升。但是又有也会另外的一个问题,内存溢出,由于运行的过程中生成大量的对象,一次使用后就没有了引用,由于关闭了垃圾回收机制,一直存在内存中得不到清理,然后程序的内存使用量越来越大。解决的方法就是定期打开gc.enable()再关闭或者主动调用gc.collect(),这样就可以了。
通过上述的改进后程序确实了很多,可是我的程序还是运行的越来越慢,我都怀疑人生了,然后分别测试了各个步骤所花费的时间才知道了原因,我使用了pandas创建一个DataFrame,然后每次迭代得到的结果都添加新的数据到DataFrame中,随着里边的数据越来越多,添加的速度也就越来越慢了,严重的拖累的运行速度。这里的解决方法有两个:
1分段保存结果,间隔一段时间就保存一次结果,最后再将多次的结果合并。
2换一个数据存储方法,我是直接使用了python的字典进行保存结果,它随着数据的增多添加的速度也会变慢,但是差别不是很大,在可接受的范围内,可以使用;或者再加上方法1,分段进行保存再合并也是可以的。
结语:以上就是首席CTO笔记为大家整理的关于Python运行速度是一秒多少次的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~