python假死
❶ Python中tkinter的窗口,在mainloop ()之后的语句怎么执行
mainloop () 你可以把它看做是 while True:
只是循环内的代码tkinter已经给你写好了,这些代码主要是检测窗口相应的各种事件,比如鼠标移动、点击、输入、按键操作等等。
所以你写在mainloop()后面的代码是不会被执行的。
如果是界面加载完成,要计划执行一些语句,就需要用到多线程,在mainloop()之前开启线程。
tkinter.Tk,也有一个after方法可以实现类似多线程的处理,不过效果要差一些,如意出现程序假死,也就是程序未响应,但实际程序在运行
❷ 为什么都说爬虫PYTHON好
选择Python作为实现爬虫的语言,其主要考虑因素在于:
(1) 抓取网页本身的接口
相比其他动态脚本语言(如Perl、Shell),Python的urllib2包提供了较为完整的访问网页文档的API;相比与其他静态编程语言(如Java、C#、C++),Python抓取网页文档的接口更简洁。
此外,抓取网页有时候需要模拟浏览器的行为,很多网站对于生硬的爬虫抓取都是封杀的。这时我们需要模拟User Agent的行为构造合适的请求,譬如模拟用户登录、模拟Session/Cookie的存储和设置。在Python里都有非常优秀的第三方包帮你搞定,如Requests或Mechanize。
(2) 网页抓取后的处理
抓取的网页通常需要处理,比如过滤Html标签,提取文本等。Python的Beautiful Soup提供了简洁的文档处理功能,能用极短的代码完成大部分文档的处理。
其实以上功能很多语言和工具都能做,但是用Python能够干得最快、最干净,正如这句“Life is short,you need Python”。
(3) 开发效率高
因为爬虫的具体代码根据网站不同而修改的,而Python这种灵活的脚本语言特别适合这种任务。
(4) 上手快
网络上Python的教学资源很多,便于大家学习,出现问题也很容易找到相关资料。另外,Python还有强大的成熟爬虫框架的支持,比如Scrapy。
❸ Python 写的爬虫爬久了就假死怎么回事
有可能你频繁的爬取同一个网站的数据,这个网站把你的ip暂时或者永久的加入了黑名单,一段时间内或者永久限制你的访问。网站可能有最大访问频率的限制,根据这个时间来设置时延可以解决这个问题。或者可能由于网络不稳定等原因。至于其他的问题就不清楚了。