当前位置:首页 » 编程语言 » python做爬虫

python做爬虫

发布时间: 2024-04-21 17:58:02

python的爬虫是什么意思

Python爬虫即使用Python程序开发的网络爬虫(网页蜘蛛,网络机器人),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。其实通俗的讲就是通过程序去获取 web 页面上自己想要的数据,也就是自动抓取数据。网络爬虫(英语:web crawler),也叫网络蜘蛛(spider),是一种用来自动浏览万维网的网络机器人。其目的一般为编纂网络索引。
网络搜索引擎等站点通过爬虫软件更新自身的网站内容或其对其他网站的索引。网络爬虫可以将自己所访问的页面保存下来,以便搜索引擎事后生成索引供用户搜索。
爬虫访问网站的过程会消耗目标系统资源。不少网络系统并不默许爬虫工作。因此在访问大量页面时,爬虫需要考虑到规划、负载,还需要讲“礼貌”。 不愿意被爬虫访问、被爬虫主人知晓的公开站点可以使用robots.txt文件之类的方法避免访问。这个文件可以要求机器人只对网站的一部分进行索引,或完全不作处理。
互联网上的页面极多,即使是最大的爬虫系统也无法做出完整的索引。因此在公元2000年之前的万维网出现初期,搜索引擎经常找不到多少相关结果。现在的搜索引擎在这方面已经进步很多,能够即刻给出高质量结果。
爬虫还可以验证超链接和HTML代码,用于网络抓取。
Python 爬虫
Python 爬虫架构
Python 爬虫架构主要由五个部分组成,分别是调度器、URL 管理器、网页下载器、网页解析器、应用程序(爬取的有价值数据)。
调度器:相当于一台电脑的 CPU,主要负责调度 URL 管理器、下载器、解析器之间的协调工作。
URL 管理器:包括待爬取的 URL 地址和已爬取的 URL 地址,防止重复抓取 URL 和循环抓取 URL,实现 URL 管理器主要用三种方式,通过内存、数据库缓存数据库来实现。
网页下载器:通过传入一个 URL 地址来下载网页,将网页转换成一个字符串,网页下载器有 urlpb2(Python 官方基础模块)包括需要登录、代理、和 cookie,requests(第三方包)
网页解析器:将一个网页字符串进行解析,可以按照我们的要求来提取出我们有用的信息,也可以根据 DOM 树的解析方式来解析。网页解析器有正则表达式(直观,将网页转成字符串通过模糊匹配的方式来提取有价值的信息,当文档比较复杂的时候,该方法提取数据的时候就会非常的困难)、html.parser(Python 自带的)、beautifulsoup(第三方插件,可以使用 Python 自带的 html.parser 进行解析,也可以使用 lxml 进行解析,相对于其他几种来说要强大一些)、lxml(第三方插件,可以解析 xml 和 HTML),html.parser 和 beautifulsoup 以及 lxml 都是以 DOM 树的方式进行解析的。
应用程序:就是从网页中提取的有用数据组成的一个应用。
爬虫可以做什么?
你可以用爬虫爬图片,爬取视频等等你想要爬取的数据,只要你能通过浏览器访问的数据都可以通过爬虫获取。
爬虫的本质是什么?
模拟浏览器打开网页,获取网页中我们想要的那部分数据
浏览器打开网页的过程:
当你在浏览器中输入地址后,经过 DNS 服务器找到服务器主机,向服务器发送一个请求,服务器经过解析后发送给用户浏览器结果,包括 html,js,css 等文件内容,浏览器解析出来最后呈现给用户在浏览器上看到的结果
所以用户看到的浏览器的结果就是由 HTML 代码构成的,我们爬虫就是为了获取这些内容,通过分析和过滤 html 代码,从中获取我们想要资源。
相关推荐:《Python教程》以上就是小编分享的关于python的爬虫是什么意思的详细内容希望对大家有所帮助,更多有关python教程请关注环球青藤其它相关文章!

㈡ 爬虫好学么

相对于人工智能、数据分析、深度学习来讲,Python爬虫还是比较简单的。想要从事爬虫工作,需要掌握以下知识:

  1. 学习Python基础知识并实现基本的爬虫过程

一般获取数据的过程都是按照 发送请求-获得页面反馈-解析并且存储数据 这三个流程来实现的。这个过程其实就是模拟了一个人工浏览网页的过程。

Python中爬虫相关的包很多:urllib、requests、bs4、scrapy、pyspider 等,我们可以按照requests
负责连接网站,返回网页,Xpath 用于解析网页,便于抽取数据。

2.了解非结构化数据的存储

爬虫抓取的数据结构复杂 传统的结构化数据库可能并不是特别适合我们使用。我们前期推荐使用MongoDB 就可以。

3. 掌握一些常用的反爬虫技巧

使用代理IP池、抓包、验证码的OCR处理等处理方式既可以解决大部分网站的反爬虫策略。

4.了解分布式存储

分布式这个东西,听起来很恐怖,但其实就是利用多线程的原理让多个爬虫同时工作,需要你掌握 Scrapy + MongoDB + Redis
这三种工具就可以了。

热点内容
联想怎么刷机解锁密码 发布:2024-11-28 04:31:21 浏览:244
方舟编译器厂家 发布:2024-11-28 04:13:15 浏览:979
android源码编辑 发布:2024-11-28 04:12:38 浏览:596
两路服务器是什么意思 发布:2024-11-28 03:39:39 浏览:937
sql精简版64 发布:2024-11-28 03:36:28 浏览:73
金立怎么加密图片 发布:2024-11-28 03:31:43 浏览:664
2017玩dnf电脑什么配置 发布:2024-11-28 03:30:56 浏览:520
ftp挂载存储ip配置 发布:2024-11-28 03:28:51 浏览:963
山耐斯空压机密码多少 发布:2024-11-28 03:26:28 浏览:405
安卓拍照摇一摇是什么软件 发布:2024-11-28 03:26:27 浏览:257