python3urlib
❶ python3中urllib2找不到怎么办
在python2中使用的urllib2库在python3中不存在怎么解决呢?在python3中是urllib.request.urlopen代替了urllib2.
最后打印结果
❷ python3中怎么没有urllib2
urllib2是python2自带的模块,不需要下载。
urllib2在python3.x中被改为urllib ,你直接输入urllib就可以了
>>>importurllib
下图是我电脑上的Python3.5版本的
❸ python3 post请求中body是一串字符串
python3环境中,使用urllib的库时,urllib.request.Request方法中,是用来组成post的数据结构
req= request.Request(url=url,data=data,headers=headers)
此时会报错,类型不对
报错为“POST data should be bytes or an iterable of bytes...”
后改为如下方法,将body中的data以utf-8编码即可
req= request.Request(url=url,data=data.encode('utf-8'),headers=headers)
请求方法仍然是
response= request.urlopen(req)
当收到response时,使用read()同时解码即可,如下
response.read().decode('utf-8')
网上很多方法中会提到下面这个方法
urllib.parse.urlendcode
这个方法是用在将json格式文件url编码的,当body为字符串时,使用此方法无效,仍然是错误的
❹ Python爬虫-常用的请求方式
爬虫的请求方式常用的有urllib和requests,前者是自带模块,后者需要我们自己进行安装。
安装requests模块
注意:在 python2 中,urllib 被分为urllib,urllib2等,在python3中我们直接使用urllib
虽然Python的标准库中 urllib 模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好,而 Requests 自称 "HTTP for Humans",说明使用更简洁方便。
❺ python3中https urlopen()报错的解决方法
这个错误是因为Python 2.7.9 之后引入了一个新特性,当你使用urllib.urlopen一个 https 的时候会验证一次 SSL证书。当目标使用的是自签名的证书时就会报urllib.error.URLError错误。解决方法如下:
import urllib.request
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
response = urllib.request.urlopen('https://www.python.org')
print(response.read().decode('utf-8'))
通过导入ssl模块把证书验证改成不用验证就行了。
❻ “2022 年”崔庆才 Python3 爬虫教程 - 代理的使用方法
前面我们介绍了多种请求库,如 urllib、requests、Selenium、Playwright 等用法,但是没有统一梳理代理的设置方法,本节我们来针对这些库来梳理下代理的设置方法。
在本节开始之前,请先根据上一节了解一下代理的基本原理,了解了基本原理之后我们可以更好地理解和学习本节的内容。
另外我们需要先获取一个可用代理,代理就是 IP 地址和端口的组合,就是 : 这样的格式。如果代理需要访问认证,那就还需要额外的用户名密码两个信息。
那怎么获取一个可用代理呢?
使用搜索引擎搜索 “代理” 关键字,可以看到许多代理服务网站,网站上会有很多免费或付费代理,比如快代理的免费 HTTP 代理:https://www.kuaidaili.com/free/ 上面就写了很多免费代理,但是这些免费代理大多数情况下并不一定稳定,所以比较靠谱的方法是购买付费代理。付费代理的各大代理商家都有套餐,数量不用多,稳定可用即可,我们可以自行选购。
另外除了购买付费 HTTP 代理,我们也可以在本机配置一些代理软件,具体的配置方法可以参考 https://setup.scrape.center/proxy-client,软件运行之后会在本机创建 HTTP 或 SOCKS 代理服务,所以代理地址一般都是 127.0.0.1: 这样的格式,不同的软件用的端口可能不同。
这里我的本机安装了一部代理软件,它会在本地 7890 端口上创建 HTTP 代理服务,即代理为 127.0.0.1:7890。另外,该软件还会在 7891 端口上创建 SOCKS 代理服务,即代理为 127.0.0.1:7891,所以只要设置了这个代理,就可以成功将本机 IP 切换到代理软件连接的服务器的 IP 了。
在本章下面的示例里,我使用上述代理来演示其设置方法,你也可以自行替换成自己的可用代理。
设置代理后,测试的网址是 http://httpbin.org/get,访问该链接我们可以得到请求的相关信息,其中返回结果的 origin 字段就是客户端的 IP,我们可以根据它来判断代理是否设置成功,即是否成功伪装了 IP。
好,接下来我们就来看下各个请求库的代理设置方法吧。
首先我们以最基础的 urllib 为例,来看一下代理的设置方法,代码如下:
运行结果如下:
这里我们需要借助 ProxyHandler 设置代理,参数是字典类型,键名为协议类型,键值是代理。注意,此处代理前面需要加上协议,即 http:// 或者 https://,当请求的链接是 HTTP 协议的时候,会使用 http 键名对应的代理,当请求的链接是 HTTPS 协议的时候,会使用 https 键名对应的代理。不过这里我们把代理本身设置为了 HTTP 协议,即前缀统一设置为了 http://,所以不论访问 HTTP 还是 HTTPS 协议的链接,都会使用我们配置的 HTTP 协议的代理进行请求。
创建完 ProxyHandler 对象之后,我们需要利用 build_opener 方法传入该对象来创建一个 Opener,这样就相当于此 Opener 已经设置好代理了。接下来直接调用 Opener 对象的 open 方法,即可访问我们所想要的链接。
运行输出结果是一个 JSON,它有一个字段 origin,标明了客户端的 IP。验证一下,此处的 IP 确实为代理的 IP,并不是真实的 IP。这样我们就成功设置好代理,并可以隐藏真实 IP 了。
如果遇到需要认证的代理,我们可以用如下的方法设置:
这里改变的只是 proxy 变量,只需要在代理前面加入代理认证的用户名密码即可,其中 username 就是用户名,password 为密码,例如 username 为 foo,密码为 bar,那么代理就是 foo:[email protected]:7890。
如果代理是 SOCKS5 类型,那么可以用如下方式设置代理:
此处需要一个 socks 模块,可以通过如下命令安装:
这里需要本地运行一个 SOCKS5 代理,运行在 7891 端口,运行成功之后和上文 HTTP 代理输出结果是一样的:
结果的 origin 字段同样为代理的 IP,代理设置成功。
对于 requests 来说,代理设置非常简单,我们只需要传入 proxies 参数即可。
这里以我本机的代理为例,来看下 requests 的 HTTP 代理设置,代码如下:
运行结果如下:
和 urllib 一样,当请求的链接是 HTTP 协议的时候,会使用 http 键名对应的代理,当请求的链接是 HTTPS 协议的时候,会使用 https 键名对应的代理,不过这里统一使用了 HTTP 协议的代理。
运行结果中的 origin 若是代理服务器的 IP,则证明代理已经设置成功。
如果代理需要认证,那么在代理的前面加上用户名和密码即可,代理的写法就变成如下所示:
这里只需要将 username 和 password 替换即可。
如果需要使用 SOCKS 代理,则可以使用如下方式来设置:
这里我们需要额外安装一个包 requests[socks],相关命令如下所示:
运行结果是完全相同的:
另外,还有一种设置方式,即使用 socks 模块,也需要像上文一样安装 socks 库。这种设置方法如下所示:
使用这种方法也可以设置 SOCKS 代理,运行结果完全相同。相比第一种方法,此方法是全局设置的。我们可以在不同情况下选用不同的方法。
httpx 的用法本身就与 requests 的使用非常相似,所以其也是通过 proxies 参数来设置代理的,不过与 requests 不同的是,proxies 参数的键名不能再是 http 或 https,而需要更改为 http:// 或 https://,其他的设置是一样的。
对于 HTTP 代理来说,设置方法如下:
对于需要认证的代理,也是改下 proxy 的值即可:
这里只需要将 username 和 password 替换即可。
运行结果和使用 requests 是类似的,结果如下:
对于 SOCKS 代理,我们需要安装 httpx-socks 库,安装方法如下:
这样会同时安装同步和异步两种模式的支持。
对于同步模式,设置方法如下:
对于异步模式,设置方法如下:
和同步模式不同的是,transport 对象我们用的是 AsyncProxyTransport 而不是 SyncProxyTransport,同时需要将 Client 对象更改为 AsyncClient 对象,其他的不变,运行结果是一样的。
Selenium 同样可以设置代理,这里以 Chrome 为例来介绍其设置方法。
对于无认证的代理,设置方法如下:
运行结果如下:
代理设置成功,origin 同样为代理 IP 的地址。
如果代理是认证代理,则设置方法相对比较繁琐,具体如下所示:
这里需要在本地创建一个 manifest.json 配置文件和 background.js 脚本来设置认证代理。运行代码之后,本地会生成一个 proxy_auth_plugin.zip 文件来保存当前配置。
运行结果和上例一致,origin 同样为代理 IP。
SOCKS 代理的设置也比较简单,把对应的协议修改为 socks5 即可,如无密码认证的代理设置方法为:
运行结果是一样的。
对于 aiohttp 来说,我们可以通过 proxy 参数直接设置。HTTP 代理设置如下:
如果代理有用户名和密码,像 requests 一样,把 proxy 修改为如下内容:
这里只需要将 username 和 password 替换即可。
对于 SOCKS 代理,我们需要安装一个支持库 aiohttp-socks,其安装命令如下:
我们可以借助于这个库的 ProxyConnector 来设置 SOCKS 代理,其代码如下:
运行结果是一样的。
另外,这个库还支持设置 SOCKS4、HTTP 代理以及对应的代理认证,可以参考其官方介绍。
对于 Pyppeteer 来说,由于其默认使用的是类似 Chrome 的 Chromium 浏览器,因此其设置方法和 Selenium 的 Chrome 一样,如 HTTP 无认证代理设置方法都是通过 args 来设置的,实现如下:
运行结果如下:
同样可以看到设置成功。
SOCKS 代理也一样,只需要将协议修改为 socks5 即可,代码实现如下:
运行结果也是一样的。
相对 Selenium 和 Pyppeteer 来说,Playwright 的代理设置更加方便,其预留了一个 proxy 参数,可以在启动 Playwright 的时候设置。
对于 HTTP 代理来说,可以这样设置:
在调用 launch 方法的时候,我们可以传一个 proxy 参数,是一个字典。字典有一个必填的字段叫做 server,这里我们可以直接填写 HTTP 代理的地址即可。
运行结果如下:
对于 SOCKS 代理,设置方法也是完全一样的,我们只需要把 server 字段的值换成 SOCKS 代理的地址即可:
运行结果和刚才也是完全一样的。
对于有用户名和密码的代理,Playwright 的设置也非常简单,我们只需要在 proxy 参数额外设置 username 和 password 字段即可,假如用户名和密码分别是 foo 和 bar,则设置方法如下:
这样我们就能非常方便地为 Playwright 实现认证代理的设置。
以上我们就总结了各个请求库的代理使用方式,各种库的设置方法大同小异,学会了这些方法之后,以后如果遇到封 IP 的问题,我们可以轻松通过加代理的方式来解决。
本节代码:https://github.com/Python3WebSpider/ProxyTest
❼ python3中使用urllib进行https请求
刚入门python学习网络爬虫基础,我使用的python版本是python3.6.4,学习的教程参考 Python爬虫入门教程
python3.6的版本已经没有urllib2这个库了,所以我也不需要纠结urllib和urllib2的区别和应用场景
参考这篇官方文档 HOWTO Fetch Internet Resources Using The urllib Package 。关于http(s)请求一般就get和post两种方式较为常用,所以写了以下两个小demo,url链接随便找的,具体场景具体变化,可参考注释中的基本思路
POST请求:
GET请求:
注意,
使用ssl创建未经验证的上下文,在urlopen中需传入上下文参数
urllib.request.urlopen(full_url, context=context)
这是Python 升级到 2.7.9 之后引入的一个新特性,所以在使用urlopen打开https链接会遇到如下报错:
ssl.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:777)
所以,当使用urllib.urlopen打开一个 https 链接时,需要先验证一次 SSL 证书
context = ssl._create_unverified_context()
或者或者导入ssl时关闭证书验证
ssl._create_default_https_context =ssl._create_unverified_context
❽ python3.4中urllib 有没有urlencode函数
python3.x中urlencode在urllib.parse模块中
使用方式urllib.parse.urlencode
urllib.parse.urlencode(query,
doseq=False, safe='', encoding=None,
errors=None, quote_via=quote_plus)
Convert a mapping object or a sequence of two-element tuples, which may
contain str
or bytes objects, to a “percent-encoded” string. If the
resultant string is to be used as a data for POST operation with urlopen() function, then it should be properly
encoded to bytes, otherwise it would result in a TypeError.
The resulting string is a series of key=value pairs separated by '&' characters, where
both key and value are quoted using the quote_via
function. By default, quote_plus() is used to quote the values, which
means spaces are quoted as a '+' character and ‘/’ characters are encoded as %2F, which follows the
standard for GET requests (application/x-www-form-urlencoded). An alternate
function that can be passed as quote_via is quote(), which will encode spaces as %20 and not encode ‘/’
characters. For maximum control of what is quoted, use quote and specify a value
for safe.
When a sequence of two-element tuples is used as the query argument,
the first element of each tuple is a key and the second is a value. The value
element in itself can be a sequence and in that case, if the optional parameter
doseq is evaluates to True, indivial key=value pairs separated
by '&' are
generated for each element of the value sequence for the key. The order of
parameters in the encoded string will match the order of parameter tuples in the
sequence.
The safe, encoding, and errors parameters are
passed down to quote_via (the encoding and errors
parameters are only passed when a query element is a str).
To reverse this encoding process, parse_qs() and parse_qsl() are provided in this mole to parse
query strings into Python data structures.
Refer to urllib examples to
find out how urlencode method can be used for generating query string for a URL
or data for POST.
Changed in version 3.2: Query parameter
supports bytes and string objects.
❾ python的urllib3库(http连接池)
urllib3.disable_warnings() # 禁用各种urllib3的警告
1.retry:重试重定向次数,默认次数为3次,如果想要关闭重定向,但是不想关闭重试只需redirect=Flase,如果重定向重试都关闭,retries=False
2.timeout:超时,可以设置链接超时和读超时
timeout = urllib3.Timeout(connect=1,read=2)
3.numpools:池子的数量,假如有10个池子,当你访问第11个ip的时候第一个池子会被干掉,然后建一个
新的供第11个使用.一个池子是作用于同一个ip下的,即 http://aaa.com/a 和 http://aaa.com/b 是会共用一个池子的
4.maxsize:一个池子缓存的最大连接数量.没有超过最大链接数量的链接都会被保存下来.在block为false的情况下,
添加的额外的链接不会被保存一般多用于多线程之下,一般情况是设置为和线程数相等的数量, 保证每个线程都能访问一个链接.
5.还有一个参数 是 block ,默认为False,如果线程数量大于池子最大链接数量.这时设置block为true,则会阻塞线程,因为线程会等其他线程使用完链接,如果设置为False,则不会阻塞线程,但是会新开一个链接.有一个弊端是,使用完之后这个链接会关闭,所以如果 多线程经常建立链接会影响性能,多占用多余的资源