当前位置:首页 » 编程语言 » 爬虫淘宝python

爬虫淘宝python

发布时间: 2023-10-02 03:45:22

① 如何爬虫天猫店铺数据python

本编博客是关于爬取天猫店铺中指定店铺的所有商品基础信息的爬虫,爬虫运行只需要输入相应店铺的域名名称即可,信息将以csv表格的形式保存,可以单店爬取也可以增加一个循环进行同时爬取。

源码展示

首先还是完整代码展示,后面会分解每个函数的意义。

# -*- coding: utf-8 -*-
import requests
import json
import csv
import random
import re
from datetime import datetime
import time

class TM_procs(object):
def __init__(self,storename):
self.storename = storename
self.url = ''.format(storename)
self.headers = {
"user-agent":"Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 "
"(KHTML, like Gecko) Version/9.0 Mobile/13B143 Safari/601.1"
}
datenum = datetime.now().strftime('%Y%m%d%H%M')
self.filename = '{}_{}.csv'.format(self.storename, datenum)
self.get_file()

def get_file(self):
'''创建一个含有标题的表格'''
title = ['item_id','price','quantity','sold','title','totalSoldQuantity','url','img']
with open(self.filename,'w',newline='') as f:
writer = csv.DictWriter(f,fieldnames=title)
writer.writeheader()
return

def get_totalpage(self):
'''提取总页码数'''
num = random.randint(83739921,87739530)
enrl = '/shop/shop_auction_search.do?sort=s&p=1&page_size=12&from=h5&ajson=1&_tm_source=tmallsearch&callback=jsonp_{}'
url = self.url + enrl.format(num)
html = requests.get(url,headers=self.headers).text
infos = re.findall('(({.*}))',html)[0]
infos = json.loads(infos)
totalpage = infos.get('total_page')
return int(totalpage)

def get_procts(self,page):
'''提取单页商品列表'''
num = random.randint(83739921, 87739530)
enrl = '/shop/shop_auction_search.do?sort=s&p={}&page_size=12&from=h5&ajson=1&_tm_source=tmallsearch&callback=jsonp_{}'
url = self.url + enrl.format(page,num)
html = requests.get(url, headers=self.headers).text
infos = re.findall('(({.*}))', html)[0]
infos = json.loads(infos)
procts = infos.get('items')
title = ['item_id', 'price', 'quantity', 'sold', 'title', 'totalSoldQuantity', 'url', 'img']
with open(self.filename, 'a', newline='') as f:
writer = csv.DictWriter(f, fieldnames=title)
writer.writerows(procts)

def main(self):
'''循环爬取所有页面宝贝'''
total_page = self.get_totalpage()
for i in range(1,total_page+1):
self.get_procts(i)
print('总计{}页商品,已经提取第{}页'.format(total_page,i))
time.sleep(1+random.random())

if __name__ == '__main__':
storename = 'uniqlo'
tm = TM_procs(storename)
tm.main()

上面代码是选择了优衣库作为测试店铺,直接输入优衣库店铺的域名中关键词即可,最终表格会按照店铺名称和时间名词。

代码解读

导入库说明

  • requests库不用多数,爬取网页的主要库

  • json库是用来解析 json 格式的数据的,也就是 Python 中的字典格式

  • csv库是用来创建 csv 表格和保存信息的

  • random库是用来生成一个随机数的,这个代码中用到了两次,第一次是生成一个随机数据去获取最新的网页信息而不是缓存信息,第二次是随机一个时间,来减缓爬虫速度

  • re库是正则,主要用来提取信息

  • datetime和time都是时间库,前者一般用来生成当前时间字符串,后者本爬虫使用设置延迟时间

  • 爬虫思路

  • 首先通过分析手机端天猫店铺所有商品的网页,可以发现每次下滑一页都有一个 js 被加载,这个 js 的规律可以总结一下;

  • 通过分析可以发现每次请求 js 都可以得到一个关键信息,那就是 total_page 这个参数,这也一想就能猜到,就是当前店铺的总页码数,所以可以先取得这个数字,然后使用循环爬取全店商品;

  • 每一页有24个商品,而请求得到的是一个类似于 json 格式的网页信息,但是并非是直接的 json,所以可以用正则表达式提取符合 json 格式的部分留用;

  • 将每一页的信息保存到 csv 表格中,可以直接使用 csv 库的字典存储方式,非常方便;

  • 得到了单页的信息,也得到了总页码数,只需要一个循环就可以爬取全店的商品了。

  • 构造爬虫类

  • def __init__(self,storename):

  • self.storename = storename

  • self.url = '.format(storename)

  • self.headers = {

  • "user-agent":"Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 "

  • "(KHTML, like Gecko) Version/9.0 Mobile/13B143 Safari/601.1"

  • }

  • datenum = datetime.now().strftime('%Y%m%d%H%M')

  • self.filename = '{}_{}.csv'.format(self.storename, datenum)

  • self.get_file()

  • 上面代码依次完成以下操作:

  • 首先整个爬虫是写成了一个类,在初始化类的时候需要传递一个参数,这个参数就是店铺的名称。

  • 然后构造出店铺的所有商品页面的前半部分,这部分都是不会变的

  • 接着设置一个请求头

  • 按照当前时间生成一个以时间为依据的字符串,用来给文件命名,然后赋值给文件名称,确定保存文件的名称

  • 最后一句是在类生成的时候就运行这个函数,及生成一个带有标题的表格,后面会说道这个函数的具体含义

② 怎样用python抓取淘宝评论

#coding=utf-8

importurllib2
importsys
importjson
importre

#设置系统默认编码为utf-8
reload(sys)
sys.setdefaultencoding("utf-8")

#Onlyforpython2
'''
只是简单的示例,没有检查无评论的情况,其它异常也可能没有检查,
你可以根据自己的需要再对代码修改
'''

#解析网页数据
defparseData(html_data,reg_str):
pattern=re.compile(reg_str)
result=re.search(pattern,html_data)
ifresult:
returnresult.groups()


#commodity_url为商品详情页面
commodity_url="http://item.taobao.com/item.htm?spm=a1z10.1-c.w4004-9140345655.2.y3LCj0&id=44454286657"

html_data=urllib2.urlopen(commodity_url).read()
#获取用户ID和商品ID
auction_msg=parseData(html_data,r'userNumId=(.*?)&auctionNumId=(.*?)&')
ifnotauction_msg:
print"Getreviewsfailed!"#获取失败,退出
sys.exit()

reviews_url="http://rate.taobao.com/feedRateList.htm?callback=jsonp_reviews_list&currentPageNum=1&rateType=&orderType=sort_weight&userNumId=%s&auctionNumId=%s"%auction_msg

response=urllib2.urlopen(reviews_url)
reviews_data=response.read().decode("gbk")

#获取评论数据
json_str=parseData(reviews_data,r'((.*))')[0]
ifnotjson_str:
print"Getreviewsfailed!"#获取失败,退出
sys.exit()

jdata=json.loads(json_str)

#下面只打印了第一条评论,如需要打印所有,则遍历jdata["comments"]即可
printjdata["comments"][0]["content"]

③ 如何用python写一个爬虫统计淘宝某件商品的销量

如何写?用python爬虫!

源码附上:

爬取淘宝销量统计数据

④ 淘宝12亿条客户信息遭爬取,黑客非法获利34万,客户信息是如何泄露的

近些日子,一则“淘宝12亿条客户信息遭爬取,黑客非法获利34万”的问题,引发了广大网友们的热议,在网上闹的沸沸扬扬。那么,客户的信息是如何泄漏的呢?这个黑客使用了python的爬虫技术,爬出了淘宝的信息。然后这个黑客把这些拿到的信息,都拿去售卖给了其他需要这些信息的公司,各有所需。这些信息泄漏之后,轻则让我们收到更多的垃圾信息和骚扰电话,重则被骗取钱财。那么具体的情况是什么呢?我来给大家分享一下我的看法。

一.黑客爬取信息

这些黑客是通过python这个语言,利用了爬虫的功能,爬取了淘宝的12亿条客户的信息。不得不说,这个黑客的技术也是确实很硬,能够把淘宝这样的大公司的信息给爬取出来。

以上就是我对于这个问题所发表的看法,纯属个人观点,仅供参考。大家有什么不同的看法都可以在评论区留言,大家一起讨论一下。大家看完,记得点赞,加关注哦。

热点内容
家用电脑安装服务器内存 发布:2025-02-01 14:38:50 浏览:256
增量调制编译码实验报告 发布:2025-02-01 14:30:30 浏览:787
不良人2无敌伤害脚本 发布:2025-02-01 14:23:04 浏览:398
地图flash源码 发布:2025-02-01 14:13:33 浏览:957
家庭影院配置什么样的音响 发布:2025-02-01 14:04:33 浏览:545
苹果手机存储空间不能用怎么回事 发布:2025-02-01 14:03:04 浏览:259
qq易语言盗号源码 发布:2025-02-01 14:01:25 浏览:812
源神比较好的云服务器 发布:2025-02-01 13:55:27 浏览:208
黑苹果idea编译慢 发布:2025-02-01 13:45:30 浏览:552
c和linux 发布:2025-02-01 13:39:38 浏览:177