公眾號python
⑴ 哪個python庫可以操作登錄微信公眾號後,可以自動操作公眾號里的內容。
selenium庫
⑵ python開發微信公眾號SDK選擇
1.wechat-sdk
文檔地址:
2.wechat
文檔地址:
3.wechatpy(推薦)
文檔地址:
⑶ python怎麼轉換成微信程序
安裝模塊
1.生成微信對象
bot = Bot() #初始化一個對象,就相當於拿到了這個人的微信,後續的一些操作都要用它來完成
2.分別找到微信對象的好友,聊天對象,朋友,群組,公眾號
friends = bot.friends() # 獲取朋友
chats = bot.chats() # 獲取聊天對象
groups = bot.groups() #獲取群聊
maps = bot.maps() #獲取公眾號
拿到的都是列表 如果要取到對象加上角標[0] 但是這樣很麻煩 推薦方法,這樣寫
ensure_one(bot.groups().search('東寶中學優秀校友群'))
3. 查找某個好友
friend = bot.friends().search('袁勇')[0]
4.向好友發送消息
5.統計微信好友的信息,比如男女比例,地域分配,等等
bot.friends().stats_text()
6.監聽群裡面某個人的消息
7.接入圖靈機器人 讓機器人來回復好友信息
8.設置最大保存信息條數,並且可以搜索
9.用微信監控你的程序
1.獲得專用logger
2.指定一個群為消息接受者
3.將異常消息發送到指定對象那裡
⑷ 微信公眾號回採怎麼用
微信公眾號回採是什麼?
簡單的說就是利用python爬蟲技術,獲得特定微信公眾號的全部營運情況,即為某個公眾號某個時間段內的所有的文章鏈接,標題,摘要,正文,閱讀數,點贊數,評論數,在看數,並導出為excel格式為下一步數據分析做准備。
採集方法大致有三種:
1.基於逆向方式
2.基於中間人方式
3.基於萬能key方式
以第二譽尺姿種為例,用python-selenium 在微信公眾號後台爬取所有文章鏈接,在Windows PC端微信處用 fiddler 抓取cookie 等進行HTTP數據介面分析,python-request 構造請求header,data, 用post方法請求數據,等到文章的全部內容信息。
目的:如果你是微信公眾號運營,自媒體創業者,廣告投放數字媒體營銷部門等,都可慶絕以通過微信公眾號數據分析了解該微信公眾號的情況,以作出進一步的決策。
例如 微信公眾號的文章的標題該怎麼寫,摘要改怎麼寫,字體,間距,文章字元,配圖和視頻等,
例如當下同行的熱點,同行的運營方向和效果,文章質量和轉化率,
例如該不該在這個微信公眾號上投廣告,有沒有數據造假,閱讀數點贊數等是否穩定,用戶互動情況評困敬論數如何,主推文章和次推文章的流量差距等。
例如,製作行業榜單了解公司微信公眾號在行業的排名。
以自己的目的為導向,構造統計指標體系。
以公司運營為例:
了解本公司的運營情況,主要指標:每篇文章的閱讀數,評論數等,同行榜單排名情況。
同行運營方向和運營情況。主要指標:對比同行,公司文章運營數據的對比得出改進方向,如平均閱讀數同比,評論數同比。
文章標題和摘要的特徵和寫法,行業熱點和受眾喜愛內容分析。行業內熱門文章的匯集分析,行業前10 的公眾號閱讀量超前的文章分析標題,正文,互動情況和互動內容。
⑸ 用 Python 和 werobot進行公眾號開發-2.發送及上傳圖片
werobot是Python進行公眾號開發伏純閉比較好用的庫,安裝及入門使用可以參考 第1節 。前面我們知道如何回復文本消息缺裂,本節中我們學習如何發送圖片。
在 官網 上的文檔上,我們可以看到,返回消息有多種類型,werobot提供了多個類與多種類型對應,TextReply返回的是文本,ImageReply返回的是圖片。
通過網路、微信公眾號開發文檔褲悉,可以查到微信伺服器,為上傳成功的素材提供了media_id,通過開發介面成功的上傳的素材,都有一個獨立的media_id,這個media_id在返回開發介面時可以查看得到。
也就是說,我們上傳圖片,把media_id記下來,然後就可以發送圖片了。
如何找到media_id呢,我們利用 微信提供的上傳媒體文件調試工具 來上傳圖片。
⑹ python怎麼能抓微信公眾號文章的閱讀數
思路一,利用rss生成工具,將搜狗的微信搜索結果生成一個rss,然後通過rss監控這個公眾號的文章是否更新。(理論上應該可行,但沒試過)
思路二,自己做一個桌面瀏覽器,IE內核。用這個瀏覽器登錄web微信,這個微信帳號關注你想抓取的公眾號,這樣就可以監控到是這些公眾號是否已更新,更新後鏈接是什麼,從而達到抓取數據的目的。(使用過,效率不高,但非常穩定)
思路三,通過修改android的微信客戶端來實現(這個方法是我們曾經使用過一段時間的)
思路四,想辦法越過驗證直接取到鏈接,再通過鏈接取到數據。
⑺ 如何在微信公眾號編輯Python代碼
步驟如下:
1.關注微信公眾號「Python程序員」
2.關注成功後,點擊右下角的「潘多拉」->"Python終端「->"閱讀原文」。
3.Python開發頁面被打開,在下面的輸入框內,輸入python代碼,點擊確認即可。
⑻ pythone增加公眾號文章閱讀量
你好唯旦埋,針對你的情況,如果說你是想通過pythone來增遲豎加公眾號文章閱讀量,這是可以的,但是你需要有一台電腦並且你是懂編程的,最後就可以使用pythone來增加公眾號文章閱指螞讀量。
⑼ python怎麼抓取微信閱
抓取微信公眾號的文章
一.思路分析
目前所知曉的能夠抓取的方法有:
1、微信APP中微信公眾號文章鏈接的直接抓取(http://mp.weixin.qq.com/s?__biz=MjM5MzU4ODk2MA==&mid=2735446906&idx=1&sn=&scene=0#rd)
2、通過微信合作方搜狗搜索引擎(http://weixin.sogou.com/),發送相應請求來間接抓取
第1種方法中,這種鏈接不太好獲取,而且他的規律不是特別清晰。
因此本文採用的是方法2----通過給 weixin.sogou.com 發送即時請求來實時解析抓取數據並保存到本地。
二.爬取過程
1、首先在搜狗的微信搜索頁面測試一下,這樣能夠讓我們的思路更加清晰
在搜索引擎上使用微信公眾號英文名進行「搜公眾號」操作(因為公眾號英文名是公眾號唯一的,而中文名可能會有重復,同時公眾號名字一定要完全正確,不然可能搜到很多東西,這樣我們可以減少數據的篩選工作,只要找到這個唯一英文名對應的那條數據即可),即發送請求到'http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&_sug_=n&_sug_type_= ' % 'python',並從頁面中解析出搜索結果公眾號對應的主頁跳轉鏈接。
2.獲取主頁入口內容
使用request , urllib,urllib2,或者直接使用webdriver+phantomjs等都可以
這里使用的是request.get()的方法獲取入口網頁內容
[python]view plain
#爬蟲偽裝頭部設置
self.headers={'User-Agent':'Mozilla/5.0(WindowsNT6.3;WOW64;rv:51.0)Gecko/20100101Firefox/51.0'}
#設置操作超時時長
self.timeout=5
#爬蟲模擬在一個request.session中完成
self.s=requests.Session()
#搜索入口地址,以公眾為關鍵字搜索該公眾號
defget_search_result_by_keywords(self):
self.log('搜索地址為:%s'%self.sogou_search_url)
returnself.s.get(self.sogou_search_url,headers=self.headers,timeout=self.timeout).content
#獲得公眾號主頁地址
defget_wx_url_by_sougou_search_html(self,sougou_search_html):
doc=pq(sougou_search_html)
#printdoc('p[class="tit"]')('a').attr('href')
#printdoc('div[class=img-box]')('a').attr('href')
#通過pyquery的方式處理網頁內容,類似用beautifulsoup,但是pyquery和jQuery的方法類似,找到公眾號主頁地址
returndoc('div[class=txt-box]')('p[class=tit]')('a').attr('href')
#使用webdriver載入公眾號主頁內容,主要是js渲染的部分
defget_selenium_js_html(self,url):
browser=webdriver.PhantomJS()
browser.get(url)
time.sleep(3)
#執行js得到整個頁面內容
html=browser.execute_script("returndocument.documentElement.outerHTML")
returnhtml
#獲取公眾號文章內容
defparse_wx_articles_by_html(self,selenium_html):
doc=pq(selenium_html)
print'開始查找內容msg'
returndoc('div[class="weui_media_boxappmsg"]')
#有的公眾號僅僅有10篇文章,有的可能多一點
#returndoc('div[class="weui_msg_card"]')#公眾號只有10篇文章文章的
#!/usr/bin/python
#coding:utf-8
importsys
reload(sys)
sys.setdefaultencoding('utf-8')
fromurllibimportquote
frompyqueryimportPyQueryaspq
fromseleniumimportwebdriver
importrequests
importtime
importre
importjson
importos
classweixin_spider:
def__init__(self,kw):
'構造函數'
self.kw=kw
#搜狐微信搜索鏈接
#self.sogou_search_url='http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&_sug_=n&_sug_type_='%quote(self.kw)
self.sogou_search_url='http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&s_from=input&_sug_=n&_sug_type_='%quote(self.kw)
#爬蟲偽裝
self.headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW64;rv:47.0)Gecko/20100101FirePHP/0refox/47.0FirePHP/0.7.4.1'}
#操作超時時長
self.timeout=5
self.s=requests.Session()
defget_search_result_by_kw(self):
self.log('搜索地址為:%s'%self.sogou_search_url)
returnself.s.get(self.sogou_search_url,headers=self.headers,timeout=self.timeout).content
defget_wx_url_by_sougou_search_html(self,sougou_search_html):
'根據返回sougou_search_html,從中獲取公眾號主頁鏈接'
doc=pq(sougou_search_html)
#printdoc('p[class="tit"]')('a').attr('href')
#printdoc('div[class=img-box]')('a').attr('href')
#通過pyquery的方式處理網頁內容,類似用beautifulsoup,但是pyquery和jQuery的方法類似,找到公眾號主頁地址
returndoc('div[class=txt-box]')('p[class=tit]')('a').attr('href')
defget_selenium_js_html(self,wx_url):
'執行js渲染內容,並返回渲染後的html內容'
browser=webdriver.PhantomJS()
browser.get(wx_url)
time.sleep(3)
#執行js得到整個dom
html=browser.execute_script("returndocument.documentElement.outerHTML")
returnhtml
defparse_wx_articles_by_html(self,selenium_html):
'從selenium_html中解析出微信公眾號文章'
doc=pq(selenium_html)
returndoc('div[class="weui_msg_card"]')
defswitch_arctiles_to_list(self,articles):
'把articles轉換成數據字典'
articles_list=[]
i=1
ifarticles:
forarticleinarticles.items():
self.log(u'開始整合(%d/%d)'%(i,len(articles)))
articles_list.append(self.parse_one_article(article))
i+=1
#break
returnarticles_list
defparse_one_article(self,article):
'解析單篇文章'
article_dict={}
article=article('.weui_media_box[id]')
title=article('h4[class="weui_media_title"]').text()
self.log('標題是:%s'%title)
url='http://mp.weixin.qq.com'+article('h4[class="weui_media_title"]').attr('hrefs')
self.log('地址為:%s'%url)
summary=article('.weui_media_desc').text()
self.log('文章簡述:%s'%summary)
date=article('.weui_media_extra_info').text()
self.log('發表時間為:%s'%date)
pic=self.parse_cover_pic(article)
content=self.parse_content_by_url(url).html()
contentfiletitle=self.kw+'/'+title+'_'+date+'.html'
self.save_content_file(contentfiletitle,content)
return{
'title':title,
'url':url,
'summary':summary,
'date':date,
'pic':pic,
'content':content
}
defparse_cover_pic(self,article):
'解析文章封面圖片'
pic=article('.weui_media_hd').attr('style')
p=re.compile(r'background-image:url(.∗?)')
rs=p.findall(pic)
self.log('封面圖片是:%s'%rs[0]iflen(rs)>0else'')
returnrs[0]iflen(rs)>0else''
defparse_content_by_url(self,url):
'獲取文章詳情內容'
page_html=self.get_selenium_js_html(url)
returnpq(page_html)('#js_content')
defsave_content_file(self,title,content):
'頁面內容寫入文件'
withopen(title,'w')asf:
f.write(content)
defsave_file(self,content):
'數據寫入文件'
withopen(self.kw+'/'+self.kw+'.txt','w')asf:
f.write(content)
deflog(self,msg):
'自定義log函數'
printu'%s:%s'%(time.strftime('%Y-%m-%d%H:%M:%S'),msg)
defneed_verify(self,selenium_html):
'有時候對方會封鎖ip,這里做一下判斷,檢測html中是否包含id=verify_change的標簽,有的話,代表被重定向了,提醒過一陣子重試'
returnpq(selenium_html)('#verify_change').text()!=''
defcreate_dir(self):
'創建文件夾'
ifnotos.path.exists(self.kw):
os.makedirs(self.kw)
defrun(self):
'爬蟲入口函數'
#Step0:創建公眾號命名的文件夾
self.create_dir()
#Step1:GET請求到搜狗微信引擎,以微信公眾號英文名稱作為查詢關鍵字
self.log(u'開始獲取,微信公眾號英文名為:%s'%self.kw)
self.log(u'開始調用sougou搜索引擎')
sougou_search_html=self.get_search_result_by_kw()
#Step2:從搜索結果頁中解析出公眾號主頁鏈接
self.log(u'獲取sougou_search_html成功,開始抓取公眾號對應的主頁wx_url')
wx_url=self.get_wx_url_by_sougou_search_html(sougou_search_html)
self.log(u'獲取wx_url成功,%s'%wx_url)
#Step3:Selenium+PhantomJs獲取js非同步載入渲染後的html
self.log(u'開始調用selenium渲染html')
selenium_html=self.get_selenium_js_html(wx_url)
#Step4:檢測目標網站是否進行了封鎖
ifself.need_verify(selenium_html):
self.log(u'爬蟲被目標網站封鎖,請稍後再試')
else:
#Step5:使用PyQuery,從Step3獲取的html中解析出公眾號文章列表的數據
self.log(u'調用selenium渲染html完成,開始解析公眾號文章')
articles=self.parse_wx_articles_by_html(selenium_html)
self.log(u'抓取到微信文章%d篇'%len(articles))
#Step6:把微信文章數據封裝成字典的list
self.log(u'開始整合微信文章數據為字典')
articles_list=self.switch_arctiles_to_list(articles)
#Step7:把Step5的字典list轉換為Json
self.log(u'整合完成,開始轉換為json')
data_json=json.mps(articles_list)
#Step8:寫文件
self.log(u'轉換為json完成,開始保存json數據到文件')
self.save_file(data_json)
self.log(u'保存完成,程序結束')
#main
if__name__=='__main__':
gongzhonghao=raw_input(u'輸入要爬取的公眾號')
ifnotgongzhonghao:
gongzhonghao='python6359'
weixin_spider(gongzhonghao).run()
#!/usr/bin/python
#coding:utf-8
[python]view plain
3.獲取公眾號地址
從獲取到的網頁內容中,得到公眾號主頁地址, 這一步驟有很多方法, beautifulsoup、webdriver,直接使用正則,pyquery等都可以
這里使用的是pyquery的方法來查找公眾號主頁入口地址
[python]view plain
4.獲取公眾號主頁的文章列表
首先需要載入公眾號主頁,這里用的是phantomjs+webdriver, 因為這個主頁的內容需要JS 渲染載入,採用之前的方法只能獲得靜態的網頁內容
[python]view plain
得到主頁內容之後,獲取文章列表,這個文章列表中有我們需要的內容
[python]view plain
5.解析每一個文章列表,獲取我們需要的信息
6.處理對應的內容
包括文章名字,地址,簡介,發表時間等
7.保存文章內容
以html的格式保存到本地
同時將上一步驟的內容保存成excel 的格式
8.保存json數據
這樣,每一步拆分完,爬取公眾號的文章就不是特別難了。
三、源碼
第一版源碼如下:
[python]view plain
第二版代碼:
對代碼進行了一些優化和整改,主要:
1.增加了excel存貯
2.對獲取文章內容規則進行修改
3.豐富了注釋
本程序已知缺陷: 如果公眾號的文章內容包括視視頻,可能會報錯。
[python]view plain