當前位置:首頁 » 編程語言 » 公眾號python

公眾號python

發布時間: 2023-03-23 16:45:23

⑴ 哪個python庫可以操作登錄微信公眾號後,可以自動操作公眾號里的內容。

selenium庫

⑵ python開發微信公眾號SDK選擇

1.wechat-sdk

文檔地址:

2.wechat

文檔地址:

3.wechatpy(推薦)

文檔地址:

⑶ python怎麼轉換成微信程序

安裝模塊

1.生成微信對象

bot = Bot() #初始化一個對象,就相當於拿到了這個人的微信,後續的一些操作都要用它來完成

2.分別找到微信對象的好友,聊天對象,朋友,群組,公眾號

friends = bot.friends() # 獲取朋友

chats = bot.chats() # 獲取聊天對象

groups = bot.groups() #獲取群聊

maps = bot.maps() #獲取公眾號

拿到的都是列表 如果要取到對象加上角標[0] 但是這樣很麻煩 推薦方法,這樣寫

ensure_one(bot.groups().search('東寶中學優秀校友群'))

3. 查找某個好友

friend = bot.friends().search('袁勇')[0]

4.向好友發送消息

5.統計微信好友的信息,比如男女比例,地域分配,等等

bot.friends().stats_text()

6.監聽群裡面某個人的消息

7.接入圖靈機器人 讓機器人來回復好友信息

8.設置最大保存信息條數,並且可以搜索

9.用微信監控你的程序

1.獲得專用logger

2.指定一個群為消息接受者

3.將異常消息發送到指定對象那裡

⑷ 微信公眾號回採怎麼用

微信公眾號回採是什麼?

簡單的說就是利用python爬蟲技術,獲得特定微信公眾號的全部營運情況,即為某個公眾號某個時間段內的所有的文章鏈接,標題,摘要,正文,閱讀數,點贊數,評論數,在看數,並導出為excel格式為下一步數據分析做准備。

採集方法大致有三種:

1.基於逆向方式

2.基於中間人方式

3.基於萬能key方式

以第二譽尺姿種為例,用python-selenium 在微信公眾號後台爬取所有文章鏈接,在Windows PC端微信處用 fiddler 抓取cookie 等進行HTTP數據介面分析,python-request 構造請求header,data, 用post方法請求數據,等到文章的全部內容信息。

目的:如果你是微信公眾號運營,自媒體創業者,廣告投放數字媒體營銷部門等,都可慶絕以通過微信公眾號數據分析了解該微信公眾號的情況,以作出進一步的決策。

例如 微信公眾號的文章的標題該怎麼寫,摘要改怎麼寫,字體,間距,文章字元,配圖和視頻等,

例如當下同行的熱點,同行的運營方向和效果,文章質量和轉化率,

例如該不該在這個微信公眾號上投廣告,有沒有數據造假,閱讀數點贊數等是否穩定,用戶互動情況評困敬論數如何,主推文章和次推文章的流量差距等。

例如,製作行業榜單了解公司微信公眾號在行業的排名。

以自己的目的為導向,構造統計指標體系。

以公司運營為例:

了解本公司的運營情況,主要指標:每篇文章的閱讀數,評論數等,同行榜單排名情況。

同行運營方向和運營情況。主要指標:對比同行,公司文章運營數據的對比得出改進方向,如平均閱讀數同比,評論數同比。

文章標題和摘要的特徵和寫法,行業熱點和受眾喜愛內容分析。行業內熱門文章的匯集分析,行業前10 的公眾號閱讀量超前的文章分析標題,正文,互動情況和互動內容。

⑸ 用 Python 和 werobot進行公眾號開發-2.發送及上傳圖片

werobot是Python進行公眾號開發伏純閉比較好用的庫,安裝及入門使用可以參考 第1節 。前面我們知道如何回復文本消息缺裂,本節中我們學習如何發送圖片。
在 官網 上的文檔上,我們可以看到,返回消息有多種類型,werobot提供了多個類與多種類型對應,TextReply返回的是文本,ImageReply返回的是圖片。

通過網路、微信公眾號開發文檔褲悉,可以查到微信伺服器,為上傳成功的素材提供了media_id,通過開發介面成功的上傳的素材,都有一個獨立的media_id,這個media_id在返回開發介面時可以查看得到。

也就是說,我們上傳圖片,把media_id記下來,然後就可以發送圖片了。

如何找到media_id呢,我們利用 微信提供的上傳媒體文件調試工具 來上傳圖片。

⑹ python怎麼能抓微信公眾號文章的閱讀數

思路一,利用rss生成工具,將搜狗的微信搜索結果生成一個rss,然後通過rss監控這個公眾號的文章是否更新。(理論上應該可行,但沒試過)

思路二,自己做一個桌面瀏覽器,IE內核。用這個瀏覽器登錄web微信,這個微信帳號關注你想抓取的公眾號,這樣就可以監控到是這些公眾號是否已更新,更新後鏈接是什麼,從而達到抓取數據的目的。(使用過,效率不高,但非常穩定)

思路三,通過修改android的微信客戶端來實現(這個方法是我們曾經使用過一段時間的)

思路四,想辦法越過驗證直接取到鏈接,再通過鏈接取到數據。

⑺ 如何在微信公眾號編輯Python代碼

步驟如下:
1.關注微信公眾號「Python程序員」
2.關注成功後,點擊右下角的「潘多拉」->"Python終端「->"閱讀原文」。
3.Python開發頁面被打開,在下面的輸入框內,輸入python代碼,點擊確認即可。

⑻ pythone增加公眾號文章閱讀量

你好唯旦埋,針對你的情況,如果說你是想通過pythone來增遲豎加公眾號文章閱讀量,這是可以的,但是你需要有一台電腦並且你是懂編程的,最後就可以使用pythone來增加公眾號文章閱指螞讀量。

⑼ python怎麼抓取微信閱

抓取微信公眾號的文章

一.思路分析

目前所知曉的能夠抓取的方法有:

1、微信APP中微信公眾號文章鏈接的直接抓取(http://mp.weixin.qq.com/s?__biz=MjM5MzU4ODk2MA==&mid=2735446906&idx=1&sn=&scene=0#rd)


2、通過微信合作方搜狗搜索引擎(http://weixin.sogou.com/),發送相應請求來間接抓取

第1種方法中,這種鏈接不太好獲取,而且他的規律不是特別清晰。

因此本文採用的是方法2----通過給 weixin.sogou.com 發送即時請求來實時解析抓取數據並保存到本地。

二.爬取過程

1、首先在搜狗的微信搜索頁面測試一下,這樣能夠讓我們的思路更加清晰


在搜索引擎上使用微信公眾號英文名進行「搜公眾號」操作(因為公眾號英文名是公眾號唯一的,而中文名可能會有重復,同時公眾號名字一定要完全正確,不然可能搜到很多東西,這樣我們可以減少數據的篩選工作,只要找到這個唯一英文名對應的那條數據即可),即發送請求到'http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&_sug_=n&_sug_type_= ' % 'python',並從頁面中解析出搜索結果公眾號對應的主頁跳轉鏈接。

2.獲取主頁入口內容

使用request , urllib,urllib2,或者直接使用webdriver+phantomjs等都可以

這里使用的是request.get()的方法獲取入口網頁內容

[python]view plain

  • #爬蟲偽裝頭部設置

  • self.headers={'User-Agent':'Mozilla/5.0(WindowsNT6.3;WOW64;rv:51.0)Gecko/20100101Firefox/51.0'}

  • #設置操作超時時長

  • self.timeout=5

  • #爬蟲模擬在一個request.session中完成

  • self.s=requests.Session()


  • [python]view plain

  • #搜索入口地址,以公眾為關鍵字搜索該公眾號

  • defget_search_result_by_keywords(self):

  • self.log('搜索地址為:%s'%self.sogou_search_url)

  • returnself.s.get(self.sogou_search_url,headers=self.headers,timeout=self.timeout).content

  • 3.獲取公眾號地址

    從獲取到的網頁內容中,得到公眾號主頁地址, 這一步驟有很多方法, beautifulsoup、webdriver,直接使用正則,pyquery等都可以

    這里使用的是pyquery的方法來查找公眾號主頁入口地址

    [python]view plain

  • #獲得公眾號主頁地址

  • defget_wx_url_by_sougou_search_html(self,sougou_search_html):

  • doc=pq(sougou_search_html)

  • #printdoc('p[class="tit"]')('a').attr('href')

  • #printdoc('div[class=img-box]')('a').attr('href')

  • #通過pyquery的方式處理網頁內容,類似用beautifulsoup,但是pyquery和jQuery的方法類似,找到公眾號主頁地址

  • returndoc('div[class=txt-box]')('p[class=tit]')('a').attr('href')

  • 4.獲取公眾號主頁的文章列表

    首先需要載入公眾號主頁,這里用的是phantomjs+webdriver, 因為這個主頁的內容需要JS 渲染載入,採用之前的方法只能獲得靜態的網頁內容

    [python]view plain

  • #使用webdriver載入公眾號主頁內容,主要是js渲染的部分

  • defget_selenium_js_html(self,url):

  • browser=webdriver.PhantomJS()

  • browser.get(url)

  • time.sleep(3)

  • #執行js得到整個頁面內容

  • html=browser.execute_script("returndocument.documentElement.outerHTML")

  • returnhtml

  • 得到主頁內容之後,獲取文章列表,這個文章列表中有我們需要的內容

    [python]view plain

  • #獲取公眾號文章內容

  • defparse_wx_articles_by_html(self,selenium_html):

  • doc=pq(selenium_html)

  • print'開始查找內容msg'

  • returndoc('div[class="weui_media_boxappmsg"]')

  • #有的公眾號僅僅有10篇文章,有的可能多一點

  • #returndoc('div[class="weui_msg_card"]')#公眾號只有10篇文章文章的

  • 5.解析每一個文章列表,獲取我們需要的信息

    6.處理對應的內容

    包括文章名字,地址,簡介,發表時間等

    7.保存文章內容

    以html的格式保存到本地

    同時將上一步驟的內容保存成excel 的格式

    8.保存json數據

    這樣,每一步拆分完,爬取公眾號的文章就不是特別難了。

    三、源碼

    第一版源碼如下:

    [python]view plain

  • #!/usr/bin/python

  • #coding:utf-8

  • importsys

  • reload(sys)

  • sys.setdefaultencoding('utf-8')

  • fromurllibimportquote

  • frompyqueryimportPyQueryaspq

  • fromseleniumimportwebdriver

  • importrequests

  • importtime

  • importre

  • importjson

  • importos

  • classweixin_spider:

  • def__init__(self,kw):

  • '構造函數'

  • self.kw=kw

  • #搜狐微信搜索鏈接

  • #self.sogou_search_url='http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&_sug_=n&_sug_type_='%quote(self.kw)

  • self.sogou_search_url='http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&s_from=input&_sug_=n&_sug_type_='%quote(self.kw)

  • #爬蟲偽裝

  • self.headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW64;rv:47.0)Gecko/20100101FirePHP/0refox/47.0FirePHP/0.7.4.1'}

  • #操作超時時長

  • self.timeout=5

  • self.s=requests.Session()

  • defget_search_result_by_kw(self):

  • self.log('搜索地址為:%s'%self.sogou_search_url)

  • returnself.s.get(self.sogou_search_url,headers=self.headers,timeout=self.timeout).content

  • defget_wx_url_by_sougou_search_html(self,sougou_search_html):

  • '根據返回sougou_search_html,從中獲取公眾號主頁鏈接'

  • doc=pq(sougou_search_html)

  • #printdoc('p[class="tit"]')('a').attr('href')

  • #printdoc('div[class=img-box]')('a').attr('href')

  • #通過pyquery的方式處理網頁內容,類似用beautifulsoup,但是pyquery和jQuery的方法類似,找到公眾號主頁地址

  • returndoc('div[class=txt-box]')('p[class=tit]')('a').attr('href')

  • defget_selenium_js_html(self,wx_url):

  • '執行js渲染內容,並返回渲染後的html內容'

  • browser=webdriver.PhantomJS()

  • browser.get(wx_url)

  • time.sleep(3)

  • #執行js得到整個dom

  • html=browser.execute_script("returndocument.documentElement.outerHTML")

  • returnhtml

  • defparse_wx_articles_by_html(self,selenium_html):

  • '從selenium_html中解析出微信公眾號文章'

  • doc=pq(selenium_html)

  • returndoc('div[class="weui_msg_card"]')

  • defswitch_arctiles_to_list(self,articles):

  • '把articles轉換成數據字典'

  • articles_list=[]

  • i=1

  • ifarticles:

  • forarticleinarticles.items():

  • self.log(u'開始整合(%d/%d)'%(i,len(articles)))

  • articles_list.append(self.parse_one_article(article))

  • i+=1

  • #break

  • returnarticles_list

  • defparse_one_article(self,article):

  • '解析單篇文章'

  • article_dict={}

  • article=article('.weui_media_box[id]')

  • title=article('h4[class="weui_media_title"]').text()

  • self.log('標題是:%s'%title)

  • url='http://mp.weixin.qq.com'+article('h4[class="weui_media_title"]').attr('hrefs')

  • self.log('地址為:%s'%url)

  • summary=article('.weui_media_desc').text()

  • self.log('文章簡述:%s'%summary)

  • date=article('.weui_media_extra_info').text()

  • self.log('發表時間為:%s'%date)

  • pic=self.parse_cover_pic(article)

  • content=self.parse_content_by_url(url).html()

  • contentfiletitle=self.kw+'/'+title+'_'+date+'.html'

  • self.save_content_file(contentfiletitle,content)

  • return{

  • 'title':title,

  • 'url':url,

  • 'summary':summary,

  • 'date':date,

  • 'pic':pic,

  • 'content':content

  • }

  • defparse_cover_pic(self,article):

  • '解析文章封面圖片'

  • pic=article('.weui_media_hd').attr('style')

  • p=re.compile(r'background-image:url(.∗?)')

  • rs=p.findall(pic)

  • self.log('封面圖片是:%s'%rs[0]iflen(rs)>0else'')

  • returnrs[0]iflen(rs)>0else''

  • defparse_content_by_url(self,url):

  • '獲取文章詳情內容'

  • page_html=self.get_selenium_js_html(url)

  • returnpq(page_html)('#js_content')

  • defsave_content_file(self,title,content):

  • '頁面內容寫入文件'

  • withopen(title,'w')asf:

  • f.write(content)

  • defsave_file(self,content):

  • '數據寫入文件'

  • withopen(self.kw+'/'+self.kw+'.txt','w')asf:

  • f.write(content)

  • deflog(self,msg):

  • '自定義log函數'

  • printu'%s:%s'%(time.strftime('%Y-%m-%d%H:%M:%S'),msg)

  • defneed_verify(self,selenium_html):

  • '有時候對方會封鎖ip,這里做一下判斷,檢測html中是否包含id=verify_change的標簽,有的話,代表被重定向了,提醒過一陣子重試'

  • returnpq(selenium_html)('#verify_change').text()!=''

  • defcreate_dir(self):

  • '創建文件夾'

  • ifnotos.path.exists(self.kw):

  • os.makedirs(self.kw)

  • defrun(self):

  • '爬蟲入口函數'

  • #Step0:創建公眾號命名的文件夾

  • self.create_dir()

  • #Step1:GET請求到搜狗微信引擎,以微信公眾號英文名稱作為查詢關鍵字

  • self.log(u'開始獲取,微信公眾號英文名為:%s'%self.kw)

  • self.log(u'開始調用sougou搜索引擎')

  • sougou_search_html=self.get_search_result_by_kw()

  • #Step2:從搜索結果頁中解析出公眾號主頁鏈接

  • self.log(u'獲取sougou_search_html成功,開始抓取公眾號對應的主頁wx_url')

  • wx_url=self.get_wx_url_by_sougou_search_html(sougou_search_html)

  • self.log(u'獲取wx_url成功,%s'%wx_url)

  • #Step3:Selenium+PhantomJs獲取js非同步載入渲染後的html

  • self.log(u'開始調用selenium渲染html')

  • selenium_html=self.get_selenium_js_html(wx_url)

  • #Step4:檢測目標網站是否進行了封鎖

  • ifself.need_verify(selenium_html):

  • self.log(u'爬蟲被目標網站封鎖,請稍後再試')

  • else:

  • #Step5:使用PyQuery,從Step3獲取的html中解析出公眾號文章列表的數據

  • self.log(u'調用selenium渲染html完成,開始解析公眾號文章')

  • articles=self.parse_wx_articles_by_html(selenium_html)

  • self.log(u'抓取到微信文章%d篇'%len(articles))

  • #Step6:把微信文章數據封裝成字典的list

  • self.log(u'開始整合微信文章數據為字典')

  • articles_list=self.switch_arctiles_to_list(articles)

  • #Step7:把Step5的字典list轉換為Json

  • self.log(u'整合完成,開始轉換為json')

  • data_json=json.mps(articles_list)

  • #Step8:寫文件

  • self.log(u'轉換為json完成,開始保存json數據到文件')

  • self.save_file(data_json)

  • self.log(u'保存完成,程序結束')

  • #main

  • if__name__=='__main__':

  • gongzhonghao=raw_input(u'輸入要爬取的公眾號')

  • ifnotgongzhonghao:

  • gongzhonghao='python6359'

  • weixin_spider(gongzhonghao).run()

  • 第二版代碼:

    對代碼進行了一些優化和整改,主要:

    1.增加了excel存貯

    2.對獲取文章內容規則進行修改

    3.豐富了注釋

    本程序已知缺陷: 如果公眾號的文章內容包括視視頻,可能會報錯。

    [python]view plain

  • #!/usr/bin/python

  • #coding:utf-8

熱點內容
財富連線低利率怎麼配置 發布:2024-11-05 11:45:34 瀏覽:455
達人推源碼 發布:2024-11-05 11:45:34 瀏覽:460
cups腳本重啟不生效 發布:2024-11-05 11:34:19 瀏覽:997
解壓gta5 發布:2024-11-05 11:33:29 瀏覽:200
手游安卓cf怎麼退款 發布:2024-11-05 11:23:28 瀏覽:135
登錄qq時什麼是昵稱和密碼 發布:2024-11-05 11:21:38 瀏覽:955
ftp怎麼設置可以直接打開 發布:2024-11-05 11:20:49 瀏覽:823
問道全敏競技怎麼配置隊伍 發布:2024-11-05 11:20:04 瀏覽:832
app應用下載源碼下載 發布:2024-11-05 11:15:36 瀏覽:841
給公司伺服器配置公網ip 發布:2024-11-05 11:05:33 瀏覽:159