亚洲国产精品无码久久大片,亚洲AV无码乱码麻豆精品国产,亚洲品质自拍网站,少妇伦子伦精品无码STYLES,国产精久久久久久久

干貨內容:Python入門(mén)學(xué)習教程:50行Python代碼,教你獲取公眾號全部文章

優(yōu)采云 發(fā)布時(shí)間: 2020-08-31 16:07

  Python入門(mén)學(xué)習教程: 50行Python代碼,教您獲得所有正式帳戶(hù)的文章

  今天的Python入門(mén)學(xué)習教程主要告訴您如何獲取官方帳戶(hù)的所有文章!

  在閱讀官方帳戶(hù)的文章時(shí),我們通常會(huì )遇到一個(gè)問(wèn)題-閱讀歷史文章的經(jīng)驗不好.

  我們知道,有兩種常見(jiàn)的爬網(wǎng)官方帳戶(hù)的方法: 通過(guò)搜狗搜索獲得它. 缺點(diǎn)是只能獲取最新的十篇文章. 通過(guò)微信官方賬號的物料管理獲取官方賬號. 缺點(diǎn)是您需要申請自己的官方帳戶(hù).

  

  今天,我們將介紹一種通過(guò)在PC端捕獲微信來(lái)獲取官方帳戶(hù)文章的方法. 與其他方法相比,它非常方便.

  

  

  如上圖所示,我們通過(guò)數據包捕獲工具獲得了微信網(wǎng)絡(luò )信息請求. 我們發(fā)現,每次下拉列表中的文章時(shí),我們都會(huì )請求/ mp / xxx(官方帳戶(hù)不允許添加首頁(yè)鏈接,xxx表示profile_ext).

  經(jīng)過(guò)多次測試和分析,使用了以下參數

  數據如下

  {

"ret": 0,

"errmsg": "ok", # 請求狀態(tài)

"msg_count": 10, # 信息條數

"can_msg_continue": 1, # 是否還可以繼續獲取,1代表可以。0代表不可以,也就是最后一頁(yè)

"general_msg_list": "{"list":[]}", # 公眾號文本信息

"next_offset": 20,

"video_count": 1,

"use_video_tab": 1,

"real_type": 0,

"home_page_list": []

}

  部分代碼如下

   params = {

'__biz': biz,

'uin': uin,

'key': key,

'offset': offset,

'count': count,

'action': 'getmsg',

'f': 'json'

}

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'

}

response = requests.get(url=url, params=params, headers=headers)

resp_json = response.json()

if resp_json.get('errmsg') == 'ok':

resp_json = response.json()

# 是否還有分頁(yè)數據, 用于判斷return的值

can_msg_continue = resp_json['can_msg_continue']

# 當前分頁(yè)文章數

msg_count = resp_json['msg_count']

general_msg_list = json.loads(resp_json['general_msg_list'])

list = general_msg_list.get('list')

print(list, "**************")

  最后打印的列表是官方帳戶(hù)的文章信息詳細信息. 包括標題(標題),摘要(摘要),文章地址(content_url),閱讀源地址(source_url),封面圖像(封面),作者(作者)等...

  輸出結果如下:

  [{

"comm_msg_info": {

"id": 1000000038,

"type": 49,

"datetime": 1560474000,

"fakeid": "3881067844",

"status": 2,

"content": ""

},

"app_msg_ext_info": {

"title": "入門(mén)爬蟲(chóng),這一篇就夠了?。?!",

"digest": "入門(mén)爬蟲(chóng),這一篇就夠了?。?!",

"content": "",

"fileid": 0,

"content_url": "http:XXXXXX",

"source_url": "",

"cover": "I5kME6BVXeLibZDUhsiaEYiaX7zOoibxa9sb4stIwrfuqID5ttmiaoVAFyxKF6IjOCyl22vg8n2NPv98ibow\/0?wx_fmt=jpeg",

"subtype": 9,

"is_multi": 0,

"multi_app_msg_item_list": [],

"author": "Python3X",

"copyright_stat": 11,

"duration": 0,

"del_flag": 1,

"item_show_type": 0,

"audio_fileid": 0,

"play_url": "",

"malicious_title_reason_id": 0,

"malicious_content_type": 0

}

},{...},{...},{...},{...},{...},{...},{...},{...},{...}]

  獲取數據后,可以將其保存在數據庫中或將文章保存在PDF中.

  1,保存在Mongo中

  # Mongo配置

conn = MongoClient('127.0.0.1', 27017)

db = conn.wx #連接wx數據庫,沒(méi)有則自動(dòng)創(chuàng )建

mongo_wx = db.article #使用article集合,沒(méi)有則自動(dòng)創(chuàng )建

for i in list:

app_msg_ext_info = i['app_msg_ext_info']

# 標題

title = app_msg_ext_info['title']

# 文章地址

content_url = app_msg_ext_info['content_url']

# 封面圖

cover = app_msg_ext_info['cover']

# 發(fā)布時(shí)間

datetime = i['comm_msg_info']['datetime']

datetime = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(datetime))

mongo_wx.insert({

'title': title,

'content_url': content_url,

'cover': cover,

'datetime': datetime

})

  結果如下

  

  2. 導入PDF文件

  在Python3中處理PDF的常用庫包括python-pdf和pdfkit. 我使用pdfkit模塊導出pdf文件.

  pdfkit是Wkhtmltopdf工具包的軟件包類(lèi),因此需要安裝Wkhtmltopdf才能使用它.

  有權下載與操作系統匹配的工具包.

  

  實(shí)現代碼也相對簡(jiǎn)單,只需要傳入導入文件的URL即可.

  安裝pdfkit庫

  pip3 install pdfkit -i http://pypi.douban.com/simple --trusted-host pypi.douban.com

  import pdfkit

pdfkit.from_url('公眾號文章地址', 'out.pdf')

  運行后成功導出pdf文件.

  

  完整代碼

0 個(gè)評論

要回復文章請先登錄注冊


官方客服QQ群

微信人工客服

QQ人工客服


線(xiàn)

亚洲国产精品无码久久大片,亚洲AV无码乱码麻豆精品国产,亚洲品质自拍网站,少妇伦子伦精品无码STYLES,国产精久久久久久久