亚洲国产精品无码久久大片,亚洲AV无码乱码麻豆精品国产,亚洲品质自拍网站,少妇伦子伦精品无码STYLES,国产精久久久久久久

querylist采集微信公眾號文章 熊孩子和萌寵搞笑視頻笑聲不斷快樂(lè )常伴

優(yōu)采云 發(fā)布時(shí)間: 2021-06-20 06:33

  querylist采集微信公眾號文章 熊孩子和萌寵搞笑視頻笑聲不斷快樂(lè )常伴

  每天更新視頻:熊孩子的日常,萌寵的日常,熊孩子和萌寵的搞笑視頻,笑不停,一直陪著(zhù)你!

  

  請允許我強制投放一波廣告:

  因為每個(gè)爬蟲(chóng)官方賬號都是他家的,一年前的,現在的,只是主題和名字都變了。

  一個(gè)喜歡小寵物但養不起貓的碼農,下班后很高興來(lái)看看??梢躁P(guān)注哦!

  為保證視頻安全,避免丟失,請樓主為視頻添加水印。

  獲取官方賬號信息

  標題、摘要、封面、文章URL

  步驟:

  1、先自己申請公眾號

  2、登錄您的帳戶(hù),創(chuàng )建一個(gè)新的文章圖形,然后單擊超鏈接

  

  3、彈出搜索框,搜索你需要的公眾號,查看歷史文章

  

  

  4、抓包獲取信息并定位請求的url

  

  通過(guò)查看信息,找到了我們需要的關(guān)鍵內容:title、abstract、cover和文章URL,確認這是我們需要的URL,點(diǎn)擊下一頁(yè),多次獲取url,發(fā)現只有 random 和 begin 的參數發(fā)生了變化

  

  這樣就確定了主要信息網(wǎng)址。

  讓我們開(kāi)始吧:

  原來(lái)我們需要修改的參數是:token、random、cookie

  獲取url的時(shí)候就可以得到這兩個(gè)值的來(lái)源。

  # -*- coding: utf-8 -*-

import re

import requests

import jsonpath

import json

headers = {

"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36",

"Host": "mp.weixin.qq.com",

"Referer": "https://mp.weixin.qq.com/cgi-bin/appmsg?t=media/appmsg_edit&action=edit&type=10&isMul=1&isNew=1&lang=zh_CN&token=1862390040",

"Cookie": "自己獲取信息時(shí)的cookie"

}

def getInfo():

for i in range(80):

# token random 需要要自己的 begin:參數傳入

url = "https://mp.weixin.qq.com/cgi-bin/appmsg?token=1904193044&lang=zh_CN&f=json&ajax=1&random=0.9468236563826882&action=list_ex&begin={}&count=5&query=&fakeid=MzI4MzkzMTc3OA%3D%3D&type=9".format(str(i * 5))

response = requests.get(url, headers = headers)

jsonRes = response.json()

titleList = jsonpath.jsonpath(jsonRes, "$..title")

coverList = jsonpath.jsonpath(jsonRes, "$..cover")

urlList = jsonpath.jsonpath(jsonRes, "$..link")

# 遍歷 構造可存儲字符串

for index in range(len(titleList)):

title = titleList[index]

cover = coverList[index]

url = urlList[index]

scvStr = "%s,%s, %s,\n" % (title, cover, url)

with open("info.csv", "a+", encoding="gbk", newline='') as f:

f.write(scvStr)

  獲取結果(成功):

  

  獲取文章內視頻:實(shí)現批量下載

  分析一個(gè)視頻文章后,我找到了這個(gè)鏈接:

  

  打開(kāi)網(wǎng)頁(yè),發(fā)現是視頻網(wǎng)頁(yè)的下載鏈接:

  

  

  嘿嘿,好像有點(diǎn)意思,找到了視頻網(wǎng)頁(yè)的純下載鏈接,開(kāi)始吧。

  我發(fā)現鏈接中有一個(gè)關(guān)鍵參數vid。不知從何而來(lái)?

  與獲取的其他信息無(wú)關(guān),只能強制。

  這個(gè)參數是在文章單人的url請求信息中找到的,然后獲取。

  response = requests.get(url_wxv, headers=headers)

# 我用的是正則,也可以使用xpath

jsonRes = response.text # 匹配:wxv_1105179750743556096

dirRe = r"wxv_.{19}"

result = re.search(dirRe, jsonRes)

wxv = result.group(0)

print(wxv)

  視頻下載:

  def getVideo(video_title, url_wxv):

video_path = './videoFiles/' + video_title + ".mp4"

# 頁(yè)面可下載形式

video_url_temp = "https://mp.weixin.qq.com/mp/videoplayer?action=get_mp_video_play_url&preview=0&__biz=MzI4MzkzMTc3OA==&mid=2247488495&idx=4&vid=" + wxv

response = requests.get(video_url_temp, headers=headers)

content = response.content.decode()

content = json.loads(content)

url_info = content.get("url_info")

video_url2 = url_info[0].get("url")

print(video_url2)

# 請求要下載的url地址

html = requests.get(video_url2)

# content返回的是bytes型也就是二進(jìn)制的數據。

html = html.content

with open(video_path, 'wb') as f:

f.write(html)

  然后所有的信息都完成了,進(jìn)行代碼組裝。

  一個(gè)。獲取公眾號信息

  B.過(guò)濾單篇文章文章information

  c.獲取視頻信息

  d。拼接視頻頁(yè)面下載地址

  e.下載視頻并保存

  代碼實(shí)驗結果:

  

  

  

  

  獲取公眾號:標題、摘要、封面、視頻、

  可以說(shuō)你擁有一個(gè)視頻公眾號的所有信息,你可以復制一份。

  危險動(dòng)作,請勿操作!記??!記??!記??!

  獲取代碼請回復公眾號:20191210或公眾號

  

0 個(gè)評論

要回復文章請先登錄注冊


官方客服QQ群

微信人工客服

QQ人工客服


線(xiàn)

亚洲国产精品无码久久大片,亚洲AV无码乱码麻豆精品国产,亚洲品质自拍网站,少妇伦子伦精品无码STYLES,国产精久久久久久久